JP4105398B2 - 情報処理システム - Google Patents

情報処理システム Download PDF

Info

Publication number
JP4105398B2
JP4105398B2 JP2001053472A JP2001053472A JP4105398B2 JP 4105398 B2 JP4105398 B2 JP 4105398B2 JP 2001053472 A JP2001053472 A JP 2001053472A JP 2001053472 A JP2001053472 A JP 2001053472A JP 4105398 B2 JP4105398 B2 JP 4105398B2
Authority
JP
Japan
Prior art keywords
storage area
data
information
disk device
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001053472A
Other languages
English (en)
Other versions
JP2002259172A (ja
Inventor
康友 山本
高 大枝
孝夫 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001053472A priority Critical patent/JP4105398B2/ja
Priority to US09/825,607 priority patent/US6915403B2/en
Publication of JP2002259172A publication Critical patent/JP2002259172A/ja
Application granted granted Critical
Publication of JP4105398B2 publication Critical patent/JP4105398B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ホストコンピュータ(ホスト)及び該ホストと接続される記憶装置を有する計算機システムに係り、特に、計算機システムが有する記憶装置に格納されたデータの移動を支援する機能に関する。
【0002】
【従来の技術】
一般に、計算機システムを構築する際には、ネットワークやディスク装置などのリソースがボトルネックとならないようにシステム設計が行われる。特に、プロセッサなどに比べて低速な外部記憶装置は、性能上のボトルネックとなりやすく、システム設計にあたって様々な対策が施される。その一つとして、記憶装置上のデータ格納形式の最適化が挙げられる。
例えば、高頻度でアクセスされるデータをより高速なディスク装置に格納したり、データを複数のディスク装置に分散配置することでデータアクセスの性能を改善できる。また、いわゆるRAID(Redundant Array of Independent Disk)装置を使用する場合には、RAID装置のデータアクセスのシーケンシャル性を考慮して、RAIDレベル(冗長構成)を決定すれば、アクセス特性に適合したデータの格納が可能となる。
【0003】
システム設計という視点から見た場合には、システムにおいて使用されるデータの格納形式を考慮して、各データに割り当てられるディスク装置の容量を決定することが必要となる。具体的には、データベース(DB)におけるDB表の領域サイズや、ファイルシステム(FS)におけるFSサイズの決定がこれに相当する。通常、計算機システムの運用に伴って取り扱われるデータは増加していく。このため、システム設計時には、関連業務における過去の実績などを元にデータ量の増加率を予測し、次に保守可能な時期までに予測されるデータ量の増加に耐えられるだけの空き領域を確保するようにディスク装置の容量を決定して、それぞれのデータ領域が定義される。
【0004】
上述のように、システム設計に際しては、データアクセス性能の向上およびデータ量の増加を考慮して、記憶装置とデータの格納形式を組み合わせることが重要となる。この組み合わせの決定を支援する手段として、Logical Volume Manager(LVM)がある。
【0005】
LVMとは、実際のディスク装置の任意の部分領域をまとめ、論理的に一つのボリューム(これを論理ボリュームと言い、以下「LV」と称する。)としてホストに提供するものである。LVMは、LVを管理し、LVの作成、削除、サイズ変更(拡大/縮小)なども行う。LVMは、LVを多重化するミラーリング機能や、LVを小領域(ストライプ)に分割して、複数の物理ボリューム(PV)に分散して配置するストライピング機能も有する。
【0006】
LVMを用いた場合、ユーザは、DB表やFSといったデータを格納する領域をPVではなくLV上に配置することになる。このようにすることで、データの格納形式の選択又は管理が容易となる。例えば、LV上にFSを配置することで、通常1台のディスク装置、またはその1つのパーティションに1つしか割り当てられないFSを、複数のディスク装置に分散して配置することが可能となる。また、ファイルの容量の増加に合わせてLVを拡張することで、最小限の手間でFSを拡張(再構成)することが可能となる。
【0007】
【発明が解決しようとする課題】
計算機システムで業務運用を続けていくと、データの格納形式を見直す必要が生じることがある。見直しの契機としては、データのアクセス傾向やアクセス特性の変化、当初見積もりとは異なるデータ量の変動などといった、システム設計時に想定されていた業務モデルの見直しによるもの、ディスク装置の追加や高速なリソースへの置き換えなどといった、前提とする物理リソース構成の変更によるもの、拡張を繰り返すことによる断片化(fragmentation)したLVやDB表の連続化などといったデータ管理方式上必然的に生じるものなどが考えられる。このような場合、データの格納形式を見直し、データを再配置することで、システムの性能を改善することができる。
【0008】
しかし、記憶装置に格納されたデータの再配置を行うには、従来の技術においては、ホストの介在によるデータ転送が必要となる。
【0009】
今、複数のPVに分散されたLVを一つのPVにまとめる場合のデータ再配置処理の手順を以下に示す。
(1)処理対象となるLVの容量分の領域をPV上に確保する。
(2)LVからホストがデータをリードし、それを新しいLVの領域にライトする。
(3)(2)を繰り返して全データをコピーし終えたら、LVとPVマッピング情報を変更する。
【0010】
このように、LVを再構成するには、LV全体という大量のデータ転送が生じるため、データ転送元/先のPVに大量の入出力(I/O)が発生する。同時に、ホストおよびチャネルにも多大な負荷がかかり、他のLV内のデータを対象とした実行中の処理にも性能上悪影響を及ぼしてしまう。
【0011】
また、このようなデータ再配置処理の間は、再配置の対象となるデータへのアクセスについて、少なくともデータの更新を抑止する必要がある。例えば、LVの再構成の場合、通常、LVをオフライン(Unixではアンマウント)とし、再構成完了後にオンライン(Unixではマウント)にすることで、データ再配置中のデータのアクセスを抑止する。データアクセスの対象となるLVがオフラインとなるため、そのLVを利用する業務は、データ再配置処理の間、停止することになる。
【0012】
このため、LV再構成等のデータ再配置を行う場合には、そのデータにアクセスする業務を所定の期間中断することができる時間帯に行わなければならない。従って、計算機システムの保守作業に時間的制約が生じてしまう。
【0013】
本発明の目的は、記憶装置に格納されたデータを再配置する際に、移動元データ領域から移動先データ領域へのデータ転送によるホストおよびチャネルの負荷を軽減することにある。
【0014】
また、本発明の別の目的は、データ再配置により、データへのアクセスが不可となる期間を可能な限り削減し、そのデータを利用する業務が中断される時間を削減することにある。
【0015】
【課題を解決するための手段】
上記目的を達成するために、本発明では、ホストコンピュータと、前記ホストコンピュータに接続され、複数のディスク装置を有する記憶装置とを有する情報処理システムで、以下の構成とする。ホストコンピュータは、複数のディスク装置の物理的な記憶領域と論理的な記憶領域との対応関係の情報が登録されたテーブルを有する。ホストコンピュータは、第一のディスク装置に記録されたデータを第二のディスク装置に移動する場合に、第二のディスク装置の物理的な記憶領域を示す情報をテーブルから取得する。ホストコンピュータは、取得した情報を、記憶装置に転送する。データの移動が終了した後、ホストコンピュータは、テーブルに登録された情報を更新する。また、記憶装置は、ホストコンピュータから転送された前記情報を用いて、移動元のデータを移動先のディスク装置に複写する。
【0016】
以上の構成により、データを再配置する場合のデータの転送を記憶装置側で行うことで、データ転送によるホストおよびチャネル負荷を軽減することができる。
【0017】
また、記憶装置でのデータ転送処理を、単純に領域間コピーで実現するのではなく、転送元と転送先のデータ領域で一時的に内容の同期をとるペアを形成し、データ転送中およびデータ転送完了後に転送元データ領域に対して行われたデータ更新を全て転送先へ反映する構成とすることも出来る。
【0018】
また、ホストコンピュータではなく、記憶装置でディスク装置の仮想的な記憶領域の管理を行う構成も考えられる。
【0019】
【発明の実施の形態】
図1は、本発明が適用された計算機システムの第1実施形態における構成を示す構成図である。
【0020】
本実施形態における計算機システムは、ホスト100及び記憶装置110を有する。ホスト100と記憶装置110は、SCSIバス等の通信線で接続されている。両者間の交信は通信線を介して行われる。
【0021】
ホスト100は、CPU101、主記憶102及びチャネル103を有し、それぞれが内部バスで接続される。
【0022】
CPU101は、データベース等のアプリケーションプログラム(AP)を実行する。APが動作する際のメモリ割り当てや、記憶装置110への入出力制御は、CPU101で動作するオペレーティングシステム(OS)およびOSに関連するソフトウェアで行われる。LVM142も、OSに関連するソフトウェアである。LVM142は、記憶装置110により提供されるPVの記憶領域をまとめてLVとして仮想的にAPに提供する。
本実施形態では、CPU101で、LVM142が実行される。LVM142は、後述するLV−PV対応情報141などの制御情報を用いてLVの制御を行う。
【0023】
主記憶102には、アプリケーションプログラム、OS、LVM等のOS関連ソフトウェアの実行オブジェクトコードや各ソフトウェアが使用するデータや制御情報等が格納される。
【0024】
図3及び図4は、LV−PV対応情報141のテーブル図である。
LV−PV対応情報141は、LVが対応するPV(又はPVが対応するLV)を示す情報である。LV−PV対応情報141のテーブルには、LV管理情報300とPV管理情報400が、1つのLV(PV)ごとに設けられる。
【0025】
LV管理情報300は、PVリスト301、LE数302、LEサイズ303及びLE−PE対応情報310のエントリを有する。
PVリスト301には、LVに対して割り当てられているPVを示す情報が登録される。LVとPVは、それぞれLE(Logical Extent)およびPE(Physical Extent)という同じサイズの小領域に分割されている。LEに対してPEを割り当てることで、LVの物理配置の自由度が向上する。LE数302には、LVに含まれるLE数が登録される。LEサイズ303には、LEのサイズを示す情報が登録される。LE−PE対応情報310のエントリは、LE番号311に割り当てられるLEに対応するPV名312およびPE番号313のエントリを有する。LE−PE対応情報310には、LEが割り当てられているPEを示す情報が登録される。
【0026】
PV管理情報400は、LV管理情報とは逆に、各PVに割り当てられるLVの情報を示すものである。
【0027】
LV管理情報400は、LVリスト401、PE数402、PEサイズ403及びPE−LE対応情報410のエントリを有する。
LVリスト401には、PVに対して割り当てられているLVを示す情報が登録される。PE数402には、PVに含まれるPE数が登録される。PEサイズ403には、PEのサイズを示す情報が登録される。PE−LE対応情報410は、PE番号411に割り当てられるPEに対応するLV名412およびLE番号413のエントリを有する。PE−LE対応情報410には、PEが割り当てられているLEを示す情報が登録される。
【0028】
主記憶102には、上記した情報以外にも、PVへアクセスするために必要な情報が保持される。例えば、PVへアクセスするための経路情報として、接続チャネル103の番号および記憶装置110のポート114の番号や、記憶装置110内でのデバイス番号(以下、PV番号と呼ぶ)が格納される。
【0029】
チャネル103は、通信線を介して記憶装置110への入出力の制御を行うコントローラである。チャネル103は、通信線上の要求コマンドの送信、完了報告の通知、対象データの送受信、通信フェーズ管理等、通信プロトコルの制御を行う。通信線がSCSIバスの場合、SCSIアダプタカードが、チャネル103に相当する。
【0030】
記憶装置110は、ホストとの接続の制御を行うポート114、ディスク装置150、記憶制御プロセッサ111、制御メモリ112及びディスクキャッシュ113を有する。記憶装置110の可用性を向上させるため、記憶装置110の各部位は多重化されている。したがって、ある部位に障害が発生した場合にも、残った正常な構成部位による縮退状態での運用が可能である。
【0031】
記憶装置110が、ディスク装置150が複数台接続されたRAIDシステムの場合、記憶制御プロセッサ111による論理物理対応管理によるエミュレーションを使用することによって、複数台のディスク装置150を、論理的に1台又は複数のディスク装置としてホスト100に認識させることができる。ただし、本実施形態では、説明を簡略化するため、ホスト100がアクセスするPV、すなわち記憶装置110での論理ディスク装置は、ディスク装置150と一対一に対応しているものと仮定する。
【0032】
記憶制御プロセッサ111は、ホスト100からPVへのアクセスを受け付け、ディスク装置150とディスクキャッシュ113間のデータ転送、ディスクキャッシュ113とホスト100間のデータ転送、記憶装置110内でのディスク装置150の論理物理対応の管理、ディスクキャッシュ113の領域管理などを行う。
【0033】
ディスクキャッシュ113には、ホスト100からのライトデータや、ディスク装置150からのリードデータが、転送先に送信されるまでの間、一時的に保持される。ディスクキャッシュ113に格納されたデータは、LRU(Least Recently Used)などの方式で管理される。ディスクキャッシュ113を用いて、ライトデータをホストのI/O要求とは非同期にディスク装置150へ書き込む処理も行われる。これらのキャッシュの制御方法は従来公知の技術であるので、説明は省略する。
【0034】
制御メモリ112には、ディスク装置150への入出力を制御するために記憶制御プロセッサ111が用いる各種制御情報のテーブルが格納される。制御情報のテーブルには、ディスクキャッシュ113の領域割り当て管理に用いるキャッシュ管理情報144、論理ディスク装置とディスク装置150との対応等の管理に用いられる記憶装置管理情報143、ホスト100から指示された領域間のデータ転送処理の対象範囲や処理進捗状況等の管理に用いられるデータ転送領域情報145がある。
【0035】
図5は、データ転送領域情報145のテーブル図である。
転送元範囲情報501及び転送先範囲情報502には、ホスト100から指示されたデータ転送の対象となるデータ領域の範囲を示す情報が登録される。本実施形態では、転送元/先のデータ領域が不連続であるケースを想定し、転送元範囲情報501及び転送先範囲情報502には、連続する部分領域毎に、その部分領域を含むPV番号、PV内相対アドレスで示される先頭位置およびサイズを連ねたリストが登録される。尚、転送元/先のデータ領域の総容量は等しくなければならない。
【0036】
進捗ポインタ503には、データ転送処理で転送されたデータの量を示す情報が登録される。進捗ポインタ503に登録された情報を用いて、データ転送処理の進捗が管理される。同期状態504と差分ビットマップ505は、本実施形態では使用されないので、説明を省略する。
【0037】
本実施形態でのCPU101と記憶制御プロセッサ111の動作を説明する。
【0038】
ユーザ又は保守員は、各LVのPVへの割り当て状態等の情報から、特定のLVについて再構成が必要であることを判断すると、LVの再構成の指示を行う。本実施形態では、図2に示すように、lv0が、2台のPV、pv0とpv1上にlv0_0とlv0_1として格納されているとき、lv0をpv2内領域に新規に確保されたlv0_0'とlv0_1'に移動する指示を出した場合について説明する。
【0039】
LVの再構成は、CPU101で動作するデータ再配置処理131及び記憶装置110の記憶制御プロセッサ111で動作するコマンド処理132が協働することで実現される。
【0040】
図6は、CPU101が行うデータ再配置処理131のフロー図である。
データ再配置処理131は、ユーザ等がLVの再配置を指示した場合に実行される。データ再配置処理131では、その処理が実行される前に、再配置対象であるLV名と再配置先のPV名が取得される。
【0041】
CPU101は、処理対象となるLVに対するアクセスを抑止するために、対象となるLVをオフラインにする。LVのオフラインは、例えば、OSがUNIXである場合、デバイス(LV)をアンマウントすることで実現できる(ステップ601)。
【0042】
CPU101は、LV−PV対応情報141のLV管理情報300を参照して、対象となるLVのデータが格納されているPVおよびPEを求める。CPU101は、LE数302とLEサイズ303から、対象となるLVサイズを算出する。対象となるLVの全体もしくは一部が既に転送先PVに格納されている場合には、CPU101は、転送先PVに格納されている部分については、転送を行わない。ただし、以下の説明では、転送対象からはずされる部分は存在しないと仮定する(ステップ602)。
【0043】
CPU101は、対象となるLVの転送対象領域サイズ分のPEを、転送先PV上に確保する。具体的に、CPU101は、PV管理情報400のPE−LE対応情報410を参照して、LEに未割り当てのPEを求め、転送先として必要となる容量分のPEを確保する。PEの確保は、転送先PVおよびPEが記憶されるだけでもよい。しかし、他の処理によりPEを別の目的で確保されてしまう可能性がある場合は、転送に使用するPEをあらかじめ確保しておく。具体的には、PVのPE割り当ての変更を一定期間禁止することを示す構成変更処理排他フラグをPV毎に設ける、構成変更処理排他フラグをPV毎ではなくPE毎に設ける、又はデータ転送が完了する前に、PE−LE対応情報410の対象PE項目を、転送元LVに割り当て済みであるように変更する等の方法が考えられる(ステップ603)。
【0044】
転送先のPVを確保したら、CPU101は、転送元のPV領域をいくつかの部分領域に分割し、各部分領域毎のデータ転送処理要求を記憶装置110に発行する。記憶装置110へのデータ転送処理の要求は、既存のプロトコルで準備されている標準の入出力コマンドではなく、データ転送処理の要求用に新たに追加した専用のコマンドを用いて行われる。PV領域の分割は、適当なサイズで転送元領域を先頭から順に区切って行われる。分割に適当なサイズは、記憶装置110へ要求されたデータの転送処理に要する時間と、要求元ホスト100でのその要求に対する応答時間として許容可能な時間とから決定される。転送処理要求のコマンドがPV毎に発行されるので、転送元LVが複数のPV上に分散して配置されている場合には、部分領域が2つのPVにまたがらないように分割する必要がある。転送処理要求のコマンドには、転送元PVの先頭アドレスとサイズ、および転送先のPV番号、PV内先頭アドレス、データサイズが含まれる。チャネル103を介してデータ転送要求コマンドを記憶装置110へ送出したら、CPU101は、記憶装置110からの完了報告を待つ(ステップ604)。
【0045】
ステップ604で送信したデータ転送処理要求コマンドの完了報告を受信したCPU101は、転送元LVについて全対象領域のデータ転送が完了したかをチェックする。データ転送が完了していない部分領域があれば、CPU101は、ステップ604の処理に戻る(ステップ605)。
【0046】
対象領域の全てのデータが転送されたら、CPU101は、転送の対象となったLVが転送先PVへ対応づけられるよう、LV−PV対応情報141を変更する。具体的には、CPU101は、LV管理情報300のPVリスト301に登録された情報を転送先PVを示す情報に変更し、LE−PE対応情報310のPV名312とPE番号313に登録された情報を、転送先PVのPEを示す情報となるよう変更する。CPU101は、転送先PVのPV管理情報400のLVリスト401に、転送対象となったLVを追加し、PE−LE対応情報410のLV名412とLE413番号を、転送先LVのLEに対応するよう変更する。CPU101は、転送元PVのPV管理情報400のLVリスト401から転送対象となったLVを削除し、PE−LE対応情報410の転送元PE項目をLV未割り当てに変更する(ステップ606)。
【0047】
その後、CPU101は、転送対象のLVのオフラインを解除し、処理を終了する(ステップ607)。
【0048】
図7は、記憶装置110で実行される、コマンド処理132のフロー図である。コマンド処理132は、ホスト100のコマンドを記憶装置110が受領した時に実行される。
【0049】
記憶装置110は、ホスト100からディスク装置150に発行された処理要求コマンドの種別をチェックする(ステップ701)。
【0050】
コマンドがデータ転送処理要求であった場合、記憶装置110は、コピー処理133を起動し、その完了を待つ(ステップ702)。
【0051】
コマンドがリード要求であった場合、記憶装置110は、そのリード要求に対して、対象となるデータがディスクキャッシュ113上に有るか否かをチェックする。必要ならば、記憶装置110は、キャッシュ領域を確保して、ディスク装置150から対象となるデータを、確保したキャッシュ領域へ読み出し、ホスト100へ転送する(ステップ703〜ステップ707)。
【0052】
コマンドがライト要求であった場合、記憶装置110は、ディスクキャッシュ113のキャッシュ領域を確保し、ホスト100から受け取ったデータを一旦そのキャッシュ領域に書き込む。その後、ディスク装置150へライトする(ステップ709〜ステップ712)。
【0053】
記憶装置110は、要求処理の完了をホスト100へ報告し、処理を終了する(ステップ708)。
【0054】
図8は、記憶装置110が行うコピー処理133のフロー図である。コピー処理133は、記憶装置110がデータ転送要求のコマンドを受けとったときに実行される。
【0055】
データ転送要求を受け取った記憶装置110は、そのデータ転送要求について転送元/先データ領域の指定情報の妥当性をチェックする。
具体的には、転送元/先データ領域のサイズが同じであるか、既に別のデータ転送要求の転送元/先データ領域として設定されていないか等をチェックする。指定情報が妥当でない場合、記憶装置110は、エラーをホスト100へ報告する(ステップ801)。
【0056】
エラーが発見されない場合、記憶装置110は、データ転送処理要求に対応するデータ転送領域情報145を格納する領域を制御メモリ112上に割り当て、初期化する。具体的には、転送元範囲情報501と転送先範囲情報502を、受け取ったデータ転送処理要求に含まれる情報を元に設定し、進捗ポインタ503を初期値である0に設定する(ステップ802)。
【0057】
設定が済んだら、記憶装置110は、転送対象となる転送元ディスク装置150のデータ領域の先頭から、順次データをディスクキャッシュ113にリードし、リードしたデータを転送先ディスク装置150へライトする。このときの一回のデータ転送のデータ量は、ディスク装置150におけるヘッド位置づけオーバヘッドを考慮すると、ある程度大きいサイズのデータ領域であることが望ましい。しかし、1回のデータ量が大きすぎると、ディスク装置150と同じバスに接続される他のディスク装置150に格納されたデータにアクセスする他の処理に悪影響を及ぼす可能性がある。したがって、一回のデータ転送のデータ量は、コピー処理133に期待される処理速度と、他の処理への影響とを考慮して決定する必要がある(ステップ803〜804)。
【0058】
ステップ804で転送先への書き込みを終えたら、記憶装置110は、転送したデータ容量に応じて、進捗ポインタ503の内容を更新する。
【0059】
記憶装置110は、進捗ポインタ503を参照して、全対象データについてコピー処理が完了したかをチェックする。コピー処理が完了していない部分があれば、ステップ804の処理へ戻る(ステップ805)。
【0060】
コピー処理が完了してれば、記憶装置110は、コピー処理の完了を、コマンド処理132へ報告し、処理を終了する(ステップ806)。
【0061】
本実施形態により、ホスト100はコピー処理の指示だけを行えば良く、実際のデータ転送は記憶装置が行うので、ホストやネットワーク等にかかる負荷が軽減されることとなる。
【0062】
図9は、本発明の第2実施形態が適用された計算機システムの構成図である。本実施形態では、データ転送領域情報145に含まれる同期状態504及び差分ビットマップが使用される点及びコマンドボリューム900を有する点が、第1実施形態と異なる。以下、第2実施形態に特有な部分のみを説明する。
【0063】
同期状態504には、データ転送処理の転送先/元データ領域の同期ペア状態を示す情報が登録される。同期ペア状態の取りうる値としては、「ペア未形成」、「ペア形成中」、「ペア形成済」がある。「ペア形成中」の状態とは、転送が指示されたデータ領域間で、転送元から転送先へデータの転送処理が実行中である状態を示す。「ペア形成済」の状態とは、データ領域間でのコピー処理が完了し、同期ペアが形成されていることを示す。ただし、「ペア形成中」の状態において転送元データ領域のデータの更新があった場合、「ペア形成済」状態でも、同期ペアのデータ領域間に差分がある可能性がある。「ペア未形成」の状態とは、データ領域間のデータ転送が指示されていないか、データ転送が完了した後、ホスト100の指示により同期ペアが解除された状態であることを示す。ただし、この状態は、データ転送処理がそもそも存在しないか、完了してしまっている状態なので、制御メモリ112上には、データ転送領域情報145は確保されない。したがって、実際に同期状態504に設定されるのは、「ペア形成中」と「ペア形成済」の2つである。
【0064】
差分ビットマップ505は、ペア形成中およびペア形成済の状態において、コピー元データ領域内のデータ更新の有無を示す。情報量を削減するため、ディスク装置150の全てのデータ領域を、例えば64KBの特定サイズの小領域に分割し、その小領域単位と差分ビットマップ505の1ビットを一対一に対応させる。差分ビットマップ505には、小領域に対するデータの更新の有無が記録される。
【0065】
ディスクキャッシュの割り当てにおいても、同様にディスク装置150を小領域に分割し、小領域毎にキャッシュを割り当てることで、キャッシュ管理を簡単化することが多い。この場合、差分ビットマップ505の1ビットをキャッシュ割り当て単位である小領域1つもしくは複数に対応づけることで、ビットマップの設定を容易にできる。
【0066】
コマンドボリューム900には、標準のプロトコルには含まれない特殊な処理要求(データ転送処理要求等)が、データとして書き込まれる。第1実施形態では、記憶装置110に対するデータ転送処理要求のコマンドとして専用コマンドを追加した。本実施形態では、通常のライト要求コマンドを用い、データ転送要求がデータとしてコマンドボリューム900に書き込まれることで、記憶装置100へデータ転送要求が発行される。
【0067】
記憶制御プロセッサ111は、コマンドボリューム900に対するライト要求を受け付けると、ライトデータを処理要求として解析し、対応する処理を起動する。要求される処理をライト要求の延長で実行しても応答時間が問題にならない程度短いならば、記憶制御プロセッサ111は、要求処理を実行し、ライト要求と合わせて完了報告を行う。要求される処理の実行時間がある程度長い場合には、記憶制御プロセッサ111は、一旦ライト処理について完了報告を行う。ホスト100は、周期的にその要求処理が完了したかをチェックする。
【0068】
次に、本実施形態でのCPU101及び記憶制御プロセッサ111の動作を説明する。
【0069】
CPU101で動作するデータ再配置処理131及び記憶装置110の記憶制御プロセッサ111で動作するコマンド処理132が、協働してLVの再構成を行うのは、第1実施形態と同様である。
【0070】
図10は、本実施例のデータ再配置処理131のフロー図である。
【0071】
ステップ1001、1002は、図6のステップ602、603と同様の処理のため、説明は省略する。
【0072】
CPU101は、LVの転送対象領域に対応する全PV領域のデータ転送処理の要求を、記憶装置110へ一括して発行する。コマンドボリューム900へのライトデータに含まれる転送要求には、LV対象領域に対応する全PV領域の範囲情報(各部分領域の位置情報(各PV番号、先頭アドレス、サイズ)のリスト)及び転送先PV領域の範囲情報等のパラメタが含まれる。記憶装置110へライト要求コマンドを発行したら、CPU101は、記憶装置110からの完了報告を待つ(ステップ1003)。
【0073】
完了報告を受け取ったら、CPU101は、規定の時間が経過するのを待つ(ステップ1004)。
【0074】
CPU101は、データ転送領域の同期ペア状態を参照する要求を記憶装置110へ発行し、その完了を待つ。同期ペア状態を参照するには、具体的には、CPU101は、同期ペア状態の準備要求を含むデータをコマンドボリューム900へ書き込むためのライト要求を発行する。CPU101は、記憶装置110から完了報告を受けた後、コマンドボリューム900へのリード要求を発行する(ステップ1005)。
【0075】
CPU101は、得られた同期ペア状態が「ペア形成済み」であるか否かを判定する。同期ペア状態が「ペア形成済み」である場合、CPU101は、ステップ1007の処理を行う。同期ペア状態が「ペア形成済み」ではない場合、CPU101は、ステップ1004の処理に戻り、同期ペア状態が変更されるのを待つ(ステップ1006)。
【0076】
その後、ステップ601と同様に、CPU101は、LVをオフラインにする(ステップ1007)。
【0077】
CPU101は、データ転送の転送元領域と転送先領域で形成済みの同期ペアの解除要求を、コマンドボリューム900を用いて発行する(ステップ1008)。コマンドボリューム900へ同期ペア解除要求を転送するライト要求コマンドの完了報告が記憶装置110より報告されたら、CPU101は、ステップ1004と同じ方法で、データ領域の同期ペア状態を参照する(ステップ1009)。
【0078】
取得された同期ペア状態が「ペア未形成」でなければ(ステップ1010)、CPU101は、規定時間が経過するのを待ち(ステップ1011)、ステップ1009の処理に戻って同期状態504の内容を再取得する。同期状態504が「ペア未形成」となっていれば、CPU101は、ステップ1012以降の処理を行う。CPU101は、LVのLV−PV対応情報141を更新し、LVをオンラインにしてLV再配置処理を完了する。
【0079】
図11は、コマンド処理132のフロー図である。
【0080】
記憶装置110は、ホスト100から受け取ったコマンドの対象が、コマンドボリューム900であるか否かを判定する(ステップ1101)。
【0081】
コマンドの対象がコマンドボリューム900であれば、記憶装置110は、コピー処理を起動し、その完了を待つ(ステップ1102)。
【0082】
コマンドの対象がコマンドボリューム900でなければ、記憶装置110は、コマンドの種別を判定する。コマンドがリードかライトかでそれぞれステップ1104、1110へ遷移する(ステップ1103)。
コマンドの種別がリードである場合には、記憶装置110は、図7のステップ703から707と同様のリード処理を行う(ステップ1104〜1108)。
【0083】
コマンド種別がライトである場合には、記憶装置110は、図7のステップ709から712と同様のライト処理を行う(ステップ1110〜1113)。
【0084】
ステップ1114、1115は、本実施形態に特有な部分で、データ転送処理中にホスト100の別の処理が転送中のLVのデータに対してアクセスする場合の処理部分である。
【0085】
記憶装置110は、ライトの対象となったデータに、データ転送領域として登録されているデータ領域が含まれていないかを判定する(ステップ1114)。登録されているデータ領域が含まれている場合、記憶装置110は、データ転送領域のうち、更新された部分を特定し、更新部分に対応した差分ビットマップを設定する(ステップ1115)。
【0086】
記憶装置110は、要求処理の完了をホスト100へ報告する(ステップ1109)。
【0087】
図12は、コピー処理133のフロー図である。
【0088】
記憶装置110は、コマンドボリューム900へ送信されたコマンドの種別を切り分ける(ステップ1201)。
【0089】
コマンドの種別がライトの場合、記憶装置110は、コマンドボリューム900へのライトデータの内容を解析し、処理要求内容や、転送元/先データ領域範囲指定の妥当性を判定する(ステップ1202)。妥当性に問題のある場合は、記憶装置110は、エラーを上位処理へ報告して処理を中断する(ステップ1203)。
問題ない場合は正常終了を報告し、記憶装置110は、ライトデータとして送られてきた処理要求の種別を判定する(ステップ1204)。
【0090】
処理要求がデータ転送の場合、記憶装置110は、図8のステップ802から805と同様のデータ転送処理を行う(ステップ1205〜1208)。ただし、ステップ1205におけるデータ転送領域情報145の初期化処理では、同期状態504を「ペア形成中」にし、差分ビットマップ505を全て0クリアする処理を行う。データ転送処理が完了したら、記憶装置110は、同期状態504を「ペア形成済み」に変更し、処理を終了する(ステップ1209)。
【0091】
処理要求がペア解除の場合、記憶装置110は、解除対象のデータ転送領域ペアのデータ転送領域情報145を参照し、差分ビットマップ505にOnが設定されている部分がないかをチェックする(ステップ1210)。差分ビットマップ505にOであるビットが存在する、すなわちデータ転送領域に転送元/先で同期していない部分がある場合、未反映データを転送先データ領域へ転送する(ステップ1212)。記憶装置110は、ステップ1210へ戻り、差分ビットマップ505のチェックをやり直す。
【0092】
転送元/先のデータ転送領域で同期が取れたら、記憶装置110は、データ領域のデータ転送領域情報145をクリアし、データ転送領域情報145を格納する制御メモリ112の領域の割り当てを解除し、処理を終了する(ステップ1213)。
【0093】
処理要求がペア状態準備である場合には、記憶装置110は、要求されたデータ転送領域の同期ペア状態を準備する(ステップ1214)。データ転送領域がまだ存在し、制御メモリ112上にメモリ領域が割り当てられていれば、同期ペア状態として、同期状態504の値を用いる。データ転送領域が存在せず、メモリ領域が割り当てられていなければ、同期ペア状態として、「ペア未形成」を用いる。ステップ1214で準備された同期ペア状態は、コマンドボリューム900に対して発行されたリード要求のリードデータとして転送される(ステップ1215、1216)。
【0094】
本実施例に拠れば、第一実施例よりもLVをオフラインにする時間を短くした上でLVの再配置をホスト等に負担を掛けないで行うことが出来る。
【0095】
第3実施形態について説明する。
【0096】
第3実施形態のシステム構成は、基本的に第1及び第2の実施形態と同一である。ただし、本実施形態では、記憶装置110が、ホスト100で使用されていないディスク装置150の記憶領域を管理する。そして、記憶装置110が、転送先のPVとして使用されるデータ領域の条件、例えば、領域長、領域が格納される論理ユニット番号、接続に用いる接続ポート114の番号およびディスクタイプなどの指示をユーザ又は保守員から受ける。記憶装置110は、ユーザの指示に合致するデータ領域をホスト100が使用していないデータ領域から選びだし、ユーザ又は保守員に提示する。この点で、第1、第2実施形態と異なる。以下、記憶装置110における情報の提示の方法について説明する。
【0097】
記憶装置110は、ホスト100が使用していないディスク装置150の番号のリストを、未使用領域管理情報として保持・管理する。
【0098】
記憶装置110は、ユーザまたは保守員からの領域確保の指示を受け取ると、以下の処理を行う。
【0099】
領域確保の指示にしたがい、記憶装置110は、保持している未使用領域管理情報を検索して条件を満たす未使用ディスク装置150を選定する(ステップ1−1)。
【0100】
記憶装置110は、選定したディスク装置150番号をユーザまたは保守員へ報告する(ステップ1−2)。
【0101】
ユーザ又は保守員は、記憶装置110から未使用のディスク装置150の番号を得ると、以下の手順にしたがって、データ転送の指示を行う。
ユーザ又は保守員は、未使用のディスク装置150のOS管理情報を設定する。たとえば、UNIX OSでは、未使用のディスク装置150に対して、デバイスファイル名を定義する(ステップ2−1)。
【0102】
ユーザ又は保守員は、OS管理情報が設定されたディスク装置150について、LVMが使用することができるように、PVとして定義する(ステップ2−2)。
【0103】
ユーザ又は保守員は、新しく定義したPVを転送先として指定して、記憶装置110に対して本発明によるデータ転送を指示する(ステップ2−3)。
【0104】
データ転送が完了したら、ユーザ又は保守員は、LV−PV対応情報141の更新を指示する(ステップ2−4)。
【0105】
本実施形態が適用されたシステムが、例えばRAID装置などのように、複数のディスク装置150の記憶領域の一部又は全体の集合から構成する論理ディスク装置をホスト100へ提示するような記憶装置110である場合を考える。この場合、未使用領域管理情報は、各未使用領域が属するディスク装置150番号および先頭領域と領域長のリストで構成される。
【0106】
記憶装置110は、次の手順で未使用領域を確保する。
【0107】
記憶装置110は、領域確保の指示の条件に合ったディスク装置150の未使用領域を検索する(ステップ3−1)。
【0108】
指示分の容量を確保できない場合は、記憶装置110は、確保できない旨をユーザに通知し、処理を終了する(ステップ3−2)。
【0109】
指示条件を満たすディスク装置150を一つ見つけたら、記憶装置110は、ディスク装置150に属する未使用領域の容量を確認し、指示分の領域があれば、指示分の領域を確保する。
具体的には、記憶装置110は、未使用領域管理情報から確保領域の登録を解除する。ディスク装置150の未使用領域容量が指示された分に満たない場合、未使用領域全体を確保し、別のディスク装置150を検索し、条件に合った未使用領域を確保する(ステップ3−3)。
【0110】
記憶装置110は、ステップ3−3の処理を、指示分の容量のデータ領域を確保するまで繰り返す(ステップ3−4)。
【0111】
記憶装置110は、該記憶装置が有する論理物理変換テーブルへ、確保された領域を登録することで、確保された領域で構成される論理ディスク装置を定義する(ステップ3−5)。
【0112】
記憶装置110は、定義した論理ディスク装置の情報を使用者等に報告する(ステップ3−6)。
【0113】
記憶装置110への未使用領域確保の指示は、第1の実施形態と同じく専用のコマンドを用いてもよいし、第2の実施形態と同じくコマンドボリュームへの命令書き込みでも構わない。保守用に記憶装置110へ接続するサービスプロセッサを設け、サービスプロセッサからコマンドを発行する構成も考えられる。
【0114】
ステップ1−1からステップ3−4までの一連の処理をスクリプト化することも可能である。その場合、ユーザまたは保守員は、転送先データ領域の選定条件をより詳細に指定することで、転送先データ領域を選定し、データ転送を自動的に実行することが可能となる。転送先データ領域の条件としては、記憶装置110の記憶領域での連続性、格納されるディスク装置150の物理容量、ヘッド位置付け時間やデータ転送速度などのアクセス性能が考えられる。RAID装置の場合には、RAIDレベルなどの物理構成条件なども転送先データ領域の条件として考えられる。特定のLVと物理構成、すなわちディスク装置150やディスク装置150が接続される内部パスおよび記憶制御プロセッサ111を共有しないという条件も考えられる。
【0115】
第3実施形態の変形として、転送先領域を指定せずに、転送元LVと転送先領域の選定条件のみをユーザが指定することで、データ転送を指示する方式も考えられる。この場合、記憶装置110は、転送先領域を選定条件に従って選定し、新規に生成した論理ディスク装置へデータの転送を行う。記憶装置110は、データの転送が完了したら、転送の完了及び転送先として選定した領域情報をホスト100へ報告する。報告を受けたホスト100は、報告された転送先論理ディスク装置に対して、ステップ2−1、2−2及び2−4の処理によりLVの移動を完了する。このときステップ2−2で、論理ディスク装置内のデータは有効なままPVが定義される必要がある。
【0116】
なお、本発明は上記の実施形態に限定されず、その要旨の範囲内で数々の変形が可能である。
【0117】
各実施形態では、PV、ホスト100に提供される論理ディスク装置は、実際のディスク装置150と一対一対応であるとしているが、PVは、記憶装置110内でRAID5レベルなどのRAIDで構成されていてもよい。その場合、ホスト100は、記憶装置110が提供する論理ディスク装置へI/Oを発行する。記憶制御プロセッサ111は、論理ディスク装置へのI/Oを、論理物理変換によりディスク装置150へのI/Oに変換する。
【0118】
各実施形態では、データの再配置の例として、LVMの管理するLVの再配置を採用しているが、LVが未割り当てなPEを連続化(ガベージコレクション)する処理や、DBMSの管理するDB表の再配置の処理など、他のデータ再配置にも本発明を適用することが可能である。
【0119】
また、ホスト100と記憶装置110間でのデータ転送処理要求方法について、第1の実施形態の専用コマンドを使用する方法と、第2の実施形態のコマンドボリューム900を利用する方法は、両実施形態で入れ替えても実現可能である。
【0120】
各実施形態では、転送先PVが1台の場合を想定しているが、複数台としても構わない。その場合には、複数台のPVのそれぞれについて、転送元データをどのように分散させるかを指定する必要がある。複数のPVへの分散の方法としては、各PVに均等に分配する場合、PVの指定順に空き容量の許す限り詰め込んでいく場合が考えられる。また、均等に分配する場合には、さらに、各PV内でデータを連続させる場合、特定サイズでデータが分割され、RAIDにおけるストライピングの如く分割されたデータを各PVに順に格納する場合などが考えられる。
【0121】
ユーザ又は保守員があらかじめ転送先として連続領域をPEに割り当ててから、データ再配置処理131にパラメタとして引き渡す、あるいは、データ再配置処理内で前述した空きPEのガベージコレクションを行っても良い。
【0122】
各実施形態では、転送先データ領域へのアクセスは発生しないことを前提としている。つまり、記憶装置110での転送先データ領域に対するアクセス抑止の考慮はなく、転送先データ領域へのアクセスがあると、そのままアクセス対象となる領域に対してデータ参照/更新が行われる。しかし、ホスト100でのアクセス抑止の保証がないケースにそなえて、記憶装置110で、データ転送領域の転送先データ領域として登録されているデータ領域に対するI/Oを拒否する構成も考えられる。逆に、データ転送処理の完了を待たずに、ホスト100が、LV−PV対応情報145を再配置後の状態に更新し、転送対象のLVへのアクセスを、転送先PVで受け付ける方法をとってもよい。この場合、記憶装置110でデータ転送領域のペアを造り、同期化のためのデータコピーを行うのは第2の実施形態と同じである。ただし、転送先領域へのリード要求に対しては転送元領域のデータに参照し、転送先領域へのライト要求に対しては、転送元領域にもデータの反映を行う必要がある。
【0123】
本実施形態によれば、通常よりも短い時間、LVをオフラインとするだけでLVの再配置処理をおこなうことができ、システムの可用性を向上することができる。
【0124】
【発明の効果】
本発明の計算機システムによれば、記憶装置に格納したデータを別の領域に移動する際に、データ転送処理を記憶装置内で行うことで、ホストおよびチャネルの負荷を削減することが可能となる。
【0125】
また、本発明の計算機システムによれば、データ再配置におけるデータ転送中に当該データに対するアクセスを受けつけることが可能となる。この結果、データ再配置における対象データをアクセスする業務の停止時間を短縮することが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態が対象とする計算機システムのブロック図である。
【図2】本発明が想定しているデータ再配置処理の概要図である。
【図3】本発明におけるLV管理情報の構成図である。
【図4】本発明におけるPV管理情報の構成図である。
【図5】本発明におけるデータ転送領域情報の構成図である。
【図6】本発明の第1の実施形態におけるデータ再配置処理のフロー図である。
【図7】本発明の第1の実施形態におけるコマンド処理のフロー図である。
【図8】本発明の第1の実施形態におけるコピー処理のフロー図である。
【図9】本発明の第2の実施形態における計算機システムの構成図である。
【図10】本発明の第2の実施形態におけるデータ再配置処理のフロー図である。
【図11】本発明の第2の実施形態におけるコマンド処理のフロー図である。
【図12】本発明の第2の実施形態におけるコピー処理のフロー図である。
【符号の説明】
100…ホスト、101…CPU、102…主記憶、103…チャネル、110…記憶装置、111…記憶制御プロセッサ、112…制御メモリ、113…ディスクキャッシュ、141…LV−PV対応情報、143…記憶制御管理情報、144…キャッシュ管理情報、145…データ転送領域情報、150…ディスク装置、900…コマンドボリューム

Claims (9)

  1. ホストコンピュータと、前記ホストコンピュータに接続され、複数のディスク装置を有する記憶装置とを有する情報処理システムであって、
    前記ホストコンピュータは、
    前記複数のディスク装置の物理的な記憶領域と論理的な記憶領域との対応関係とともに、前記物理的な記憶領域よりも小さい記憶領域である物理的な小記憶領域及び前記論理的な記憶領域よりも小さい記憶領域である論理的な小記憶領域との対応関係の情報が登録される情報記憶手段と、
    前記複数のディスク装置のうち第一のディスク装置に記録されたデータを第二のディスク装置に移動する場合に、移動先の論理的な記憶領域及び前記情報記憶手段に登録された情報から、前記第二のディスク装置の物理的な記憶領域を示す情報を取得する取得手段と、
    前記取得手段によって取得された前記第二のディスク装置の物理的な記憶領域を示す情報及び移動対象となるデータが格納されている前記第一のディスク装置の物理的な記憶領域を示す情報を、前記記憶装置に転送する転送手段とを有し、
    前記記憶装置は、
    前記転送手段によって転送された前記情報のうち、前記第一のディスク装置の物理的な記憶領域を示す情報を使用して、移動元のデータを読み出す手段と、
    前記転送手段によって転送された前記情報のうち、前記第二のディスク装置の物理的な小記憶領域を示す情報を使用して、前記読み出す手段によって読み出された移動対象となるデータを前記移動先のディスク装置に複写する複写手段と、を有することを特徴とする情報処理システム。
  2. 前記記憶装置は、
    前記複写が終了したことを前記ホストコンピュータに通知する通知手段を有し、
    前記ホストコンピュータは、
    前記通知を受け取った後、前記情報記憶手段に登録されたディスク装置の物理的な記憶領域と論理的な記憶領域との対応関係及び前記物理的な小記憶領域と前記論理的な小記憶領域との対応関係を、前記第一のディスク装置の物理的な小記憶領域及び前記第二のディスク装置の物理的な小記憶領域に基づいて更新する手段を有することを特徴とする請求項1記載の情報処理システム。
  3. 前記転送手段は、
    前記複数のディスク装置のうちの所定のディスク装置に前記情報を書き込む命令を発行する発行手段を含み、
    前記記憶装置は、
    前記発行手段によって発行された命令によって書き込まれた前記情報を当該記憶装置が読み出した場合に、前記読み出し手段及び前記複写手段を実行することを特徴とする請求項1又は2記載の情報処理システム。
  4. 前記記憶装置は、
    前記複写手段によって複写されたデータに対してアクセスがある場合には、当該アクセスがあったことを記録するアクセス記録手段と、
    前記アクセス記録手段に記録された内容に基づいて、移動元のデータと移動先のデータとのデータの内容を一致させる手段とを有することを特徴とする請求項1、2又は3記載の情報処理システム。
  5. 複数のディスク装置を有する記憶装置と接続される接続部と、
    前記複数のディスク装置の物理的な記憶領域と論理的な記憶領域との対応関係とともに 、前記物理的な記憶領域よりも小さい記憶領域である物理的な小記憶領域及び前記論理的な記憶領域よりも小さい記憶領域である論理的な小記憶領域との対応関係の情報が登録されるメモリと、
    中央演算部とを有し、
    前記中央演算部は、
    前記メモリから、データの移動先となる前記論理的な記憶領域に対応する第一のディスク装置の物理的な記憶領域を示す情報を前記メモリから取得する取得手段と、
    前記取得手段によって取得された前記第一のディスク装置の物理的な記憶領域を示す情報及び前記データが格納されている第二のディスク装置の物理的な記憶領域を示す情報を、前記接続部を介して前記記憶装置に転送する転送手段と、
    前記データの移動が終了した後、前記メモリに登録された前記複数のディスク装置の物理的な記憶領域と論理的な記憶領域との対応関係及び前記物理的な小記憶領域と前記論理的な小記憶領域との対応関係を、前記第一のディスク装置の物理的な小記憶領域及び前記第二のディスク装置の物理的な小記憶領域に基づいて更新する手段とを有することを特徴とする情報処理装置。
  6. 前記取得手段は、
    前記メモリから論理的な記憶領域が割り当てられていない前記複数のディスク装置の物理的な記憶領域を検索する手段と、
    前記検索する手段によって検索された前記物理的な記憶領域を前記第一のディスク装置の物理的な記憶領域として取得する手段とを含むことを特徴とする請求項5記載の情報処理装置。
  7. 前記転送手段は、
    前記記憶装置が有する複数のディスク装置のうち、所定のディスク装置に、前記情報をデータとして書き込む命令を発行するものであることを特徴とする請求項6記載の情報処理装置。
  8. ホストコンピュータ及び前記ホストコンピュータに接続され、複数のディスク装置を有する記憶装置を有する情報処理システムにおいて、前記複数のディスク装置内でデータを再配置する方法であって、
    前記ホストコンピュータにおいて、
    再配置の対象となるデータが格納されている第一のディスク装置の領域に関する情報を、前記複数のディスク装置の物理的な記憶領域と論理的な記憶領域との対応関係とともに、前記物理的な記憶領域よりも小さい記憶領域である物理的な小記憶領域及び前記論理的な記憶領域よりも小さい記憶領域である論理的な小記憶領域との対応関係を記録したテーブルから前記対象となるデータの物理的な小記憶領域の情報として特定し、
    再配置先となる第二のディスク装置の領域に関する情報を、前記テーブルから未割当ての物理的な小記憶領域の情報として取得し、
    前記特定した前記第一のディスク装置の領域に関する情報及び前記取得した前記第二のディスク装置の領域に関する情報を前記記憶装置に送信し、
    前記記憶装置において、
    送信された前記第一のディスク装置の領域に関する情報に基づいて前記第一のディスク装置からデータを読み出し、
    前記送信された前記第二のディスク装置の領域に関する情報に基づいて前記第二のディスク装置に前記第一のディスク装置から読み出したデータを格納し、
    前記読み出されたデータの格納が終了したら、前記ホストコンピュータに格納の完了を通知し、
    前記通知の後、前記ホストコンピュータにおいて、前記テーブルを前記第一のディスク装置の記憶領域に関する情報及び前記第二のディスク装置の記憶領域に関する情報に基づ いて変更することを特徴とするデータの再配置の方法。
  9. ホストコンピュータ及び前記ホストコンピュータに接続され、複数のディスク装置を有する記憶装置を有する情報処理システムにおいて、
    前記ホストコンピュータを、
    再配置の対象となるデータが格納されている第一のディスク装置の領域に関する情報を、前記複数のディスク装置の物理的な記憶領域と論理的な記憶領域との対応関係とともに、前記物理的な記憶領域よりも小さい記憶領域である物理的な小記憶領域及び前記論理的な記憶領域よりも小さい記憶領域である論理的な小記憶領域との対応関係を記録したテーブルから前記対象となるデータの物理的な小記憶領域の情報として特定する手段と、
    再配置先となる第二のディスク装置の領域に関する情報を、前記テーブルから未割当ての物理的な小記憶領域の情報として取得する手段と、
    前記特定した前記第一のディスク装置の領域に関する情報及び取得した前記第二のディスク装置の領域に関する情報を前記記憶装置に送信する手段として機能させ、
    前記記憶装置を、
    前記送信された前記第一のディスク装置の領域に関する情報に基づいて前記第一のディスク装置からデータを読み出す手段と
    前記送信された前記第二のディスク装置に関する情報に基づいて前記第二のディスク装置に前記第一のディスク装置から読み出したデータを格納する手段と、
    前記読み出されたデータの格納が終了したら、前記ホストコンピュータに格納の完了を通知する手段として機能させ、
    前記ホストコンピュータを、
    前記通知の後、前記テーブルを前記第一のディスク装置の記憶領域に関する情報及び前記第二のディスク装置の記憶領域に関する情報に基づいて変更する手段として機能させることを特徴とするデータの再配置を行うコンピュータプログラム。
JP2001053472A 2001-02-28 2001-02-28 情報処理システム Expired - Fee Related JP4105398B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001053472A JP4105398B2 (ja) 2001-02-28 2001-02-28 情報処理システム
US09/825,607 US6915403B2 (en) 2001-02-28 2001-04-03 Apparatus and method for logical volume reallocation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001053472A JP4105398B2 (ja) 2001-02-28 2001-02-28 情報処理システム

Publications (2)

Publication Number Publication Date
JP2002259172A JP2002259172A (ja) 2002-09-13
JP4105398B2 true JP4105398B2 (ja) 2008-06-25

Family

ID=18913934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001053472A Expired - Fee Related JP4105398B2 (ja) 2001-02-28 2001-02-28 情報処理システム

Country Status (2)

Country Link
US (1) US6915403B2 (ja)
JP (1) JP4105398B2 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3714184B2 (ja) * 2001-03-29 2005-11-09 富士通株式会社 記憶装置のデータ領域間複写処理方法、及び記憶システム
JP4080227B2 (ja) * 2002-03-28 2008-04-23 株式会社日立製作所 データ検証方法およびディスクアレイ装置
AU2003231951A1 (en) * 2002-05-31 2003-12-19 Fujitsu It Holdings, Inc. Method and system for intelligent storage management
JP4711688B2 (ja) * 2003-05-21 2011-06-29 富士通株式会社 ストレージシステム
JP4486632B2 (ja) * 2003-09-17 2010-06-23 株式会社日立製作所 記憶システム
JP2005115506A (ja) * 2003-10-06 2005-04-28 Hitachi Ltd ストレージシステム
JP4452064B2 (ja) * 2003-11-18 2010-04-21 株式会社日立製作所 情報処理システム、情報処理装置、情報処理装置の制御方法及びプログラム
JP4412981B2 (ja) 2003-11-26 2010-02-10 株式会社日立製作所 ストレージシステム及同システムにおけるデータキャッシング方法
US20050114595A1 (en) * 2003-11-26 2005-05-26 Veritas Operating Corporation System and method for emulating operating system metadata to provide cross-platform access to storage volumes
JP2005190036A (ja) 2003-12-25 2005-07-14 Hitachi Ltd 記憶制御装置及び記憶制御装置の制御方法
JP4568502B2 (ja) * 2004-01-09 2010-10-27 株式会社日立製作所 情報処理システムおよび管理装置
JP4500057B2 (ja) * 2004-01-13 2010-07-14 株式会社日立製作所 データ移行方法
US7487288B2 (en) * 2004-05-14 2009-02-03 International Business Machines Corporation Dynamic loading of virtual volume data in a virtual tape server
JP2006011803A (ja) * 2004-06-25 2006-01-12 Hitachi Ltd 情報処理システムおよびその制御方法
US20060031639A1 (en) * 2004-08-06 2006-02-09 International Business Machines Corporation Write unmodified data to controller read cache
US8307026B2 (en) * 2004-08-19 2012-11-06 International Business Machines Corporation On-demand peer-to-peer storage virtualization infrastructure
US7523273B2 (en) * 2005-05-05 2009-04-21 International Business Machines Corporation Autonomic storage provisioning to enhance storage virtualization infrastructure availability
JP4741304B2 (ja) * 2005-07-11 2011-08-03 株式会社日立製作所 データマイグレーション方法又はデータマイグレーションシステム
US20070106710A1 (en) * 2005-10-26 2007-05-10 Nils Haustein Apparatus, system, and method for data migration
WO2007135731A1 (ja) * 2006-05-23 2007-11-29 Fujitsu Limited ストレージ制御装置、ストレージ制御プログラム、ストレージ制御方法
US7904681B1 (en) * 2006-06-30 2011-03-08 Emc Corporation Methods and systems for migrating data with minimal disruption
JP4636008B2 (ja) * 2006-11-17 2011-02-23 日本電気株式会社 データレプリケーションシステム、データレプリケーション方法、データレプリケーションプログラム
JP4877006B2 (ja) * 2007-03-27 2012-02-15 日本電気株式会社 ディスクアレイ装置及びデータバックアップシステム
US8566520B1 (en) 2009-10-05 2013-10-22 Marvell International Ltd. Storage space allocation for logical disk creation
US20130246553A1 (en) * 2012-03-16 2013-09-19 Empire Technology Development Llc Data migration
JP2016018315A (ja) * 2014-07-07 2016-02-01 富士通株式会社 監視装置、監視プログラム、及び入力操作支援装置
US20160162416A1 (en) * 2014-12-08 2016-06-09 Intel Corporation Apparatus and Method for Reducing Latency Between Host and a Storage Device
US10757175B2 (en) * 2015-02-10 2020-08-25 Vmware, Inc. Synchronization optimization based upon allocation data

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728832B2 (en) * 1990-02-26 2004-04-27 Hitachi, Ltd. Distribution of I/O requests across multiple disk units
US5845319A (en) * 1995-08-23 1998-12-01 Fujitsu Limited Disk array device which separates local and physical disks using striping and operation mode selection
JP3641872B2 (ja) * 1996-04-08 2005-04-27 株式会社日立製作所 記憶装置システム
US6145028A (en) * 1997-12-11 2000-11-07 Ncr Corporation Enhanced multi-pathing to an array of storage devices
US6216202B1 (en) * 1998-06-30 2001-04-10 Emc Corporation Method and apparatus for managing virtual storage devices in a storage system
US6484234B1 (en) * 1998-06-30 2002-11-19 Emc Corporation Method and apparatus for efficiently destaging data from a cache to two or more non-contiguous storage locations
US6564219B1 (en) * 1998-11-19 2003-05-13 Emc Corporation Method and apparatus for obtaining an identifier for a logical unit of data in a database
US6529995B1 (en) * 1999-06-18 2003-03-04 Storage Technology Corporation Method and apparatus for maintaining and restoring mapping table entries and data in a raid system
US6397292B1 (en) * 1999-08-19 2002-05-28 Emc Corporation Asymmetrical striping of mirrored storage device arrays and concurrent access to even tracks in the first array and odd tracks in the second array to improve data access performance
US6467014B1 (en) * 2000-02-29 2002-10-15 Plasmon Lms, Inc. Automatic mapping and efficient address translation for multi-surface, multi-zone storage devices
JP3753598B2 (ja) * 2000-07-06 2006-03-08 株式会社日立製作所 計算機、計算機システムおよびデータ転送方法

Also Published As

Publication number Publication date
US20020144076A1 (en) 2002-10-03
US6915403B2 (en) 2005-07-05
JP2002259172A (ja) 2002-09-13

Similar Documents

Publication Publication Date Title
JP4105398B2 (ja) 情報処理システム
JP4124331B2 (ja) Dbms向け仮想ボリューム作成・管理方法
US6895483B2 (en) Method and apparatus for data relocation between storage subsystems
US8984248B2 (en) Data migration system and data migration method
US8886906B2 (en) System for data migration using a migration policy involving access frequency and virtual logical volumes
US8635427B2 (en) Data storage control on storage devices
US7434017B2 (en) Storage system with virtual allocation and virtual relocation of volumes
JP5124551B2 (ja) ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法
JP5218284B2 (ja) 仮想ディスク管理プログラム、ストレージ装置管理プログラム、マルチノードストレージシステム、および仮想ディスク管理方法
US20190310777A1 (en) Storage system, computer system, and control method for storage system
JP2000132343A (ja) 記憶装置システム
US9557933B1 (en) Selective migration of physical data
US11409454B1 (en) Container ownership protocol for independent node flushing
CN112306389A (zh) 存储系统和节点管理方法
JPH08235046A (ja) 共有データ処理装置及び共有データ処理システム
WO2014155555A1 (ja) 管理システム及び管理プログラム
US11861205B2 (en) Distributed storage system and volume migration method
US8984235B2 (en) Storage apparatus and control method for storage apparatus
JP2022163604A (ja) 分散ストレージシステム及び記憶制御方法
WO2016013075A1 (ja) ストレージ、計算機およびその制御方法
JP4375062B2 (ja) 記憶装置システム
KR20200109547A (ko) 네트워크 부착 디스크를 통한 파일 처리 방법 및 그 시스템
US9652165B2 (en) Storage device and data management method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040914

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080128

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080128

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080327

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees