JP2002082775A - 計算機システム - Google Patents

計算機システム

Info

Publication number
JP2002082775A
JP2002082775A JP2001053458A JP2001053458A JP2002082775A JP 2002082775 A JP2002082775 A JP 2002082775A JP 2001053458 A JP2001053458 A JP 2001053458A JP 2001053458 A JP2001053458 A JP 2001053458A JP 2002082775 A JP2002082775 A JP 2002082775A
Authority
JP
Japan
Prior art keywords
storage
data
computer
file
host
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001053458A
Other languages
English (en)
Other versions
JP4115093B2 (ja
Inventor
Takashi Arakawa
敬史 荒川
Kazuhiko Mogi
和彦 茂木
Kentetsu Eguchi
賢哲 江口
Hiroharu Arai
弘治 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001053458A priority Critical patent/JP4115093B2/ja
Publication of JP2002082775A publication Critical patent/JP2002082775A/ja
Application granted granted Critical
Publication of JP4115093B2 publication Critical patent/JP4115093B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【課題】異なるストレージサブシステム間でのデータの
再配置を適正に行えるようにする。 【解決手段】ディスクアレイ200は、ホスト100か
らのリード/ライトに対してディスク装置210の使用
状況を取得する。ホスト100は、複数のディスクアレ
イ200から使用状況を収集して、再配置対象LUに格納
されているデータの再配置先のLUを決定する。そして、
アプリケーションにとってのデータ位置であるデータの
論理位置名とLUとの対応を決定するLU論理位置名テーブ
ル191を変更する。また、ディスクアレイ200間
で、再配置対象となったLUに格納されているデータを、
再配置先のLUに移動することで、異なるディスクアレイ
200間でのデータの再配置を行う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、記憶装置に記憶さ
れたデータを再配置する技術に関し、特に、複数の記憶
装置を有する計算機システムでのデータの再配置に好適
な技術に関する。
【0002】
【従来の技術】計算機システムにおける、ストレージサ
ブシステム内に記憶されたデータを再配置する技術とし
て、特開平9-274544号公報記載のディスクアレイシステ
ムがある。ここで、ストレージサブシステムとは、複数
の記憶装置から構成される記憶装置システムのことを言
う。
【0003】ディスクアレイシステムとは、複数のディ
スク装置をアレイ状に配置し、各ディスク装置を並列に
動作させることで、各ディスク装置に分割格納されるデ
ータのリード/ライトを高速に行うシステムのことであ
る。D.A.Patterson, G.Gibson, and R.H.Kat
s,”A Case for Redundant Arrays of Inexpensive Di
sks (RAID)”(in Proc. ACM SIGMOD, pp.109-11
6, June 1988)に記載されているように、冗長性を付
加したディスクアレイシステムには、その冗長構成に応
じてレベル1からレベル5の種別が与えられている。こ
れらの種別に加えて、冗長性無しのディスクアレイシス
テムをレベル0と呼ぶこともある。
【0004】ディスクアレイシステムを構成するための
コスト、ディスクアレイシステムの性能や特性等は、デ
ィスクアレイシステムのレベルによって異なる。そこ
で、システムの使用目的に応じて、ディスクアレイシス
テムの構築の際にレベルの異なる複数のアレイ(ディス
ク装置の組)を混在させることも多い。このようにレベ
ルの異なるアレイを混在させたディスクアレイシステム
において、各レベルのアレイは、パリティグループと呼
ばれる。また、ディスク装置についても性能や容量等に
よりコストが異なるので、最適のコストパフォーマンス
を実現するシステムを構築するために、性能や容量の異
なる複数種のディスク装置を用いることがある。
【0005】ディスクアレイシステムでは、データが複
数のディスク装置に分散して配置されるため、ディスク
アレイシステムに接続されるホストコンピュータが、論
理記憶領域とディスク装置の記憶領域を示す物理記憶領
域との対応付け(アドレス変換)を行っている。
【0006】特開平9-274544号公報には、ディスクアレ
イシステム内において、物理記憶領域間におけるデータ
の再配置を実行し、データの論理記憶領域に対する物理
記憶領域への対応付けを、再配置前の物理記憶領域から
再配置後の物理記憶領域に変更する技術が開示されてい
る。また、ディスクアレイシステムがホストコンピュー
タからの各論理記憶領域に対するアクセスによる負荷状
況を管理し、その実績に応じて再配置後にデータが適正
配置となるように、再配置の内容を決定するという技術
も開示されている。
【0007】ホストコンピュータおよびディスクアレイ
システム等のストレージサブシステム間におけるデータ
転送の技術としては、M.T.O’Keefe,”Shared File
Systems and Fibre Channel”(in Proc. Sixth Godda
rd Conference on Mass Storage Systems and Technolo
gies, pp.1-16, March 1998)に開示された技術があ
る。
【0008】この技術は、高速のネットワークであるFi
bre Channel(以下「FC」と称する。)で複数のホスト
コンピュータと複数のストレージサブシステムとを接続
し、FC経由でデータ共有を実現するストレージ環境、い
わゆるStorage Area Network(SAN)を実現するための
技術である。このように、FC経由でデータ転送を行うこ
とにより、一般的なネットワーク経由に比べ、ホストコ
ンピュータおよびネットワークの負荷が削減される。
【0009】高速なFCを使用しない、一般的なネットワ
ークに接続されたストレージサブシステムに保持されて
いるファイル等のデータを、複数のコンピュータで共有
する技術としては、NFS(Network File System)が広く
知られている。
【0010】NFSを用いてネットワーク間でデータ共有
を行う場合には、FCを使用する場合に比べ、ファイルを
共有しているコンピュータや、コンピュータとストレー
ジサブシステムをつなぐネットワークに対する負荷が大
きくなる。しかし、NFSを用いると、既存のネットワー
クを使用できることから、新たにFCのネットワークを敷
設することと比較すると、新規設備コストを抑えられ、
またファイル共有等の管理が容易である等の利点があ
る。
【0011】
【発明が解決しようとする課題】上述したように、特開
平9-274544号公報に開示された技術では、1つのストレ
ージサブシステム内におけるデータの再配置が可能とな
る。しかしながら、複数のストレージサブシステムを有
する計算機システムにおいて、異なるストレージサブシ
ステム間でのデータの再配置を行うことはできない。ま
た、ディスクアレイシステムはファイルを認識できない
ため、ファイル単位でデータの再配置を行うことができ
ない。
【0012】一方、SANの技術を用いれば、異なるスト
レージサブシステムにおける高速なデータ転送が可能と
なる。しかしながら、従来技術においては、SANの技術
を利用してストレージサブシステム間でデータの再配置
を行うことは出来なかった。
【0013】つまり、従来技術においては、SANを構成
する各ストレージサブシステムの各記憶領域の負荷状況
等、データの適正な配置を決定するために必要な情報
を、ホストコンピュータやシステムを使用するユーザが
得ることについて、何ら考えられていない。このため、
ホストコンピュータや、そのユーザが、どのようにして
データの再配置を行えば、データの適正な配置を実現す
ることができるのかを判断できない。
【0014】さらに、仮にユーザが自らストレージサブ
システム間におけるデータの再配置を行おうとしても、
データを再配置するための未使用領域の管理等を、全て
ユーザが詳細に検討して行わなければならず、ユーザに
対する負担は大きいものがあった。
【0015】また、異なるストレージサブシステム間で
データを転送すると、アプリケーションが認識するデー
タの位置、すなわち、アプリケーションが同じデータに
アクセスするために指定すべきアクセス先が再配置の前
後で変化してしまうが、この変化についても従来技術で
は何ら考慮されていない。
【0016】さらに、一般的なネットワークで接続され
ているコンピュータ同士で、NFSを使用してデータ共有
を行う場合にも、以下の問題がある。
【0017】すなわち、従来、NFSによるデータ共有を
実現するために使用されるホストコンピュータ(NFSサ
ーバ)が、複数のストレージサブシステムを管理してい
る場合、NFSサーバ自身は、その複数のストレージサブ
システム間でのデータの物理的再配置等を行うことはで
きなかった。このため、NFSサーバを用いてデータ共有
を行うコンピュータ毎に、共有されるデータの物理的位
置を変更するといった、ストレージサブシステムの有す
る記憶領域についてのより細かい区別および管理を行う
ことができなかった。
【0018】本発明は上記事情に鑑みてなされたもので
あり、本発明の目的は、NFSサーバを含めたホストコン
ピュータがデータの適正配置の決定に必要な情報をスト
レージサブシステムから取得できるようにし、SAN環境
において、データの再配置を実現することにある。ま
た、異なる目的としては、ユーザのストレージサブシス
テムの管理負担を軽減することにある。また、異なるス
トレージサブシステム間におけるデータの再配置を、ア
プリケーションが認識するデータの位置が、再配置の前
後で変化しないようにして、行えるようにすることにあ
る。さらにまた、ファイルを対象とするデータの再配置
を可能とすることにある。
【0019】
【課題を解決するための手段】前記の課題を解決するた
め、本発明は以下の構成とする。すなわち、計算機と、
前記計算機に接続される複数のストレージサブシステム
とを有し、ストレージサブシステムは、ストレージサブ
システムが有する記憶領域の各々について記憶領域の使
用状況を取得する取得手段を有し、計算機は、複数のス
トレージサブシステムから、記憶領域各々の使用状況を
取得する取得手段を有すること計算機システムという構
成とする。記憶領域は、論理的な記憶領域であってもよ
い。また、ストレージサブシステムには、計算機の指示
にしたがって、データの移動を行う移動手段を付加し、
計算機には、データの論理的な位置と、ストレージサブ
システムにおいてデータが格納される記憶領域との対応
を規定する対応テーブルと、移動手段によってストレー
ジサブシステム間でデータが移動した場合に、対応テー
ブルを更新する更新手段とを付加した構成とすることも
できる。
【0020】ここで、各記憶領域の使用状況とは、例え
ば、その記憶領域の物理的な記憶空間の使用状況やその
記憶空間へのアクセス処理に消費された処理時間等であ
る。
【0021】また、ストレージサブシステムで移動され
るデータの単位及び計算機で管理されるデータの単位が
ファイル単位であることも考えられる。
【0022】さらに、全てのストレージサブシステムが
有する論理的な記憶領域全体を管理する手段と、記憶装
置の特徴と論理的な記憶領域との対応関係を管理する手
段とを計算機に付加した構成も考えられる。
【0023】また、計算機に、ストレージサブシステム
に格納されているデータをネットワーク間で共有する手
段を付加した構成も考えられる。
【0024】
【発明の実施の形態】図1は、本発明が適用された計算
機システムの第1実施形態の構成を示す図である。
【0025】本実施形態の計算機システムは、ホストコ
ンピュータ(ホスト)100、ディスクアレイ200、
スイッチ500、クライアント800及びローカルディ
スク190を有する。
【0026】ホスト100は、ネットワークインタフェ
ース170により、ネットワーク700を介して、クラ
イアント800及びディスクアレイ200に接続され
る。ホスト100は、また、FCインタフェース160、
スイッチ500及びFC600を介して、ディスクアレイ
200及びローカルディスク190に接続される。
【0027】ホスト100は、ファイルシステム11
0、オペレーティングシステム(以下「OS」と称す
る。)120、マネージャ130及びアプリケーション
140をホスト100自身が有する記憶領域に有する。
【0028】アプリケーションプログラム(以下、単に
アプリケーションと呼ぶ)140は、OS120およびフ
ァイルシステム110を介してディスクアレイ200に
対してリードやライトの要求を出す。
【0029】ホスト100及びクライアント800とし
ては、一般的な電子計算機が用いられる。ファイルシス
テム110等のプログラムは、ホスト100の外部にあ
るローカルディスク190に記憶され、必要に応じてホ
スト100に読み込まれて実行される。
【0030】ホスト100がその内部に記憶装置を有す
る場合には、当該記憶装置をローカルディスク190と
して使用することも考えられる。
【0031】ローカルディスク190には、OS120及
びファイルシステム110が使用する論理ユニット(以
下、「LU」と称する)論理位置名テーブル191及びLU
内アドレス論理位置名テーブル195等の各種管理情報
が格納されている。LU論理位置名テーブル191は、ア
プリケーション140がディスクアレイシステム200
のデータにアクセスするときに指定する論理位置名と、
論理位置名により特定されるデータを格納するLUとの対
応を示す情報を保持したテーブルである。
【0032】LU内アドレス論理位置名テーブル195
は、アプリケーション140がディスクアレイシステム
200のデータにアクセスするときに指定する論理位置
名と、論理位置名により特定されるデータのLU内アドレ
スとの対応を示す情報を保持したテーブルである。
【0033】ディスクアレイ200は、制御部300、
複数のディスク装置210、ネットワークインタフェー
ス270及びFCインタフェース260を有する。
【0034】制御部300は、処理を実行するためのCP
U310、メモリ320及びキャッシュメモリ330を
有する。
【0035】メモリ320には、論理/物理対応情報3
21、論理ボリューム使用状況322及びコピー領域管
理テーブル323が格納される。これらの情報の詳細に
ついては後述する。
【0036】本実施形態では、n台(nは2以上の整数)
のディスク装置210でアレイ(以下「RAID」と称す
る。)が構成されており、このn台のディスク装置21
0によるRAIDをパリティグループ220と呼ぶ。
【0037】RAIDとしては、1つのパリティグループ2
20に含まれるn台のディスク装置210のうち、n-1
台のディスク装置210の格納内容から生成される冗長
データ(以下「パリティ」と称する。)を残りの1台に
格納する構成や、n/2台に格納されている内容を残りの
n/2台がコピーしたミラーディスク(RAIDレベル1)構
成が考えられる。また、各パリティグループ220を、
ホスト100からのアクセス対象の1単位とみなすこと
ができる。
【0038】本実施形態においては、ディスクアレイ2
00を構築する各パリティグループ220の性能、信頼
性、特性などの属性は、同一であってもよいし、あるい
は、異なっていてもかまわない。
【0039】制御部300は、ホスト100がリード/
ライトする論理ボリュームとディスク装置210の記憶
領域を示す物理アドレスとの対応付け(アドレス変換)
を行い、ホスト100に論理ボリュームを提供する。デ
ィスクアレイ200は、アドレス変換において、複数の
論理ボリュームを結合して1つのLUとしてホスト100
に提供することもできる。すなわち、ディスクアレイ2
00は、少なくとも1つの論理ボリュームからなるLUを
ホスト100に提供する。ホスト100は、LUに対して
リード/ライトを行う。
【0040】本実施形態では、複数のディスクアレイ2
00間における、ディスクアレイ200の使用状況を考
慮したデータの物理的再配置を可能とする。具体的に
は、ディスクアレイ200は、ホスト100からのリー
ド/ライトに対するディスク装置210の使用状況を取
得する。ホスト100は、複数のディスクアレイ200
各々が取得した使用状況を収集し、ユーザに提示する。
さらに、ホスト100は、ディスクアレイ200の使用
状況の提示を受けたユーザからの指示等に応じ、ローカ
ルディスク190内のLU論理位置名テーブル191を変
更すると共に、ディスクアレイ200がLUに格納してい
るデータをコピーする。これにより、複数のディスクア
レイ200間におけるLUの再配置が行われる。そして、
ディスクアレイ200の使用状況を考慮したデータの再
配置を可能とすることにより、データの適正配置が可能
となる。
【0041】図2は、ディスクアレイ200が、ホスト
100からのリード/ライト要求に応答して行うリード/
ライト処理、及びディスクアレイ200が、ディスク装
置210の使用状況を取得する使用状況取得の処理の手
順を示すフロー図である。使用状況取得の処理は、随
時、又はホスト100からのリード/ライト要求時に行
われる。
【0042】ホスト100のアプリケーション140
は、ファイル論理位置名によってファイルを指定し、フ
ァイルに対するリード/ライトをOS120に要求する。O
S120は、ファイルシステム110にファイルのリー
ド/ライトを要求する。
【0043】ファイルシステム110は、FCインターフ
ェース160を介してローカルディスク190にアクセ
スし、指定されたファイルが格納されているLU番号をLU
論理位置名テーブル191から求める。ファイルシステ
ム110は、指定されたファイルが格納されているLU内
アドレス等を、LU内アドレス論理位置名テーブル195
から求める。
【0044】ホスト100は、FCインターフェース16
0を介して、求めたLU番号のLUを提供するディスクアレ
イ200に対し、LU番号やLU内アドレスを伴うSmall Co
mputer System Interface(SCSI)規格のリードコマン
ド、あるいはライトコマンドを発行する。
【0045】アプリケーション140が、論理ドライブ
名、ディレクトリ名及びファイル名によるファイルの論
理位置までのパスの記述によりファイルを指定するシス
テムでは、論理位置(論理ドライブやディレクトリやフ
ァイル)へのパスの記述が、ファイルの論理位置の論理
位置名となる。一般的には、論理位置名とは、アプリケ
ーションがアクセス対象の指定に使用する論理位置の情
報である。
【0046】ファイルシステム110は、各論理位置を
管理するため、ディレクトリ構造などの各論理位置間の
階層的な論理構造を管理する他、各論理位置の論理位置
名とLU番号との対応をLU論理位置名テーブル191に記
述し管理する。また、各論理位置の論理位置名とLU内ア
ドレスとの対応をLU内アドレス論理位置名テーブル19
5に記述し管理する。なお、LU番号は、そのLU番号のLU
を提供するディスクアレイ200も表す(ステップ10
00)。
【0047】ホスト100からリード/ライトのコマン
ドを受領した制御部300は、メモリ320内の論理/
物理対応情報321を用いて、コマンドで指定されてい
るLU番号により特定されるLUを構成する論理ボリューム
を特定する。制御部300は、論理ボリュームに対応す
るディスク装置210の領域を求め、コマンドで指定さ
れているLU内アドレスの物理アドレスへの変換を行う。
【0048】論理/物理対応情報321は、図3に示す
ように、LUとディスク装置210の物理アドレスとの対
応関係についての情報を保持するテーブルである。
【0049】図中、LU番号5001およびLU内アドレス
5002は、ホスト100のファイルシステム110が
リード/ライト処理で指定するLU番号及びLU内アドレス
を示す。論理ボリューム番号5003は、LU番号500
1で特定されるLUに対応する論理ボリュームの番号であ
る。論理ボリュームアドレス5004は、LU内アドレス
5002に対応する論理ボリューム内のアドレスであ
る。
【0050】物理アドレスは、データとパリティが格納
されるディスク装置210上の領域を示すアドレスであ
る。物理アドレスは、パリティグループ番号5005、
データおよびパリティ各々に対するディスク装置番号5
006及びディスク装置内アドレス5007を有する。
パリティグループ番号5005は、個々のパリティグル
ープ220を示す。ディスク装置番号5006は、個々
のディスク装置210を示す。ディスク装置内アドレス
5007は、ディスク装置210内での領域を示すアド
レスである(ステップ1010)。
【0051】データのリードの場合、制御部300は、
アドレス変換で得た物理アドレスに基づいて、ディスク
装置210のデータを読み出し、ホスト100に転送す
る。データのライトの場合、制御部300は、ホスト1
00から転送されたデータ及びデータに関連して生成し
たパリティを、アドレス変換で得たディスク装置210
の物理アドレスの位置に格納する(ステップ102
0)。
【0052】、リード/ライト処理を終了した制御部3
00は、使用状況取得処理を実行する。この処理では、
制御部300は、リード/ライト処理でのリード/ライト
種別やシーケンシャル/ランダムアクセス種別を判別
し、メモリ320のリード/ライト対象となった論理ボ
リュームの論理ボリューム使用状況322を更新する。
論理ボリューム使用状況322は、ディスクアレイ20
0に含まれるLUの使用状況についての情報を保持したテ
ーブルである。論理ボリューム使用状況322の一例
を、図4に示す。
【0053】論理ボリューム使用状況322には、論理
ボリューム毎に、論理ボリューム番号5101及びリー
ド/ライト種別およびシーケンシャル/ランダムアクセス
種別毎のディスク使用時間(マイクロ秒単位)5102
が記述される。ここでは、リード/ライト対象となった
論理ボリュームの論理ボリューム番号5101に対応す
る、ディスク使用時間5102に、リード/ライトに要
した時間が加算される(ステップ1030)。
【0054】図5は、ホスト100が、各ディスクアレ
イ200からディスク装置210の使用状況を収集する
使用状況収集処理の手順を示すフロー図である。この処
理は、随時行われる。
【0055】ホスト100のマネージャ130は、FCイ
ンターフェース160を介し、コマンドボリュームに対
して、情報収集用のパラメータをライトデータとするSC
SI規格のライトコマンドを発行する。コマンドボリュー
ムは、ディスクアレイ200が有する情報転送用のLUで
あって、対応する物理領域が指定されない論理ボリュー
ムである。(ステップ1100)。
【0056】制御部300は、発行されたコマンドがコ
マンドボリュームに対するライトコマンドであることを
確認すると、ホスト100から転送された情報収集用の
パラメータに含まれるオペレーションコードから、要求
された情報を判別する。制御部300は、要求された情
報をメモリ320上に用意する(ステップ1110)。
制御部300は、FCインターフェース260を介して、
ホスト100にライトの完了を報告する(ステップ11
20)。
【0057】完了報告を受けたホスト100のマネージ
ャ130は、FCインターフェース160を介して、ディ
スクアレイ200のコマンドボリュームに、SCSI規格の
リードコマンドを発行する(ステップ1130)。
【0058】制御部300は、コマンドボリュームに対
するリードコマンドを受領すると、メモリ320上に用
意した情報を、FCインターフェース260を介してホス
ト100に転送する(ステップ1140)。制御部30
0は、FCインターフェース260を介してホスト100
にリードの完了を報告する(ステップ1150)。
【0059】ステップ1100でライトされる情報収集
用のパラメータ及びステップ1110で用意される情報
には、論理ボリューム情報、パリティグループ情報及び
使用状況情報の3種類の情報が含まれる。
【0060】ステップ1100でライトされる情報収集
用のパラメータが、図6に示すような論理ボリューム情
報のパラメータである場合、制御部300は、その0〜
1バイト目で指定された論理ボリューム番号5201で
特定される論理ボリュームについて、図7に示すような
論理ボリューム情報(ディスクアレイ200内のその論
理ボリュームの構成を示す情報)を用意する。
【0061】図7に示す論理ボリューム情報において、
8〜47バイト目には、その0〜1バイト目に記述され
ている論理ボリューム番号5201で特定される論理ボ
リュームの各種情報5202が記述される。49〜12
1バイト目には、その論理ボリュームが属するLUを構成
する各論理ボリュームの情報5203が記述される。
【0062】情報収集用のパラメータが、パリティグル
ープ情報のパラメータの場合、制御部300は、パラメ
ータで指定された論理ボリュームが属するパリティグル
ープ220のパリティグループ情報(RAIDの構成、ディ
スク装置210の型名等、ディスクアレイ200内のそ
のパリティグループ220の構成を示す情報)を用意す
る。
【0063】情報収集用のパラメータが、ディスク装置
210の使用状況を確認するためのパラメータの場合、
制御部300は、パラメータで指定された論理ボリュー
ムの使用状況情報(ディスクアレイ200内のリソース
の使用状況、例えば論理ボリュームが占有される時間、
論理ボリュームの各種コマンド受領回数やキャッシュメ
モリ330のヒット回数等の情報、プロセッサ310の
占有時間及び内部バスの占有時間等の情報等)を用意す
る。
【0064】制御部300は、あらかじめ、論理ボリュ
ーム毎に、各種コマンド受領回数やキャッシュメモリ3
30のヒット回数やプロセッサ310の占有時間や内部
バスの占有時間等を取得している。マネージャ130
は、例えば複数回取得した占有時間の平均を取得間隔で
割ることにより、単位時間あたりの占有時間率を求める
ことができる。
【0065】制御部300は、論理ボリューム情報やパ
リティグループ情報を生成する際に、論理/物理対応情
報321の一部あるいは全部を使用する。マネージャ1
30は、各型のディスク装置210の性能に関する情報
を保持しており、ディスク装置210の型名を基に、パ
リティグループ220を構成するディスク装置210の
性能を得ることができる。
【0066】また、ホスト100のマネージャ130
は、LUに対しSCSI規格のINQUIRYコマンドを発行して応
答データを得ることで、この応答データからLUに属する
論理ボリューム番号を得ることもできる。
【0067】図8は、ホスト100が再配置すべきデー
タを決定する再配置対象決定処理の手順を示すフロー図
である。本処理は、ユーザが再配置すべきデータを検索
する際に使用するアプリケーションが実行された時に実
行される。
【0068】ホスト100のマネージャ130は、OS1
20が使用しているLU及び使用していないLU(空きLU)
を、例えばローカルディスク190に格納されているLU
論理位置名テーブル191から判定する。マネージャ1
30は、OS120が使用している各LUについて、LUが属
するディスクアレイ200における各論理ボリュームの
使用状況や、LUに対応する論理ボリュームの使用状況等
を計算する。この計算には、INQUIRYコマンドを発行し
て得られるLUに属する論理ボリューム番号、使用状況収
集処理で得られる各ディスクアレイ200における論理
ボリューム情報、パリティグループ情報および論理ボリ
ュームの使用状況等が使用される(ステップ120
0)。
【0069】マネージャ130は、使用状況等の計算結
果を、各論理ボリュームが属するパリティグループ22
0の属性(RAID構成、ディスク装置210の型名又はデ
ィスク装置210の性能等)等と共にユーザに提示する
(ステップ1210)。
【0070】マネージャ130は、各LUについて、INQU
IRYコマンドを発行して得られた各LUに属する論理ボリ
ューム番号、使用状況収集処理で得られた各ディスクア
レイ200における論理ボリューム情報、パリティグル
ープ情報及び論理ボリュームの使用状況等とから、各空
きLUが対応する各論理ボリュームの使用状況等を計算す
る(ステップ1220)。この計算結果が、各空きLUに
関連するパリティグループ220の属性等と共にユーザ
に分類されて提示される(ステップ1230)。
【0071】使用状況等の情報は、ホスト100あるい
はホスト100にネットワーク接続された他の計算機で
表示することもできる。
【0072】ユーザは、各ディスクアレイ200の各LU
についての情報を参照し、データを再配置すべきLU(再
配置元LU)及びデータの再配置先のLUを決定する。ただ
し、ユーザではなく、ホスト100のマネージャ130
が、各LUについての情報から自動的にデータ再配置元又
は再配置先を決定してもよい。再配置の決定は、たとえ
ば、再配置後に、ディスクアレイ200間での負荷分
散、パリティグループ220間での負荷分散、高性能を
要求するファイルが存在するLUの高性能パリティグルー
プ220への配置等が実現されるように行なわれる。再
配置先LUのサイズは、再配置元LUのサイズ以上でなけれ
ばならない。各LUのサイズは、SCSI規格のREAD CAPACIT
Yコマンドで取得することができる(ステップ124
0)。
【0073】図9は、ホスト100が行う、データの再
配置処理の手順を示すフロー図である。ホスト100
は、再配置を決定したユーザの指示、例えば再配置を指
示する実行コマンドの入力等があった場合に本処理を実
行する。
【0074】ユーザからの指示が入力されたホスト10
0のマネージャ130は、ファイルシステム110に再
配置元LUのロックを指示する(ステップ1300)。フ
ァイルシステム110は、ロック指示に応じて、再配置
元LUへのリード/ライト要求の受付を禁止する(ステッ
プ1310)。
【0075】次に、マネージャ130は、ファイルシス
テム110に、再配置元LUについてのキャッシュメモリ
のフラッシュを指示する(ステップ1320)。ファイ
ルシステム110は、再配置元LUに格納されるデータで
あって、ホスト100上のメモリにキャッシュされてい
て且つディスクアレイ200に未だライトされていない
データを、ディスクアレイ200の再配置元LUにライト
する(ステップ1330)。
【0076】マネージャ130は、ファイルシステム1
10に、再配置元LUについてのキャッシュの無効化を指
示する(ステップ1340)。ファイルシステム110
は、再配置元LUに格納されるデータであってホスト10
0上のメモリにキャッシュされているデータを無効にす
る(ステップ1350)。
【0077】LUのロック、キャッシュメモリのフラッシ
ュ及び無効化の処理は、LUのアンマウントの処理に相当
する。
【0078】マネージャ130は、再配置先LUが存在す
るディスクアレイ200に、再配置元LUから再配置先LU
へのデータのコピーを指示する。この指示は、使用状況
収集処理と同様、再配置先LUが存在するディスクアレイ
200のコマンドボリュームに、コピー指示オペレーシ
ョンコードや再配置元LUや再配置先LU等のコピー指示の
パラメータを含んだライトコマンドを発行することで行
われる(ステップ1360)。ディスクアレイ200
は、後述のコピー処理を開始し、コピー指示の受領をマ
ネージャ130に通知する(ステップ1370)。
【0079】マネージャ130は、ローカルディスク1
90に格納されているファイルシステム110が使用す
るLU論理位置名テーブル191を書き換え、再配置元LU
と再配置先LUとの論理位置名を入れ替える。入れ替えら
れるLU論理位置名テーブル191の例を、図10及び図
11に示す。
【0080】図中、ディスクアレイ番号、IDおよびLUN
は、LU番号6001を特定するために必要な情報であ
る。図10は、論理位置名をディレクトリ形式で示した
ものであり、図11は、論理位置名をドライブ形式で示
したものである。いずれも、アプリケーション140が
使用する記憶領域としてのLUの論理位置を示している
(ステップ1380)。マネージャ130は、ファイル
システム110に、LU論理位置名テーブル191の更新
(再読み込み)及びステップ1300で指示したロック
の解除を指示する(ステップ1390)。
【0081】ファイルシステム110は、LU論理位置名
テーブル191を再度読み込んで情報を更新する(ステ
ップ1400)。ファイルシステム110は、ロックを
解除してリード/ライト要求の受け付けを再開する(ス
テップ1410)。
【0082】ステップ1400及び1401の処理は、
LUのマウント処理に相当する。
【0083】ステップ1401の処理が実行された後
は、ファイルシステム110のリード/ライトの対象と
なるLUが再配置の対象であるLUであれば、ファイルシス
テム110のリード/ライト処理は、ステップ1380
において情報が入れ替えられた再配置先LUに対して行わ
れる。
【0084】図12は、再配置処理において、ディスク
アレイ200が、ホスト100からコピー指示を受けた
際に行うコピー処理の手順を示すフロー図である。
【0085】再配置先LUが存在するディスクアレイ20
0が、FCインターフェース260を介してホスト100
からコピー指示を受け取ると、制御部300は、コピー
指示で指定された再配置先LUについてのコピー領域管理
テーブル323をメモリ320上に用意する。
【0086】図13は、コピー領域管理テーブル323
の内容を示す図である。コピー領域管理テーブル323
は、コピーされるデータの範囲、大きさ等の情報が登録
されているテーブルである。
【0087】図中、コピー先LU番号6101及びコピー
元LU番号6102は、FC600のネットワーク内におい
て再配置先LUと再配置元LUを一義的に示す番号を格納す
る領域である。具体的には、ホスト100からコピー指
示のパラメータとして指定された8バイトの番号(WORL
D WIDE NAME)、3バイトの番号(N_PORT ID)、SCSI規
格のターゲットIDもしくはLUNが格納される。コピーブ
ロック数6103には、コピーする領域のブロック(最
小リード/ライト単位)の数であり、コピー領域の大き
さを示すデータが格納される。ビットマップ6104の
ビットには、LUのコピー対象領域の各ブロックが割り当
てられる。ビットが「1」である場合は未コピーを示
し、「0」である場合はコピー済を示す。初期時は、コ
ピー対象領域に対応するすべてのビットが1に設定され
る(ステップ1500)。
【0088】制御部300は、コピー指示の受領をホス
ト100に通知する。この通知は、コピー指示を実際に
受領してから、コピー領域管理テーブル323の設定
後、実際にコピーを行う前の時点で行われる。このた
め、コピー指示の受領から当該通知までの時間は短い
(ステップ1510)。
【0089】制御部300は、FCインターフェース26
0を介して再配置元LUから格納すべきデータをリード
し、再配置先LUに格納するコピーを行う(ステップ15
20)。
【0090】制御部300は、LUのコピー対象領域につ
いて、コピー済の領域に対応するビットマップ6104
のビットを順次0に変更する(ステップ1530)。制
御部300は、対象となるLU全体のコピーが終了した
ら、コピー処理を終了する(ステップ1540)。
【0091】再配置元LUが存在するディスクアレイ20
0と再配置先LUが存在するディスクアレイ200とが同
一の場合には、ディスクアレイ200内でLUのコピーが
行われる。
【0092】ホスト100からの再配置対象LUへのリー
ド/ライトは、再配置対象LUのデータがコピー中であっ
ても、再配置先LU、すなわち再配置先LUの存在するディ
スクアレイ200に対して行われる。
【0093】図14は、再配置先LUの存在するディスク
アレイ200が、データの再配置におけるコピー処理の
最中に、再配置の対象となるLUに対するリード/ライト
コマンドを受けた場合における処理の手順について示す
フロー図である。
【0094】ディスクアレイ200が、FCインターフェ
ース260を介してリードコマンドを受け取ると、制御
部300は、リード対象範囲とテーブル323のビット
マップ6104とを比較する(ステップ1610)。リ
ード対象領域に未コピーの領域が含まれている場合に
は、制御部300は、リード対象領域のデータを優先し
て読み出してコピーを済ませる(ステップ1630)。
制御部300は、ビットマップ6104のリード対象領
域に対応するビットをコピー済みに更新する(ステップ
1640)。制御部300は、ディスクアレイ200内
のコピーしたデータをホスト100に転送する(ステッ
プ1650)。リード対象領域がすべてコピー済であれ
ば、制御部300は、ディスクアレイ200内のコピー
済みのデータをホスト100に転送する(ステップ16
50)。
【0095】制御部300は、FCインターフェース26
0を介してライトコマンドを受け取ると、ホスト100
から転送されたデータについて、ライト対象領域にライ
トを行う(ステップ1670)。制御部300は、コピ
ー領域管理テーブル323のビットマップ6104のラ
イト対象領域に対応するビットをコピー済に更新する
(ステップ1680)。制御部300は、残りの未コピ
ー領域のコピーを継続する(ステップ1690)。
【0096】以上の処理により、再配置先LUが存在する
ディスクアレイ200は、データ再配置におけるコピー
処理中であっても、ホスト100からのリード/ライト
を処理することができる。
【0097】なお、このリード/ライトの処理の際、制
御部300は、同時に、先に説明した使用状況取得処理
も行う。
【0098】また、ホスト100のマネージャ130
は、データ再配置におけるコピー処理中に、ディスクア
レイ200のコマンドボリュームにコピー進捗取得のた
めのパラメータを含むデータのライトコマンドを発行
し、ディスクアレイ200が用意したデータをリードす
ることで、コピーの進捗情報等をディスクアレイ200
に問い合わせることができる。
【0099】具体的には、コマンドボリュームに対する
ライトコマンドを受け付けた制御部300は、コマンド
ボリュームにライトされたパラメータを確認する。制御
部300は、コピー領域管理テーブル323を参照して
パラメータに対応するコピーの進捗率などの情報をメモ
リ320上に用意し、ライト完了をホスト100に通知
する。マネージャ130は、コマンドボリュームに対す
るリードを行う。制御部300は、ホスト100のリー
ドに対して、メモリ320上に用意したデータを転送す
ることによって、コピーの進捗等の問い合わせに答え
る。
【0100】本実施形態によれば、複数のディスクアレ
イ200間におけるLUの再配置によるデータの適正配置
を、アプリケーション140にとって再配置前後で論理
的に等価となるように、すなわち、アクセス対象のアク
セスにアプリケーションが使用すべき論理位置名が変化
しないようにしつつ実現できる。
【0101】また、本態様によれば、計算機は、ディス
クアレイから取得した、各記憶領域の物理的な記憶装置
資源の使用状況を、例えば記憶装置資源の負荷分散等の
観点による、データの適正配置の決定に用いることがで
きる。したがって、この情報を用いて、例えば異なるス
トレージサブシステム間でデータを再配置することによ
り、データの適正配置を行うことができる。
【0102】なお、本実施形態では、複数のディスクア
レイ200間におけるデータの再配置について説明し
た。しかし、再配置対象データを格納するストレージサ
ブシステムは、ディスクアレイサブシステムでなくても
よい。磁気ディスク装置、光磁気ディスク装置、磁気テ
ープ装置又は半導体ディスク装置などを用いた他の種類
のストレージサブシステムであってもよい。
【0103】尚、マネージャ130は、FC600経由で
はなく、ネットワーク700経由で、例えばSimple Net
work Management Protocol(SNMP)で規定されているプ
ロトコルを用いて情報の収集や指示を行ってもよい。
【0104】本実施形態では、ディスクアレイ200の
制御部300が取得する論理ボリューム使用状況322
が使用時間の累積値である場合について説明した。しか
し、制御部300が単位時間毎の使用時間を使用率の形
式にしてメモリ320に蓄積し、これを論理ボリューム
使用状況322として、ホスト100のマネージャ13
0が収集するようにしてもよい。
【0105】図15は、本発明が適用された計算機シス
テムの第2実施形態の構成を示す図である。
【0106】図示するように、本実施形態の計算機シス
テムは、ローカルディスク190にLU領域範囲テーブル
192を格納し、スイッチ500にコピー制御部510
を設けた構成を有している点が、第1実施形態の計算機
システムと異なる。
【0107】本実施形態では、ディスクアレイ200が
ディスク装置210の使用状況を取得し、ホスト100
が複数のディスクアレイ200から使用状況を収集し、
使用状況を計算機システムのファイルに基づく分析も含
めてユーザに提示する。ホスト100は、ファイル管理
のためのデータ(以下「メタデータ」と称する)を変更
する。スイッチ500は、ホスト100の指示に基づい
て、ディスクアレイ200に格納されているデータをコ
ピーする。これにより、複数のディスクアレイ200間
におけるファイルの再配置を可能とし、データの適正配
置を行えるようにする。
【0108】第1実施形態においては、ホスト100の
ファイルシステム110は、各LUを、使用中のものと使
用していないものとに区別して管理した。本実施形態で
は、ファイルシステム110は、全てのLUを使用し、全
てのLUの領域の集合を単一領域(以下、「統合領域」と
称する。)として管理する。また、統合領域上のファイ
ルを、後述するメタデータで管理する。メタデータは、
統合領域の既定の位置に格納される。
【0109】図16は、本実施形態において、ファイル
システム110が統合領域を管理するために用いるLU領
域範囲テーブル192の例を示した図である。LU領域範
囲テーブル192は、統合領域の範囲と各LU内領域の範
囲との対応を示す情報を保持している。
【0110】図中、領域内アドレス6301には、統合
領域内でのアドレスが格納される。LU番号6302は、
ディスクアレイ番号、ID及びLUNを含み、領域内アドレ
ス6301に格納されるLUを示す。LU内アドレス630
3は、対応するLU番号6302で特定されるLU内でのア
ドレスが格納される図17は、ホスト100がリード/
ライトを行う場合の処理の手順を示すフロー図である。
【0111】前提として、ホスト100のアプリケーシ
ョン140は、ファイルシステム110が管理するファ
イルの論理位置を指定して、ディスクアレイ200が格
納するデータにリードやライトを行うものとする。ま
た、ファイルシステム110は、データをファイルとし
て管理するために、メタデータをディスクアレイ200
に格納している。
【0112】なお、メタデータはディスクアレイ200
に格納されているが、ファイルシステム110の管理に
基づき、ホスト100上のメモリにキャッシュされてい
る場合もある。以下、メタデータがホスト100上のメ
モリにキャッシュされている場合で説明する。
【0113】図18は、メタデータの内容を示す図であ
る。
【0114】図示するように、メタデータには、各ファ
イルの作成日時、更新日時、アクセス日時、属性、ファ
イル論理位置名、セキュリティ情報、及びファイル位置
等が含まれる。各ファイルに対応する統合領域内の範囲
は、ファイル位置6407に格納された情報で示され
る。
【0115】ホスト100のアプリケーション140
は、ファイル論理位置名によってファイルを指定し、フ
ァイルに対するリード/ライトをOS120に要求する
(ステップ1700)。OS120は、ファイルシステム
110に、ファイルのリード/ライトを要求する(ステ
ップ1710)。ファイルシステム110は、キャッシ
ュメモリされているメタデータを参照し、メタデータ及
びLU領域範囲テーブル192の情報から、指定されたフ
ァイルの位置(LUおよびLU内アドレス)を得る(ステッ
プ1720)。
【0116】要求がライト要求である場合、ファイルシ
ステム110は、さらにメタデータの更新を行う(ステ
ップ1740)。ファイルシステム110は、ステップ
1720で得たファイルの位置が示す領域内のリード/
ライトをディスクアレイ200に対して行い(ステップ
1750)、キャッシュされたメタデータ及びディスク
アレイ200のメタデータを更新する(ステップ176
0)。
【0117】ステップ1740及び1760でのメタデ
ータの更新は、アクセスされたファイルについて、作成
日時6401、更新日時6402、アクセス日時640
3、属性6404、ファイル論理位置名6405、セキ
ュリティ情報64060、及びファイル位置6407等
に格納された情報を、アクセス内容に応じて更新するこ
とで行われる。例えば、ライトによりファイルサイズが
増減する場合は、これに合わせて、メタデータのファイ
ル位置6407が示す領域内の範囲が増減される。ま
た、ファイルが新規に作成される場合は、メタデータに
新規ファイルのエントリが追加され、ファイルが削除さ
れる場合は対応するエントリが削除される。
【0118】本実施形態において、制御部300は、第
1実施形態と同様の使用状況取得処理を行う。また、ホ
スト100のマネージャ130は、第1実施形態と同様
の使用状況収集処理を行う。
【0119】図19は、ホスト100が行うファイル単
位の再配置対象決定処理の手順を示すフロー図である。
【0120】ホスト100のマネージャ130は、統合
領域に存在する各ファイルについて、ファイルとLUとの
対応を、ファイルシステム110に問い合わせる(ステ
ップ1800)。ファイルシステム110は、キャッシ
ュされたメタデータ及びLU領域範囲テーブル192を用
いて、問い合わせに答える(ステップ1810)。
【0121】マネージャ130は、ディスクアレイ20
0毎の各論理ボリュームの使用状況、各LUの各論理ボリ
ュームの使用状況及びファイル毎の各論理ボリュームの
使用状況等を計算する。この計算には、INQUIRYコマン
ドによって得られた各ディスクアレイ200における各
LUに属する論理ボリューム番号、使用状況収集処理で得
られた各ディスクアレイ200における論理ボリューム
情報及びパリティグループ情報及び論理ボリュームの使
用状況等が使用される(ステップ1820)。マネージ
ャ130は、計算結果を、各論理ボリュームが属するパ
リティグループ220の属性等と共にユーザに提示す
る。すなわち、ホスト100は、使用状況に関する情報
を、ディスクアレイ200、論理ボリューム、LU、ファ
イルといった各種の視点でユーザに提供する(ステップ
1830)。
【0122】マネージャ130は、各ディスクアレイ2
00が提供するLUや論理ボリュームについて利用可能な
空き領域を計算し、ユーザに提示する(ステップ184
0)。マネージャ130は、各ディスクアレイ200が
提供するLUや論理ボリュームについて利用可能な空き領
域を、ファイルシステム110に問い合わせる(ステッ
プ1850)。ファイルシステム110は、キャッシュ
されたメタデータ及びLU領域範囲テーブル192を参照
して、ファイルが存在しない空き領域を特定し、マネー
ジャ130に答える(ステップ1860)。マネージャ
130は、使用状況収集処理で得た各種使用状況等か
ら、空き領域の論理ボリュームの使用状況等を、論理ボ
リュームやパリティグループ220の属性等と共にユー
ザに分類して提示する(ステップ1870)。
【0123】使用状況や空き領域の情報は、ホスト10
0またはホスト100にネットワークで接続された他の
計算機で表示することができる。ユーザは、これらの情
報より再配置すべきファイルと再配置先の空き領域とを
決定する。マネージャ130は、これらの情報から、自
動的に同様の再配置対象や空き領域を決定してもよい
(ステップ1880)。
【0124】ホスト100のファイルシステム110
が、OS120やアプリケーション140からの各ファイ
ルへのリード/ライト要求頻度(アクセス頻度)を監視
して統計情報を生成し、ステップ1830でユーザに提
示しするようにしてもよい。
【0125】これにより、ユーザは、ホスト100での
各ファイルのアクセス頻度を勘案して再配置すべきファ
イルを決定することができる。
【0126】図20は、ホスト100が、再配置対象決
定処理の結果を受けて行う再配置処理の手順を示すフロ
ー図である。本処理は、基本的には、図9に示すLU単位
の再配置決定処理の手順において、LUをファイルに、デ
ィスクアレイ200をスイッチ500に読み替えた処理
と同じである。以下、図9とは異なる部分についてのみ
説明する。
【0127】マネージャ130は、ファイルシステム1
10に、再配置先の空き領域についての領域の使用予約
を指示する(ステップ1940)。ファイルシステム1
10は、指定された再配置先領域が確保されるよう、キ
ャッシュされたメタデータを更新する(ステップ195
0)。マネージャ130は、ファイルシステム110
に、メタデータのキャッシュメモリのフラッシュを指示
する(ステップ1960)。ファイルシステム110
は、ホスト100上のメモリにキャッシュメモリしてあ
るメタデータを、ディスクアレイ200にライトする
(ステップ1970)。
【0128】マネージャ130は、メタデータを書き換
え、指定されたファイルの位置を、再配置元領域から再
配置先領域へ入れ替える。これにより、再配置元の領域
を空き領域とする(ステップ2010)。マネージャ1
30は、ファイルシステム110に、メタデータについ
て、キャッシュの無効化を指示する(ステップ202
0)。ファイルシステム110は、ホスト100上のメ
モリにキャッシュしてあるメタデータを無効にする(ス
テップ2030)。
【0129】以降、ファイルシステム110が、ファイ
ルにリード/ライトする場合には、再配置先領域にコピ
ーされたデータに対して正常にリード/ライトを行うこ
とができる。
【0130】本実施形態によれば、複数のディスクアレ
イ200間でのファイルの適正配置を、アプリケーショ
ン140にとって再配置前後で論理的に等価となるよう
に行うことが可能となる。
【0131】図21は、本発明が適用された計算機シス
テムの第3実施形態の構成を示す図である。
【0132】本実施形態の計算機システムは、クライア
ント800が、FCインタフェース860及びネットワー
クインタフェース870を有する。そして、クライアン
ト800がFCインターフェース860を介してFC600
経由でホスト100、ディスクアレイ200及びスイッ
チ500に接続され、かつネットワークインターフェー
ス870を介してネットワーク700経由でホスト10
0およびディスクアレイ200に接続される点が、第2
実施形態の計算機システムと異なる。本実施形態では、
複数のクライアント800とホスト100とが、ディス
クアレイ200上のファイルを共有する。クライアント
800は、OS820とアプリケーション840を有す
る。クライアント800は一般的な電子計算機である。
【0133】第2実施形態と同様に、本実施形態のファ
イルシステム110は、全てのLUを使用し、全てのLUの
領域を集合して単一の統合領域として管理する。そし
て、統合領域上のファイルを、第2実施形態と同様にメ
タデータにより管理する。
【0134】クライアント800が、ディスクアレイ2
00に格納されているファイルへアクセスする処理につ
いて説明する。
【0135】図22は、クライアント800がディスク
アレイ200に格納されているファイルのリードを行う
場合の処理の手順を示すフロー図である。
【0136】クライアント800のアプリケーション8
40は、OS820にファイルのリードを要求する(ス
テップ2100)。OS820は、ネットワークインタ
ーフェース870あるいはFCインターフェース860を
介して、ホスト100のファイルシステム110にファ
イルのリードを通知する(ステップ2110)。
【0137】ファイルのリードの通知を受けたファイル
システム110は、ファイルが格納されているLUおよび
LU内アドレスを、メタデータとLU領域範囲テーブル19
2とを参照して求める(ステップ2120)。ファイル
システム110は、ファイルが格納されているLUのLU内
アドレスを他のクライアント800からのライトに対し
てロックする(ステップ2130)。ファイルシステム
110は、ホスト100のキャッシュメモリにあるメタ
データをフラッシュする(ステップ2140)。ファイ
ルシステム110は、クライアント800のOS820
に、ファイルが格納されているLUおよびLU内アドレス
と、メタデータの格納されているLUおよびLU内アドレス
とを返答する(ステップ2150)。
【0138】返答を受けたクライアント800のOS82
0は、リードの対象となるファイルが格納されているLU
が存在するディスクアレイ200に対し、FCインターフ
ェース860を介して、ファイルが格納されているLU内
アドレスに対するリードを行って、アプリケーション8
40からの要求を処理する(ステップ2160)。
【0139】クライアント800から要求されたデータ
のリード処理が終了したら、OS820は、ホスト100
のファイルシステム110から通知されたLUおよびLU内
アドレスにあるメタデータ上のファイルのアクセス日時
を更新する(ステップ2170)。OS820は、ファイ
ルシステム110に、ネットワークインターフェース8
70またはFCインターフェース860を介して、処理の
完了を通知する(ステップ2180)。
【0140】完了通知を受けたファイルシステム110
は、ホスト100上のメタデータのキャッシュメモリを
無効化し(ステップ2190)、ステップ2130で行
ったロックを解除する(ステップ2200)。
【0141】図23は、ライトを行う場合の処理の手順
を示すフロー図である。
【0142】ライト処理は、図22のリード処理におい
て、リードをライトに置き換えた処理とほぼ同一であ
る。以下、異なる部分について説明する。
【0143】ファイルシステム110は、ライトで増加
する可能性のあるファイル使用領域のための領域の予約
をメタデータに記述する(ステップ2340)。ファイ
ルシステム110は、クライアント800のOS820
に、ファイルが格納されているLUおよびLU内アドレス
(ライトで増加する可能性のあるファイル使用領域のた
めに予約した領域を含める)と、メタデータが格納され
ているLU及びLU内アドレスとを返答する。なお、ライト
で増加する可能性のあるファイル使用領域の増加量は、
クライアント800のOS820からのライトの通知に含
まれているものとする(ステップ2360)。
【0144】返答を受けたOS820は、ライトの対象と
なるファイルが格納されているLUが存在するディスクア
レイ200に対し、FCインターフェース860を介し
て、ファイルが格納されているLU内アドレスに対するラ
イトを行い、アプリケーション840からの要求を処理
する(ステップ2370)。
【0145】このようにして、クライアント800のア
クセスを処理することにより、クライアント800およ
びホスト100は、ディスクアレイ200に格納されて
いるファイルを矛盾なく共有して使用することができ
る。なお、ホスト100自身のファイルアクセスも、ク
ライアント800によるファイルアクセスと同様に処理
される。
【0146】次に、本実施形態でのファイルの再配置に
ついて説明する。
【0147】本実施形態でのファイルの再配置に関する
処理(使用状況取得処理、使用状況収集処理、再配置対
象決定処理および再配置処理)は、第2実施形態と同様
である。ただし、アプリケーション840が要求するデ
ータのリード/ライト処理でファイルがロックされてい
る間、再配置処理は実行されない。また、図20に示す
再配置処理のステップ1920及び1930におけるフ
ァイルのキャッシュメモリのフラッシュと、ディスクア
レイへ200への書き戻しは、ファイルシステム110
がそのファイルをキャッシュメモリしているクラインア
ント800に対して指示し、これを行わせる。
【0148】本実施形態によれば、ディスクアレイ20
0に格納されているデータを共有して使用する環境にお
いても、複数のディスクアレイ200間におけるファイ
ルの物理的な再配置を、アプリケーション140、84
0に対して、再配置前後で論理的に等価となるように行
うことができる。
【0149】本実施形態においても、ホスト100のフ
ァイルシステム110が、OS120、820やアプリケ
ーション140、840からの各ファイルへのリード/
ライト要求頻度を監視し、統計情報を生成して、再配置
対象決定処理においてユーザに提示するようにしてもよ
い。
【0150】本実施形態において、クライアント800
上にマネージャ130のプログラムが格納され、そのマ
ネージャ130が、FCインターフェース860あるいは
ネットワークインターフェース870を用いて、使用状
況等の情報の収集や指示などの処理を、ホスト100の
ファイルシステム110やディスクアレイ200に要求
するようにしてもよい。
【0151】図24は、本発明が適用された計算機シス
テムの第4実施形態の構成を示す図である。
【0152】本実施形態の計算機システムは、ホスト1
00がLUプールマネージャ900及びLU管理テーブ
ル910を有する点で、第1実施形態の計算機システム
と異なる。
【0153】本実施形態によれば、LUの再配置先の選
択を容易にすることができる。
【0154】図25は、LU管理テーブル910を示す
図である。
【0155】LU管理テーブル910は、システム全体
のLUの状態に関する情報が登録されているテーブルで
ある。
【0156】LU番号3310には、各LUに一意に割
り当てられた番号が登録される。この番号は、LUプー
ルマネージャ900が各LUを管理するために使用され
る。サイズ3320には、対応するLUの容量が登録さ
れる。構成3330には、RAID構成の種別が格納さ
れる。構成3330には、LUがキャッシュメモリ33
0や単体ディスクで構成されている場合には、その情報
も格納される。
【0157】状態3340には、LUの状態を示す情報
が格納される。その種別として、「オンライン」、「オ
フライン」、「未実装」及び「障害オフライン」が設け
られている。「オンライン」は、LUが正常な状態であ
り、ホスト100からアクセス可能であることを示す。
「オフライン」は空きLU、すなわちLUは正常に存在
するが、ホスト100からはアクセス不能の状態におか
れていることを示す。「未実装」は、このLUは定義さ
れておらず、ホスト100からアクセス不能であること
を示す。「障害オフライン」は、LUに障害が発生して
ホスト100からのアクセスができないことを示す。
【0158】ディスクアレイ番号3350には、対応す
るLUが存在するディスクアレイ200を示す情報が格
納される。
【0159】パス3360には、各ディスクアレイ20
0に複数接続するFC600のどれにLUが割り当てら
れているかを示す番号が格納される。ID3370及び
LUN3380には、LUを示す番号が格納される。
【0160】ディスク性能3390には、対応するLU
が現在配置されているディスク装置210の性能を示す
指標が格納される。具体的には、図29に示すとおり、
ディスク装置210の平均シーク時間、平均回転待ち時
間及び構成から、ディスク装置210の性能が高性能、
中性能、低性能の指標に分類されて格納されている。キ
ャッシュメモリ上のLUは、超高性能に分類される。
【0161】エミュレーションタイプ3400には、デ
ィスクアレイ200がホスト100に提供する各LUの
ディスク装置としての型を示す情報が格納される。
【0162】再配置可能フラグ3410には、LUの再
配置を行う際に、LUの再配置先として使用できるか否
かを指定するためのフラグが格納される。ユーザは、こ
のフラグを用いて再配置用のLUとその他のLUを区別
することができる。ユーザはフラグのオン/オフを変更
することができる。
【0163】図25は、ディスクアレイ番号0について
のLU管理テーブルを示す図である。マネージャ130
は、すべてのディスクアレイ200についてのLU管理
テーブルを保持している。
【0164】本実施形態における再配置対象の決定は、
以下のようにして行われる。
【0165】ユーザは、マネージャ130に対して、再
配置元LUの指定及び再配置先LUとして必要とされる
条件を指定する。具体的な条件としては、性能条件や信
頼性レベル等がある。
【0166】例えば、あるLUが過度に使用され、その
LUを含むディスク装置の能力を超えて負荷がかかって
いる場合、そのLUの再配置先としてより高性能のディ
スク装置を指定すれば、LUの処理能力が増大し、計算
機システムの性能向上が期待できる。
【0167】又、重要なデータを格納しているLUが単
体ディスクや冗長なしRAID(RAID0)上に存在
する場合、再配置先としてRAID5やRAID1を指
定すれば、冗長性による耐障害性を確保できる。
【0168】マネージャ130は、LU管理テーブル9
10に登録された情報を用いて再配置先のLUを決定
し、ユーザに通知した上で、LUの再配置を行う。
【0169】図26は、本実施形態における再配置対象
決定処理の手順を示すフロー図である。本処理は、ユー
ザの指示に対応して実行される。ユーザは、マネージャ
130に対して再配置元LUのディスクアレイ番号、パ
ス、ID及びLUNを指定する。この場合、パス及びI
D等の代わりに、ディスクアレイ番号及びLU番号を指
定してもよい(ステップ2500)。
【0170】ユーザは、マネージャ130に対して、再
配置先についての要求条件として性能条件や信頼性レベ
ルを指定する(ステップ2510)。
【0171】マネージャ130は、再配置元LU、およ
び再配置先についての要求条件をLUプールマネージャ
900に通知する(ステップ2520)。LUプールマ
ネージャ900は、LU管理テーブル910内を検索し
て、要求された条件を満たすLUの有無を確認する(ス
テップ2530)。
【0172】この場合、検索条件は、「状態がオフライ
ン」かつ「サイズが再配置元LU以上」かつ「エミュレ
ーションタイプが再配置元LUと同じ」かつ「再配置可
能フラグがオン(真)すなわち可能」かつ「性能条件が
要求を満たす」かつ「信頼性レベルが要求を満たす」で
なければならない。
【0173】ステップ2540において条件を満たすL
Uが存在した場合、LUプールマネージャは、該当する
LUをマネージャ130に通知する(ステップ255
0)。マネージャ130は、通知されたLUを再配置先
LUとして決定する(ステップ2560)。
【0174】ステップ2540で条件を満たすLUが存
在しなかった場合、LUプールマネージャ900は、L
U管理テーブル910内を検索して「状態が未実装」の
LU番号3310を探す(ステップ2570)。
【0175】未実装のLU番号3310が存在しなかっ
た場合は、LUプールマネージャ900は、マネージャ
130に条件を満たすLUの利用不可を通知する(ステ
ップ2580)。通知を受けたマネージャ130は、ユ
ーザに再配置先LU決定不可を通知する(ステップ25
90)。
【0176】ステップ2570で未実装のLUが存在し
た場合は、LUプールマネージャ900は、未実装のL
U番号と再配置先LUについての条件を指定して、該当
するディスクアレイ200に再配置先LUの構築を指示
する(ステップ2600)。
【0177】この場合の再配置先LUについての条件
は、「サイズが再配置元LU以上」かつ「エミュレーシ
ョンタイプが再配置元LUと同じ」かつ「性能条件が要
求を満たす」かつ「信頼性レベルが要求を満たす」であ
る。
【0178】LUの構築を指示されたディスクアレイ2
00は、LU構築処理を行う(ステップ2610)。構
築が成功した場合は、ディスクアレイ200は、LUプ
ールマネージャ900に、構築したLUについてのディ
スクアレイ番号、パス、ID及びLUNなどを含む一連
の情報を通知する(ステップ2620)。構築が失敗し
た場合には、ディスクアレイ200は、LUプールマネ
ージャ900に構築不可の通知を行う(ステップ261
0)。
【0179】LUプールマネージャ900は、通知され
たLUの情報をLU管理テーブル910に登録し(ステ
ップ2630)、マネージャ130に通知する(ステッ
プ2550)。マネージャ130は、このLUを再配置
先LUとして決定する(ステップ2560)。
【0180】構築不可の通知を受けたLUプールマネー
ジャ900は、マネージャ130に条件を満たすLUの
利用不可を通知する(ステップ2580)。通知を受け
たマネージャ130は、ユーザに再配置先LU決定不可
を通知する(ステップ2590)。
【0181】図27は、ディスクアレイ200が行うL
U構築処理の手順を示すフロー図である。この処理は、
LUプールマネージャ900の指示を受けた時に行われ
るディスクアレイ200は、LUプールマネージャ90
0からの指示により、未実装のLU番号と再配置先LU
についての条件を受け取る(ステップ2700)。
【0182】ディスクアレイ200は、ディスク装置2
10やキャッシュメモリ330などの内部資源割り当て
状況等と受け取った条件を比較して、要求された条件の
LUが構築可能かどうかを判断する(ステップ271
0)。LUが構築可能な場合は、ディスクアレイ200
は、内部資源を割り当て、フォーマット/初期化処理を
行ってLUを構築する。ディスクアレイ200は、構築
したLUに、LUプールマネージャー900から受けと
った未実装のLUに対応するLU番号を割り当てる(ス
テップ2720)。
【0183】ディスクアレイ200は、FCインタフェ
ース260を設定し、LUにパス、ID、LUNを割り
当てる(ステップ2730)。ディスクアレイ200
は、構築したLUについての、ディスクアレイ番号、パ
ス、ID及びLUN等を含む一連の情報をLUプールマ
ネージャ900に通知する(ステップ2740)。
【0184】ステップ2710においてLUが構築不可
能だった場合は、ディスクアレイ200は、構築不可を
LUプールマネージャ900に通知する(ステップ27
50)。
【0185】再配置先LUが決定されたら、マネージャ
130は、第一の実施の形態と同様に再配置元LUと再
配置先LUについての再配置処理を行う。
【0186】図28は、再配置元LUのオフライン化処
理の手順を示すフロー図である。
【0187】マネージャ130は、第一の実施の形態で
説明した方法でコピーの進捗を取得し、コピーが終了し
た場合は、LUプールマネージャ900に再配置元LU
のオフライン化を指示する(ステップ2800)。
【0188】オフライン化の指示を受けたLUプールマ
ネージャ900は、再配置元LUのディスクアレイ20
0に、再配置元LUのオフライン化を指示する(ステッ
プ2810)。オフライン化の指示をうけたディスクア
レイ200は、FCインタフェース260を設定してL
Uにロックをかけることで、LUをオフラインにする
(ステップ2820)。ディスクアレイ200は、オフ
ライン化したことをLUプールマネージャ900に通知
する(ステップ2830)。
【0189】オフライン化の通知を受けたLUプールマ
ネージャは、LU管理テーブル910のLUの状態33
40の内容をオフラインに更新する(2840)。
【0190】ここでは、マネージャ130がコピーの進
捗情報を取得する例を説明したが、ディスクアレイ20
0がコピー終了をマネージャ130に通知してもよい。
【0191】また、マネージャ130がオフライン化を
指示する代わりにディスクアレイ200がコピー終了時
点で再配置元LUをオフライン化し、オフライン化した
ことをLUプールマネージャ900に通知してもよい。
【0192】本実施形態においては、マネージャ130
が、SCSI規格のEXTENDED COPYコマンドを用いてスイッ
チ500のコピー制御部510へのコピー指示を行う場
合について説明したが、他のコマンドを用いてもよい。
他のコマンドとは、例えば、コマンドボリュームへのラ
イトコマンド等である。また、図15に示すように、デ
ィスクアレイ200がコピー制御部510を有し、マネ
ージャ130がディスクアレイ200のコピー制御部5
10に、コピー指示を行って、ディスクアレイ200が
コピー処理を行うようにしてもよい。
【0193】本実施形態では、再配置先LUとして要求
する条件などの情報はユーザが指定しているとしたが、
マネージャ130が自動的に判断して指定してもよい。
【0194】本実施形態では、LUプールマネージャ9
00とマネージャ130が同じホスト100に存在する
としたが、LUプールマネージャ900がリモートコン
ピュータ400といった、マネージャ130とは異なる
コンピュータに存在してもよい。この場合、LUプール
マネージャ900とマネージャ130は、FC600や
ネットワーク700を介してSCSIやSNMPや他の
プロトコルやコマンド体系で指示や通知を行う。
【0195】本実施形態によれば、LUの再配置の処理
において、再配置先のLUの管理や選択を容易にしてユ
ーザの負荷を削減し、計算機システムの管理を容易にす
ることができる。
【0196】図29は、本発明を適用した計算機システ
ムの第5実施形態を示す図である。本実施形態の計算機
システムは、LU領域範囲テーブル192に新たな項目
を付加したLU領域範囲テーブル193を用いて、クラ
イアント800からのリード/ライト要求に基づき、ホ
スト100がファイルをリード/ライトする。そして、
クライアント800との間でネットワーク700を介し
てデータを転送する処理を行う点が、第3実施形態の計
算機システムと異なる。ネットワーク700を経由した
ファイル共有のためのプロトコルとしては、Netwo
rk File System(NFS)やCommo
n Internet File System(CI
FS)が広く用いられている。これらのプロトコルや広
く普及しているネットワーク700を用いることによ
り、容易にファイル共有環境を実現することができる。
本実施形態においても、NFS又はCIFSを使用する
ことを考える。
【0197】図30は、LU領域範囲テーブル193を
示す図である。LU領域範囲テーブル193には、LU
領域に対するアクセスがネットワークを使用するか否か
に関する情報が格納される。
【0198】使用種別3510には、LU領域が、リー
ド/ライトの処理が第3実施形態のようにFC600を
介して行われるLU領域であるか、本実施形態で説明す
るようにネットワーク700を介してリード/ライトの
処理が行われるLU領域であるかを示す情報が格納され
る。
【0199】使用種別3510には、LU領域が、第1
実施形態のようにLUを再配置する構成および方法に用
いる領域(この場合のリード/ライト要求はFC600
を経由する)であるか、LUへのリード/ライトの処理
が、ネットワーク700を介して行う領域であるかの情
報を格納することができる。使用種別3510には、未
使用領域の情報を格納することもできる。その他、領域
内アドレス、ディスクアレイ番号、ID、LUN、LU
内アドレスは、第3実施形態で説明したものと同様なの
で、説明を省略する。
【0200】LU領域範囲テーブル193を用いてLU
を集中して管理することで、ファイルシステム110
は、LUを少なくとも使用種別毎に区別された、複数の
領域として管理することができる。
【0201】LU領域範囲テーブル193が設定される
ことによって、ホスト100は、クライアント800か
らの要求が、第3実施形態で説明した方法でのアクセス
か、ネットワークを介した形でのアクセスかを、要求で
用いられるプロトコルなどで区別する。ホスト100
は、この種別に応じて、LU領域を使用種別3510毎
に区別して扱う。
【0202】ホスト100は、第3実施形態の方法でア
クセスされるファイルおよび領域と、本実施形態の方法
でアクセスされるファイルおよび領域を区別して処理す
る。したがって、同一のファイルおよび領域へアクセス
する方法が混在することはない。
【0203】ホスト100は、アクセス可能なファイル
の検索においても、同様の区別を行う。つまり、同一の
ディスクアレイ200に存在する各ファイルに、クライ
アント800からのアクセス要求があった場合、クライ
アント800からの使用種別を識別することにより、ク
ライアント800の使用種別とは異なる他の使用種別の
ファイルをクライアント800に対して返答しない。し
たがって、クライアント800には、自己が使用するア
クセス方法でのみアクセス可能なファイルだけが通知さ
れる。このことにより、本システムにおいては、共有フ
ァイルの管理を容易に行うことができる。
【0204】さらに、第1実施形態のように、LUを再
配置する構成および方法に用いる領域(リード/ライト
はFC600経由)と、LUへのリード/ライトをホス
ト100およびネットワーク700を介して行う領域と
の区別を行うことによって、上述したような効果をこれ
ら全ての使用種別に対して得ることができる。又、ユー
ザは、ホスト100またはリモートコンピュータ400
を介して、LU領域範囲テーブル193を自由に設定す
ることができる。
【0205】本実施形態では、NFSやCIFSのよう
なファイル共有プロトコルをネットワーク700経由で
使用し、ホスト100とクライアント800間のデータ
転送をネットワーク700経由で行うとしたが、ネット
ワーク700の代わりに、FC800経由で行う処理も
考えられる。更に、クライアント800が行う各LUへ
のリード/ライト要求を、ホスト100およびネットワ
ーク700を介して行う処理も考えられる。この場合、
ホスト100は、クライアント800が要求するリード
/ライト対象領域を、LU領域範囲テーブル192を用
いて求める。ホスト100は、対象となるデータをリー
ドしてクライアント800にネットワーク700経由で
転送する。あるいは、ホスト100は、クライアント8
00からデータをネットワーク700経由で受領してラ
イトする。
【0206】図31は、クライアント800のアプリケ
ーション840が、ディスクアレイ200に格納されて
いるファイルに対してリードを行う場合における、ホス
ト100の処理の手順を示すフロー図である。
【0207】第3実施形態と同様に、リード通知をうけ
たホスト100のファイルシステム110は、LU領域
範囲テーブル193とメタデータを参照することで、フ
ァイルの格納されているLU及びLU内領域を求める
(ステップ2900)。ファイルシステム110は、他
のライト要求に対してリード対象となるファイルをロッ
クする(ステップ2910)。ファイルシステム110
は、ファイル内のデータをリードして(ステップ292
0)、クライアント800にネットワーク700を介し
てリードした内容を転送する(ステップ2930)。フ
ァイルシステム110は、メタデータ上のファイルアク
セス日時を更新する(ステップ2940)。ファイルシ
ステム110は、ファイルのロックを解除し(ステップ
2950)、リード処理の完了をクライアント800に
通知する(ステップ2960)。
【0208】図32は、アプリケーション840が、ラ
イトを行う場合の処理の手順を示すフロー図である。
【0209】ライト通知を受けたホスト100は、ネッ
トワーク700経由でクライアント800からライトデ
ータを受け取る(ステップ3000)。ホスト100
は、LU領域範囲テーブル193とメタデータを参照す
ることで、ファイルの格納されているLUとLU内領域
を求める(ステップ3010)。ホスト100は、ファ
イルをロックし(ステップ3020)、ファイルにデー
タをライトする。このとき、必要ならばメタデータを更
新してファイル使用領域の追加を行う(ステップ303
0)。
【0210】ホスト100は、メタデータ上のファイル
更新日時とアクセス日時を更新する(ステップ304
0)。ホスト100は、ロックを解除し(ステップ30
50)、ライト完了をクライアント800に通知する
(ステップ3060)。
【0211】図33は、クライアント800のアプリケ
ーション840またはOS820が、アクセス可能なフ
ァイルの存在についてホスト100に問い合わせた場合
の処理の手順を示すフロー図である。
【0212】アプリケーション840またはOS820
自身の要求があった時、OS820は、ネットワーク7
00を介してホスト100にアクセス可能なファイルの
存在を問い合わせる(ステップ3100)。
【0213】通知をうけたホスト100のファイルシス
テム110は、アクセス可能なファイルを、LU領域範
囲テーブル193とメタデータを参照して求める(ステ
ップ3110)。ファイルシステム110は、各ファイ
ルのファイル名などの情報をクライアント800に通知
する(ステップ3120)。
【0214】本実施形態では、クライアント800およ
びホスト100は、ディスクアレイ200に格納されて
いるファイルをホスト100経由で共有して使用するこ
とができる。データの再配置の方法等は第3実施形態と
同様である。ただし、再配置処理は各使用種別の領域内
で行われる。
【0215】本実施形態では、ディスクアレイ200に
格納されているデータを共有して使用する環境において
も、アプリケーション140およびアプリケーション8
40が関与することなく、複数のディスクアレイ200
間でのファイルの物理的再配置を行うことができる。
【0216】本発明は、各実施形態に限定されるもので
はなく、その要旨の範囲内で数々の変形が可能である。
【0217】たとえば、図1、図15および図21に示
すように、マネージャ130を、ネットワークインタフ
ェース470とFCインタフェース460とを有するリモ
ートコンピュータ400上のプログラムとして、ホスト
100の外部に配置してもよい。ホスト100外部のマ
ネージャ130がFC600あるいはネットワーク700
経由で情報の収集や指示を行い、各実施形態と同様の処
理を行って、複数のディスクアレイ200間におけるLU
の再配置によるデータの適正配置を、アプリケーション
140に対して透過的に行うことができる。
【0218】また、第1実施形態において、第3実施形
態と同様に、ファイルの共有等を行うようにしてもよ
い。この場合も、記第1実施形態と同様に、複数のディ
スクアレイ200間でのデータの物理的再配置を、アプ
リケーション140、840に対し、再配置前後で論理
的に等価となるように透過的に行うことができる。
【0219】
【発明の効果】以上説明したように、本発明によれば、
ストレージサブシステム間におけるデータの再配置を容
易に行うことが出来る。また、本発明によれば、ホスト
コンピュータが適正配置の決定に必要な情報を複数のス
トレージサブシステムから取得することができる。ま
た、異なるストレージサブシステム間におけるデータの
再配置を、アプリケーションにとってのデータ位置が、
再配置の前後で変化しないように行うことができる。さ
らに、異なるストレージサブシステム間におけるファイ
ルを対象とするデータの再配置を行うことができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態が適用された計算機シス
テムの構成を示す図である。
【図2】本発明の第1実施形態でのリード/ライト処理
および使用状況取得処理の手順を示すフロー図である。
【図3】本発明の第1実施形態で用いる論理/物理対応
情報を示す図である。
【図4】本発明の第1実施形態で用いる論理ボリューム
使用状況を示す図である。
【図5】本発明の第1実施形態での使用状況収集処理の
手順を示すフロー図である。
【図6】本発明の第1実施形態で用いる論理ボリューム
情報のパラメータを示す図である。
【図7】本発明の第1実施形態で用いる論理ボリューム
情報を示す図である。
【図8】本発明の第1実施形態での再配置対象決定処理
の手順を示すフロー図である。
【図9】本発明の第1実施形態での再配置処理の手順を
示すフロー図である。
【図10】本発明の第1実施形態で用いるLU論理位置名
テーブルを示す図である。
【図11】本発明の第1実施形態で用いるLU論理位置名
テーブルを示す図である。
【図12】本発明の第1実施形態でのコピー処理の手順
を示すフロー図である。
【図13】本発明の第1実施形態で用いるコピー領域管
理テーブルを示す図である。
【図14】本発明の第1実施形態での、図16に示す処
理によるコピー中における、再配置先LUへのリード/ラ
イトコマンドに対する処理の手順を示すフロー図であ
る。
【図15】本発明の第2実施形態が適用された計算機シ
ステムの構成を示す図である。
【図16】本発明の第2実施形態で用いるLU領域範囲テ
ーブルを示す図である。
【図17】本発明の第2実施形態でのリード/ライト処
理の手順を示すフロー図である。
【図18】本発明の第2実施形態で用いるメタデータを
示す図である。
【図19】本発明の第2実施形態での再配置対象決定処
理の手順を示すフロー図である。
【図20】本発明の第2実施形態での再配置処理の手順
を示すフロー図である。
【図21】本発明の第3実施形態が適用された計算機シ
ステムの構成を示す図である。
【図22】本発明の第3実施形態において、クライアン
トのアプリケーションがファイルのリードを行う際の処
理の手順を示すフロー図である。
【図23】本発明の第3実施形態において、クライアン
トのアプリケーションがファイルのライトを行う際の処
理の手順を示すフロー図である。
【図24】本発明の第4実施形態が適用された計算機シ
ステムの構成を示す図である。
【図25】本発明の第4実施形態でのLU管理テーブル
910を示す図である。
【図26】本発明の第4実施形態での再配置対象決定処
理の手順を示すフロー図である。
【図27】本発明の第4実施形態でのLU構築処理の手
順を示すフロー図である。
【図28】本発明の第4実施形態での再配置元LUオフ
ライン化処理の手順を示すフロー図である。
【図29】本発明の第5実施形態が適用された計算機シ
ステムの構成を示す図である。
【図30】本発明の第5実施形態でのLU領域範囲テー
ブル193を示す図である。
【図31】本発明の第5実施形態でのクライアント80
0のアプリケーション840がファイルのリードを行う
際の処理の手順を示したフロー図である。
【図32】本発明の第5実施形態でのクライアント80
0のアプリケーション840がファイルのライトを行う
際の処理の手順を示すフロー図である。
【図33】本発明の第5実施形態でのアクセス可能ファ
イル応答処理の手順を示すフロー図である。
【符号の説明】
100…ホスト、110…ファイルシステム、120、
820…OS、130…マネージャ、140、840…ア
プリケーション、160、260、460、860…FC
インタフェース、170、270、470、870…ネ
ットワークインタフェース、190…ローカルディス
ク、191…LU論理位置名テーブル、192…LU領域範
囲テーブル、200…ディスクアレイ、210…ディス
ク装置、220…パリティグループ、300…制御部、
310…CPU、320…メモリ、321…論理/物理対応
情報、322…論理ボリューム使用状況、323…コピ
ー領域管理テーブル、330…キャッシュメモリ、40
0…リモートコンピュータ、500…スイッチ、510
…コピー制御部、600…Fibre Channel(FC)、70
0…ネットワーク、800…クライアント。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 江口 賢哲 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 荒井 弘治 神奈川県小田原市国府津2880番地 株式会 社日立製作所ストレージシステム事業部内 Fターム(参考) 5B065 CA30 CH18

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】計算機と、前記計算機に接続される複数の
    ストレージサブシステムとを有し、 前記複数のストレージサブシステムの各々は、 該ストレージサブシステムが有する記憶領域の各々につ
    いて、前記記憶領域の使用状況を取得する取得手段を有
    し、 前記計算機は、 前記複数のストレージサブシステムの各々から、前記取
    得手段によって取得された記憶領域各々の使用状況を収
    集する収集手段を有することを特徴とする計算機システ
    ム。
  2. 【請求項2】前記記憶領域は、ディスク装置を用いて形
    成される論理的な記憶領域であることを特徴とする請求
    項1記載の計算機システム。
  3. 【請求項3】前記複数のストレージサブシステムの各々
    は、前記計算機の指示にしたがって、他の前記複数のス
    トレージサブシステムのうちのいずれかからデータの移
    動を行う移動手段と、前記移動手段が完了したことを前
    記計算機に通知する手段とを有し、 前記計算機は、 前記データの論理的な位置と、前記ストレージサブシス
    テムにおいて前記データが格納される記憶領域との対応
    を記憶する対応記憶部と、 前記通知手段によって前記ストレージサブシステム間で
    のデータの移動が完了した通知を受け取った場合に、前
    記対応記憶部を更新する更新手段とを有することを特徴
    とする請求項2記載の計算機システム。
  4. 【請求項4】前記計算機は、前記複数のストレージサブ
    システム各々から収集された各々の前記記憶領域の使用
    状況を表示する表示部と、 該計算機システムの使用者に、前記表示部に表示された
    各々の前記記憶領域のいずれかを選択させる選択手段と
    を有し、 前記指示には、前記選択手段によって選択された記憶領
    域を指定する情報が含まれていることを特徴とする請求
    項3記載の計算機システム。
  5. 【請求項5】前記計算機は、前記複数のストレージサブ
    システム各々から収集された各々の前記記憶領域の使用
    状況に基づいて、所定の条件を満たす前記記憶領域を選
    択する手段を有し、前記指示には、前記選択手段によっ
    て選択された記憶領域を指定する情報が含まれているこ
    とを特徴とする請求項3記載の計算機システム。
  6. 【請求項6】前記所定の条件とは、前記記憶領域へのア
    クセスの頻度が一定値以上であるという条件であること
    を特徴とする請求項5記載の計算機システム。
  7. 【請求項7】前記計算機は、前記データと前記計算機で
    実行されるファイルシステムが管理するファイルとの対
    応関係を保持するファイル対応関係記録部と、 前記ファイル対応関係記録部を使用して前記ファイルご
    とに前記記憶領域の使用状況を収集する手段とを有し、 前記複数のストレージサブシステムの各々は、前記指示
    にしたがって、指定された前記ファイルを他の前記複数
    のストレージサブシステムのうちのいずれかから移動す
    る手段と前記移動する手段が完了したことを前記計算機
    に通知する手段を有することを特徴とする請求項3記載
    の計算機システム。
  8. 【請求項8】前記計算機は、前記通知する手段によっ
    て、ストレージサブシステム間のファイルの移動が完了
    したことを通知されると、前記ファイル対応関係記録部
    を更新する手段を有することを特徴とする請求項7記載
    の計算機システム。
  9. 【請求項9】前記使用状況には、データを読み出す際に
    前記記憶領域が占有される時間が含まれることを特徴と
    する、請求項1〜8記載の計算機システム。
  10. 【請求項10】ホストコンピュータと接続される接続部
    と、複数の記憶装置と、 前記複数の記憶装置を制御する制御部と、前記複数の記
    憶装置の使用状況を示す情報が格納される記憶部とを有
    し、 前記制御部は、前記接続部を介して、前記複数の記憶装
    置の使用状況を示す情報の転送を要求する命令を受け取
    った場合には、前記記憶部から前記複数の記憶装置の使
    用状況を示す情報を読み出し、前記ホストコンピュータ
    に転送することを特徴とするストレージサブシステム。
  11. 【請求項11】複数のストレージサブシステムと接続さ
    れる接続部と、前記複数のストレージサブシステムから
    取得した前記複数のストレージサブシステム各々が有す
    る記憶領域の使用状況が格納される記憶部と、中央演算
    処理装置とを有し、 前記中央演算処理装置は、前記記憶部に格納された前記
    複数のストレージサブシステムの使用状況の情報に基づ
    いて、移動すべきデータを決定する決定手段と、 前記決定手段によって決定されたデータの情報を前記接
    続部を介して、移動先となる前記複数のストレージサブ
    システムのうちのいずれか一つに通知する通知手段とを
    有することを特徴とする計算機。
  12. 【請求項12】複数のストレージサブシステム間におい
    てデータを移動する方法であって、前記複数のストレー
    ジサブシステムにおいて収集された情報を前記複数のス
    トレージシステムに接続される計算機で収集し、 移動対象となるデータを前記計算機で決定し、前記決定
    されたデータの位置を、移動先となる前記複数のストレ
    ージサブシステムのうちの一つに通知し、 通知を受けたストレージサブシステムで前記通知された
    データの移動を行うことを特徴とするデータの移動方
    法。
  13. 【請求項13】複数のストレージサブシステム間におい
    てデータを移動する方法であって、前記複数のストレー
    ジサブシステムにおいて収集された情報を前記複数のス
    トレージシステムに接続される計算機で収集し、 移動対象となるデータを前記計算機で決定し、前記決定
    されたデータの位置を、移動先となる前記複数のストレ
    ージサブシステムのうちの一つに通知し、 通知を受けたストレージサブシステムで前記通知された
    データの移動を行うことを特徴とするデータの移動方
    法。
  14. 【請求項14】複数のストレージサブシステム間におい
    てデータを移動するコンピュータプログラムであって、
    前記複数のストレージサブシステムにおいて収集された
    情報を前記複数のストレージシステムに接続される計算
    機で収集し、 移動対象となるデータを前記計算機で決定し、前記決定
    されたデータの位置を、移動先となる前記複数のストレ
    ージサブシステムのうちの一つに通知するプログラム
    と、 通知を受けたストレージサブシステムで前記通知された
    データの移動を行うプログラムとから構成されることを
    特徴とするコンピュータプログラム。
JP2001053458A 2000-07-06 2001-02-28 計算機システム Expired - Fee Related JP4115093B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001053458A JP4115093B2 (ja) 2000-07-06 2001-02-28 計算機システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000205510 2000-07-06
JP2000-205510 2000-07-06
JP2001053458A JP4115093B2 (ja) 2000-07-06 2001-02-28 計算機システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008063185A Division JP4862006B2 (ja) 2000-07-06 2008-03-12 計算機システム

Publications (2)

Publication Number Publication Date
JP2002082775A true JP2002082775A (ja) 2002-03-22
JP4115093B2 JP4115093B2 (ja) 2008-07-09

Family

ID=26595536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001053458A Expired - Fee Related JP4115093B2 (ja) 2000-07-06 2001-02-28 計算機システム

Country Status (1)

Country Link
JP (1) JP4115093B2 (ja)

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1348860A2 (en) 2002-03-25 2003-10-01 Toyoda Koki Kabushiki Kaisha Crankshaft and engine
JP2004133885A (ja) * 2002-06-12 2004-04-30 Hitachi Ltd 複製ボリュームを管理するための方法と装置
JP2004252934A (ja) * 2002-06-12 2004-09-09 Hitachi Ltd 複製ボリュームを管理するための方法と装置法
JP2005215715A (ja) * 2004-01-27 2005-08-11 Hitachi Ltd 動的負荷分散方法
JP2005234834A (ja) * 2004-02-19 2005-09-02 Hitachi Ltd 論理ボリュームの再配置方法
WO2005115016A1 (ja) * 2004-04-26 2005-12-01 Olympus Corporation 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法
JP2006012156A (ja) * 2004-06-29 2006-01-12 Hitachi Ltd ボリューム活動に従ってストレージポリシーをコントロールするための方法
JP2006505069A (ja) * 2002-11-01 2006-02-09 ブルアーク ユーケー リミテッド ハードウェアベースのファイルシステムのための装置および方法
JP2006079432A (ja) * 2004-09-10 2006-03-23 Hitachi Ltd ストレージ装置およびそのボリューム再配置方法
US7089347B2 (en) 2003-03-31 2006-08-08 Hitachi, Ltd. Computer system for managing performances of storage apparatus and performance management method of the computer system
US7127445B2 (en) 2002-06-06 2006-10-24 Hitachi, Ltd. Data mapping management apparatus
JP2007018455A (ja) * 2005-07-11 2007-01-25 Hitachi Ltd データマイグレーション方法又はデータマイグレーションシステム
JP2007048323A (ja) * 2002-11-25 2007-02-22 Hitachi Ltd 仮想化制御装置およびデータ移行制御方法
JP2007079774A (ja) * 2005-09-13 2007-03-29 Hitachi Ltd ファイルシステムの構築方法
JP2007115264A (ja) * 2003-09-17 2007-05-10 Hitachi Ltd 記憶システム
JP2007226596A (ja) * 2006-02-24 2007-09-06 Hitachi Ltd 記憶制御装置及び記憶制御装置を用いたデータマイグレーション方法
JP2007257646A (ja) * 2007-04-06 2007-10-04 Hitachi Ltd ストレージ集中管理方法
JP2008033517A (ja) * 2006-07-27 2008-02-14 Hitachi Ltd ファイル格納制御装置及び方法
JP2008033911A (ja) * 2006-07-27 2008-02-14 Hitachi Ltd 記憶ボリューム間でデータを移行する方法および装置
US7337292B2 (en) 2002-05-27 2008-02-26 Hitachi, Ltd. Method and apparatus for data relocation between storage subsystems
JP2008047156A (ja) * 2004-08-30 2008-02-28 Hitachi Ltd ストレージシステム及びデータ再配置制御装置
JP2008521140A (ja) * 2004-11-19 2008-06-19 ネットワーク・アプライアンス・インコーポレイテッド 共有バックエンドストレージを備えた複数のストレージシステムにわたりユーザワークロードのバランスをリアルタイムにとるシステム、及び方法
JP2008171420A (ja) * 2002-04-26 2008-07-24 Hitachi Ltd 記憶装置システムの制御方法および記憶制御装置
US7506120B2 (en) 2003-12-17 2009-03-17 Hitachi, Ltd. Data transfer virtualization system
US7509331B2 (en) 2003-03-28 2009-03-24 Hitachi, Ltd. Method and apparatus for managing faults in storage system having job management function
JP2009098941A (ja) * 2007-10-17 2009-05-07 Internatl Business Mach Corp <Ibm> ストレージ・デバイス間のデータ複製を制御する制御装置、方法、プログラム及びストレージ・システム
US7590818B2 (en) 2003-10-06 2009-09-15 Hitachi, Ltd. Storage system having a plurality of virtualization apparatuses that allocate a storage area, form a plurality of virtual volumes, and process input-output from a host processor
US7689573B2 (en) 2002-12-11 2010-03-30 Hitachi, Ltd. Prefetch appliance server
JP2011054180A (ja) * 2003-08-14 2011-03-17 Compellent Technologies 仮想ディスク・ドライブのシステムおよび方法
JP2011221570A (ja) * 2010-04-02 2011-11-04 Nec Corp データ移行システム、及び、データ移行方法
JP2012133436A (ja) * 2010-12-20 2012-07-12 Nec Corp データ記憶装置、データ移行方法、及び、プログラム
KR101189766B1 (ko) * 2008-12-22 2012-10-10 한국전자통신연구원 데이터 서버로 분산 수집된 접근 횟수 기반의 핫 데이터 관리 방법
US8443160B2 (en) 2010-08-06 2013-05-14 Hitachi, Ltd. Computer system and data migration method
US8560631B2 (en) 2002-06-03 2013-10-15 Hitachi, Ltd. Storage system
US9292211B2 (en) 2011-03-02 2016-03-22 Hitachi, Ltd. Computer system and data migration method
US9489150B2 (en) 2003-08-14 2016-11-08 Dell International L.L.C. System and method for transferring data between different raid data storage types for current data and replay data
JP2017174219A (ja) * 2016-03-24 2017-09-28 日本電気株式会社 情報処理システム、ストレージ装置、情報処理方法及びプログラム

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1348860A2 (en) 2002-03-25 2003-10-01 Toyoda Koki Kabushiki Kaisha Crankshaft and engine
JP2008171420A (ja) * 2002-04-26 2008-07-24 Hitachi Ltd 記憶装置システムの制御方法および記憶制御装置
US7337292B2 (en) 2002-05-27 2008-02-26 Hitachi, Ltd. Method and apparatus for data relocation between storage subsystems
US8560631B2 (en) 2002-06-03 2013-10-15 Hitachi, Ltd. Storage system
US7127445B2 (en) 2002-06-06 2006-10-24 Hitachi, Ltd. Data mapping management apparatus
JP2004133885A (ja) * 2002-06-12 2004-04-30 Hitachi Ltd 複製ボリュームを管理するための方法と装置
JP2004252934A (ja) * 2002-06-12 2004-09-09 Hitachi Ltd 複製ボリュームを管理するための方法と装置法
JP4508554B2 (ja) * 2002-06-12 2010-07-21 株式会社日立製作所 複製ボリュームを管理するための方法と装置
JP2006505069A (ja) * 2002-11-01 2006-02-09 ブルアーク ユーケー リミテッド ハードウェアベースのファイルシステムのための装置および方法
JP2007048323A (ja) * 2002-11-25 2007-02-22 Hitachi Ltd 仮想化制御装置およびデータ移行制御方法
JP4509089B2 (ja) * 2002-11-25 2010-07-21 株式会社日立製作所 仮想化制御装置及びデータ移行制御方法
US7689573B2 (en) 2002-12-11 2010-03-30 Hitachi, Ltd. Prefetch appliance server
US7509331B2 (en) 2003-03-28 2009-03-24 Hitachi, Ltd. Method and apparatus for managing faults in storage system having job management function
US7552138B2 (en) 2003-03-28 2009-06-23 Hitachi, Ltd. Method and apparatus for managing faults in storage system having job management function
US7089347B2 (en) 2003-03-31 2006-08-08 Hitachi, Ltd. Computer system for managing performances of storage apparatus and performance management method of the computer system
US7694070B2 (en) 2003-03-31 2010-04-06 Hitachi, Ltd. Computer system for managing performances of storage apparatus and performance management method of the computer system
US10067712B2 (en) 2003-08-14 2018-09-04 Dell International L.L.C. Virtual disk drive system and method
JP2011054180A (ja) * 2003-08-14 2011-03-17 Compellent Technologies 仮想ディスク・ドライブのシステムおよび方法
US9047216B2 (en) 2003-08-14 2015-06-02 Compellent Technologies Virtual disk drive system and method
US9436390B2 (en) 2003-08-14 2016-09-06 Dell International L.L.C. Virtual disk drive system and method
US8555108B2 (en) 2003-08-14 2013-10-08 Compellent Technologies Virtual disk drive system and method
US9021295B2 (en) 2003-08-14 2015-04-28 Compellent Technologies Virtual disk drive system and method
US9489150B2 (en) 2003-08-14 2016-11-08 Dell International L.L.C. System and method for transferring data between different raid data storage types for current data and replay data
US8560880B2 (en) 2003-08-14 2013-10-15 Compellent Technologies Virtual disk drive system and method
JP2007115264A (ja) * 2003-09-17 2007-05-10 Hitachi Ltd 記憶システム
JP4486632B2 (ja) * 2003-09-17 2010-06-23 株式会社日立製作所 記憶システム
US7590818B2 (en) 2003-10-06 2009-09-15 Hitachi, Ltd. Storage system having a plurality of virtualization apparatuses that allocate a storage area, form a plurality of virtual volumes, and process input-output from a host processor
US7506120B2 (en) 2003-12-17 2009-03-17 Hitachi, Ltd. Data transfer virtualization system
JP4547162B2 (ja) * 2004-01-27 2010-09-22 株式会社日立製作所 動的負荷分散方法
JP2005215715A (ja) * 2004-01-27 2005-08-11 Hitachi Ltd 動的負荷分散方法
US7917720B2 (en) 2004-02-19 2011-03-29 Hitachi, Ltd. Method for rearranging a logical volume
US8151078B2 (en) 2004-02-19 2012-04-03 Hitachi, Ltd. Method for rearranging a logical volume in a network connected storage system
JP2005234834A (ja) * 2004-02-19 2005-09-02 Hitachi Ltd 論理ボリュームの再配置方法
US8155431B2 (en) 2004-04-26 2012-04-10 Olympus Corporation Image file processing apparatus which generates an image file to include stereo image data, collateral data related to the stereo image data, information of a date and time at which the collateral data is updated, and information of a date and time at which the image file is generated or updated, and corresponding image file processing method
US8693764B2 (en) 2004-04-26 2014-04-08 Olympus Corporation Image file processing apparatus which generates an image file to include stereo image data and collateral data related to the stereo image data, and information related to an image size of the stereo image data, and corresponding image file processing method
WO2005115016A1 (ja) * 2004-04-26 2005-12-01 Olympus Corporation 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法
JP4723925B2 (ja) * 2004-06-29 2011-07-13 株式会社日立製作所 ボリューム活動に従ってストレージポリシーをコントロールするための方法
JP2006012156A (ja) * 2004-06-29 2006-01-12 Hitachi Ltd ボリューム活動に従ってストレージポリシーをコントロールするための方法
JP2008047156A (ja) * 2004-08-30 2008-02-28 Hitachi Ltd ストレージシステム及びデータ再配置制御装置
JP4549787B2 (ja) * 2004-09-10 2010-09-22 株式会社日立製作所 ストレージ装置
JP2006079432A (ja) * 2004-09-10 2006-03-23 Hitachi Ltd ストレージ装置およびそのボリューム再配置方法
JP4815449B2 (ja) * 2004-11-19 2011-11-16 ネットアップ,インコーポレイテッド 共有バックエンドストレージを備えた複数のストレージシステムにわたりユーザワークロードのバランスをリアルタイムにとるシステム、及び方法
JP2008521140A (ja) * 2004-11-19 2008-06-19 ネットワーク・アプライアンス・インコーポレイテッド 共有バックエンドストレージを備えた複数のストレージシステムにわたりユーザワークロードのバランスをリアルタイムにとるシステム、及び方法
JP2007018455A (ja) * 2005-07-11 2007-01-25 Hitachi Ltd データマイグレーション方法又はデータマイグレーションシステム
JP2007079774A (ja) * 2005-09-13 2007-03-29 Hitachi Ltd ファイルシステムの構築方法
JP4704161B2 (ja) * 2005-09-13 2011-06-15 株式会社日立製作所 ファイルシステムの構築方法
JP2007226596A (ja) * 2006-02-24 2007-09-06 Hitachi Ltd 記憶制御装置及び記憶制御装置を用いたデータマイグレーション方法
JP2008033911A (ja) * 2006-07-27 2008-02-14 Hitachi Ltd 記憶ボリューム間でデータを移行する方法および装置
JP2008033517A (ja) * 2006-07-27 2008-02-14 Hitachi Ltd ファイル格納制御装置及び方法
JP2007257646A (ja) * 2007-04-06 2007-10-04 Hitachi Ltd ストレージ集中管理方法
JP4552957B2 (ja) * 2007-04-06 2010-09-29 株式会社日立製作所 ストレージ集中管理方法
JP2009098941A (ja) * 2007-10-17 2009-05-07 Internatl Business Mach Corp <Ibm> ストレージ・デバイス間のデータ複製を制御する制御装置、方法、プログラム及びストレージ・システム
KR101189766B1 (ko) * 2008-12-22 2012-10-10 한국전자통신연구원 데이터 서버로 분산 수집된 접근 횟수 기반의 핫 데이터 관리 방법
JP2011221570A (ja) * 2010-04-02 2011-11-04 Nec Corp データ移行システム、及び、データ移行方法
US8892840B2 (en) 2010-08-06 2014-11-18 Hitachi, Ltd. Computer system and data migration method
US8443160B2 (en) 2010-08-06 2013-05-14 Hitachi, Ltd. Computer system and data migration method
JP2012133436A (ja) * 2010-12-20 2012-07-12 Nec Corp データ記憶装置、データ移行方法、及び、プログラム
US9292211B2 (en) 2011-03-02 2016-03-22 Hitachi, Ltd. Computer system and data migration method
JP2017174219A (ja) * 2016-03-24 2017-09-28 日本電気株式会社 情報処理システム、ストレージ装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP4115093B2 (ja) 2008-07-09

Similar Documents

Publication Publication Date Title
JP4862006B2 (ja) 計算機システム
JP4115093B2 (ja) 計算機システム
US8230194B2 (en) Storage device
US7941632B2 (en) Storage virtualization system with dynamic allocation of physical storage space
US7069380B2 (en) File access method in storage-device system, and programs for the file access
KR100439675B1 (ko) 대용량 공유 저장장치를 위한 효율적인 스냅샷 수행방법
US8204858B2 (en) Snapshot reset method and apparatus
US6895483B2 (en) Method and apparatus for data relocation between storage subsystems
JP2004110218A (ja) Dbms向け仮想ボリューム作成・管理方法
US20090193207A1 (en) Computer system, remote copy method and first computer
JP2007102760A (ja) ストレージエリアネットワークにおけるボリュームの自動割り当て
US11409454B1 (en) Container ownership protocol for independent node flushing
US7882086B1 (en) Method and system for portset data management
JP4409521B2 (ja) 記憶装置
US11853574B1 (en) Container flush ownership assignment
US20230325324A1 (en) Caching techniques
US20040255833A1 (en) Method, system, and article of manufacture for selecting replication volumes
JP2022070669A (ja) データベースシステム、及びクエリ実行方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040914

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070410

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070604

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070604

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080229

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080415

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120425

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120425

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130425

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees