JP2002082775A - 計算機システム - Google Patents
計算機システムInfo
- Publication number
- JP2002082775A JP2002082775A JP2001053458A JP2001053458A JP2002082775A JP 2002082775 A JP2002082775 A JP 2002082775A JP 2001053458 A JP2001053458 A JP 2001053458A JP 2001053458 A JP2001053458 A JP 2001053458A JP 2002082775 A JP2002082775 A JP 2002082775A
- Authority
- JP
- Japan
- Prior art keywords
- storage
- data
- computer
- file
- host
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
再配置を適正に行えるようにする。 【解決手段】ディスクアレイ200は、ホスト100か
らのリード/ライトに対してディスク装置210の使用
状況を取得する。ホスト100は、複数のディスクアレ
イ200から使用状況を収集して、再配置対象LUに格納
されているデータの再配置先のLUを決定する。そして、
アプリケーションにとってのデータ位置であるデータの
論理位置名とLUとの対応を決定するLU論理位置名テーブ
ル191を変更する。また、ディスクアレイ200間
で、再配置対象となったLUに格納されているデータを、
再配置先のLUに移動することで、異なるディスクアレイ
200間でのデータの再配置を行う。
Description
れたデータを再配置する技術に関し、特に、複数の記憶
装置を有する計算機システムでのデータの再配置に好適
な技術に関する。
ブシステム内に記憶されたデータを再配置する技術とし
て、特開平9-274544号公報記載のディスクアレイシステ
ムがある。ここで、ストレージサブシステムとは、複数
の記憶装置から構成される記憶装置システムのことを言
う。
スク装置をアレイ状に配置し、各ディスク装置を並列に
動作させることで、各ディスク装置に分割格納されるデ
ータのリード/ライトを高速に行うシステムのことであ
る。D.A.Patterson, G.Gibson, and R.H.Kat
s,”A Case for Redundant Arrays of Inexpensive Di
sks (RAID)”(in Proc. ACM SIGMOD, pp.109-11
6, June 1988)に記載されているように、冗長性を付
加したディスクアレイシステムには、その冗長構成に応
じてレベル1からレベル5の種別が与えられている。こ
れらの種別に加えて、冗長性無しのディスクアレイシス
テムをレベル0と呼ぶこともある。
コスト、ディスクアレイシステムの性能や特性等は、デ
ィスクアレイシステムのレベルによって異なる。そこ
で、システムの使用目的に応じて、ディスクアレイシス
テムの構築の際にレベルの異なる複数のアレイ(ディス
ク装置の組)を混在させることも多い。このようにレベ
ルの異なるアレイを混在させたディスクアレイシステム
において、各レベルのアレイは、パリティグループと呼
ばれる。また、ディスク装置についても性能や容量等に
よりコストが異なるので、最適のコストパフォーマンス
を実現するシステムを構築するために、性能や容量の異
なる複数種のディスク装置を用いることがある。
数のディスク装置に分散して配置されるため、ディスク
アレイシステムに接続されるホストコンピュータが、論
理記憶領域とディスク装置の記憶領域を示す物理記憶領
域との対応付け(アドレス変換)を行っている。
イシステム内において、物理記憶領域間におけるデータ
の再配置を実行し、データの論理記憶領域に対する物理
記憶領域への対応付けを、再配置前の物理記憶領域から
再配置後の物理記憶領域に変更する技術が開示されてい
る。また、ディスクアレイシステムがホストコンピュー
タからの各論理記憶領域に対するアクセスによる負荷状
況を管理し、その実績に応じて再配置後にデータが適正
配置となるように、再配置の内容を決定するという技術
も開示されている。
システム等のストレージサブシステム間におけるデータ
転送の技術としては、M.T.O’Keefe,”Shared File
Systems and Fibre Channel”(in Proc. Sixth Godda
rd Conference on Mass Storage Systems and Technolo
gies, pp.1-16, March 1998)に開示された技術があ
る。
bre Channel(以下「FC」と称する。)で複数のホスト
コンピュータと複数のストレージサブシステムとを接続
し、FC経由でデータ共有を実現するストレージ環境、い
わゆるStorage Area Network(SAN)を実現するための
技術である。このように、FC経由でデータ転送を行うこ
とにより、一般的なネットワーク経由に比べ、ホストコ
ンピュータおよびネットワークの負荷が削減される。
ークに接続されたストレージサブシステムに保持されて
いるファイル等のデータを、複数のコンピュータで共有
する技術としては、NFS(Network File System)が広く
知られている。
を行う場合には、FCを使用する場合に比べ、ファイルを
共有しているコンピュータや、コンピュータとストレー
ジサブシステムをつなぐネットワークに対する負荷が大
きくなる。しかし、NFSを用いると、既存のネットワー
クを使用できることから、新たにFCのネットワークを敷
設することと比較すると、新規設備コストを抑えられ、
またファイル共有等の管理が容易である等の利点があ
る。
平9-274544号公報に開示された技術では、1つのストレ
ージサブシステム内におけるデータの再配置が可能とな
る。しかしながら、複数のストレージサブシステムを有
する計算機システムにおいて、異なるストレージサブシ
ステム間でのデータの再配置を行うことはできない。ま
た、ディスクアレイシステムはファイルを認識できない
ため、ファイル単位でデータの再配置を行うことができ
ない。
レージサブシステムにおける高速なデータ転送が可能と
なる。しかしながら、従来技術においては、SANの技術
を利用してストレージサブシステム間でデータの再配置
を行うことは出来なかった。
する各ストレージサブシステムの各記憶領域の負荷状況
等、データの適正な配置を決定するために必要な情報
を、ホストコンピュータやシステムを使用するユーザが
得ることについて、何ら考えられていない。このため、
ホストコンピュータや、そのユーザが、どのようにして
データの再配置を行えば、データの適正な配置を実現す
ることができるのかを判断できない。
システム間におけるデータの再配置を行おうとしても、
データを再配置するための未使用領域の管理等を、全て
ユーザが詳細に検討して行わなければならず、ユーザに
対する負担は大きいものがあった。
データを転送すると、アプリケーションが認識するデー
タの位置、すなわち、アプリケーションが同じデータに
アクセスするために指定すべきアクセス先が再配置の前
後で変化してしまうが、この変化についても従来技術で
は何ら考慮されていない。
ているコンピュータ同士で、NFSを使用してデータ共有
を行う場合にも、以下の問題がある。
実現するために使用されるホストコンピュータ(NFSサ
ーバ)が、複数のストレージサブシステムを管理してい
る場合、NFSサーバ自身は、その複数のストレージサブ
システム間でのデータの物理的再配置等を行うことはで
きなかった。このため、NFSサーバを用いてデータ共有
を行うコンピュータ毎に、共有されるデータの物理的位
置を変更するといった、ストレージサブシステムの有す
る記憶領域についてのより細かい区別および管理を行う
ことができなかった。
あり、本発明の目的は、NFSサーバを含めたホストコン
ピュータがデータの適正配置の決定に必要な情報をスト
レージサブシステムから取得できるようにし、SAN環境
において、データの再配置を実現することにある。ま
た、異なる目的としては、ユーザのストレージサブシス
テムの管理負担を軽減することにある。また、異なるス
トレージサブシステム間におけるデータの再配置を、ア
プリケーションが認識するデータの位置が、再配置の前
後で変化しないようにして、行えるようにすることにあ
る。さらにまた、ファイルを対象とするデータの再配置
を可能とすることにある。
め、本発明は以下の構成とする。すなわち、計算機と、
前記計算機に接続される複数のストレージサブシステム
とを有し、ストレージサブシステムは、ストレージサブ
システムが有する記憶領域の各々について記憶領域の使
用状況を取得する取得手段を有し、計算機は、複数のス
トレージサブシステムから、記憶領域各々の使用状況を
取得する取得手段を有すること計算機システムという構
成とする。記憶領域は、論理的な記憶領域であってもよ
い。また、ストレージサブシステムには、計算機の指示
にしたがって、データの移動を行う移動手段を付加し、
計算機には、データの論理的な位置と、ストレージサブ
システムにおいてデータが格納される記憶領域との対応
を規定する対応テーブルと、移動手段によってストレー
ジサブシステム間でデータが移動した場合に、対応テー
ブルを更新する更新手段とを付加した構成とすることも
できる。
ば、その記憶領域の物理的な記憶空間の使用状況やその
記憶空間へのアクセス処理に消費された処理時間等であ
る。
るデータの単位及び計算機で管理されるデータの単位が
ファイル単位であることも考えられる。
有する論理的な記憶領域全体を管理する手段と、記憶装
置の特徴と論理的な記憶領域との対応関係を管理する手
段とを計算機に付加した構成も考えられる。
に格納されているデータをネットワーク間で共有する手
段を付加した構成も考えられる。
機システムの第1実施形態の構成を示す図である。
ンピュータ(ホスト)100、ディスクアレイ200、
スイッチ500、クライアント800及びローカルディ
スク190を有する。
ース170により、ネットワーク700を介して、クラ
イアント800及びディスクアレイ200に接続され
る。ホスト100は、また、FCインタフェース160、
スイッチ500及びFC600を介して、ディスクアレイ
200及びローカルディスク190に接続される。
0、オペレーティングシステム(以下「OS」と称す
る。)120、マネージャ130及びアプリケーション
140をホスト100自身が有する記憶領域に有する。
アプリケーションと呼ぶ)140は、OS120およびフ
ァイルシステム110を介してディスクアレイ200に
対してリードやライトの要求を出す。
ては、一般的な電子計算機が用いられる。ファイルシス
テム110等のプログラムは、ホスト100の外部にあ
るローカルディスク190に記憶され、必要に応じてホ
スト100に読み込まれて実行される。
る場合には、当該記憶装置をローカルディスク190と
して使用することも考えられる。
びファイルシステム110が使用する論理ユニット(以
下、「LU」と称する)論理位置名テーブル191及びLU
内アドレス論理位置名テーブル195等の各種管理情報
が格納されている。LU論理位置名テーブル191は、ア
プリケーション140がディスクアレイシステム200
のデータにアクセスするときに指定する論理位置名と、
論理位置名により特定されるデータを格納するLUとの対
応を示す情報を保持したテーブルである。
は、アプリケーション140がディスクアレイシステム
200のデータにアクセスするときに指定する論理位置
名と、論理位置名により特定されるデータのLU内アドレ
スとの対応を示す情報を保持したテーブルである。
複数のディスク装置210、ネットワークインタフェー
ス270及びFCインタフェース260を有する。
U310、メモリ320及びキャッシュメモリ330を
有する。
21、論理ボリューム使用状況322及びコピー領域管
理テーブル323が格納される。これらの情報の詳細に
ついては後述する。
のディスク装置210でアレイ(以下「RAID」と称す
る。)が構成されており、このn台のディスク装置21
0によるRAIDをパリティグループ220と呼ぶ。
20に含まれるn台のディスク装置210のうち、n-1
台のディスク装置210の格納内容から生成される冗長
データ(以下「パリティ」と称する。)を残りの1台に
格納する構成や、n/2台に格納されている内容を残りの
n/2台がコピーしたミラーディスク(RAIDレベル1)構
成が考えられる。また、各パリティグループ220を、
ホスト100からのアクセス対象の1単位とみなすこと
ができる。
00を構築する各パリティグループ220の性能、信頼
性、特性などの属性は、同一であってもよいし、あるい
は、異なっていてもかまわない。
ライトする論理ボリュームとディスク装置210の記憶
領域を示す物理アドレスとの対応付け(アドレス変換)
を行い、ホスト100に論理ボリュームを提供する。デ
ィスクアレイ200は、アドレス変換において、複数の
論理ボリュームを結合して1つのLUとしてホスト100
に提供することもできる。すなわち、ディスクアレイ2
00は、少なくとも1つの論理ボリュームからなるLUを
ホスト100に提供する。ホスト100は、LUに対して
リード/ライトを行う。
00間における、ディスクアレイ200の使用状況を考
慮したデータの物理的再配置を可能とする。具体的に
は、ディスクアレイ200は、ホスト100からのリー
ド/ライトに対するディスク装置210の使用状況を取
得する。ホスト100は、複数のディスクアレイ200
各々が取得した使用状況を収集し、ユーザに提示する。
さらに、ホスト100は、ディスクアレイ200の使用
状況の提示を受けたユーザからの指示等に応じ、ローカ
ルディスク190内のLU論理位置名テーブル191を変
更すると共に、ディスクアレイ200がLUに格納してい
るデータをコピーする。これにより、複数のディスクア
レイ200間におけるLUの再配置が行われる。そして、
ディスクアレイ200の使用状況を考慮したデータの再
配置を可能とすることにより、データの適正配置が可能
となる。
100からのリード/ライト要求に応答して行うリード/
ライト処理、及びディスクアレイ200が、ディスク装
置210の使用状況を取得する使用状況取得の処理の手
順を示すフロー図である。使用状況取得の処理は、随
時、又はホスト100からのリード/ライト要求時に行
われる。
は、ファイル論理位置名によってファイルを指定し、フ
ァイルに対するリード/ライトをOS120に要求する。O
S120は、ファイルシステム110にファイルのリー
ド/ライトを要求する。
ェース160を介してローカルディスク190にアクセ
スし、指定されたファイルが格納されているLU番号をLU
論理位置名テーブル191から求める。ファイルシステ
ム110は、指定されたファイルが格納されているLU内
アドレス等を、LU内アドレス論理位置名テーブル195
から求める。
0を介して、求めたLU番号のLUを提供するディスクアレ
イ200に対し、LU番号やLU内アドレスを伴うSmall Co
mputer System Interface(SCSI)規格のリードコマン
ド、あるいはライトコマンドを発行する。
名、ディレクトリ名及びファイル名によるファイルの論
理位置までのパスの記述によりファイルを指定するシス
テムでは、論理位置(論理ドライブやディレクトリやフ
ァイル)へのパスの記述が、ファイルの論理位置の論理
位置名となる。一般的には、論理位置名とは、アプリケ
ーションがアクセス対象の指定に使用する論理位置の情
報である。
管理するため、ディレクトリ構造などの各論理位置間の
階層的な論理構造を管理する他、各論理位置の論理位置
名とLU番号との対応をLU論理位置名テーブル191に記
述し管理する。また、各論理位置の論理位置名とLU内ア
ドレスとの対応をLU内アドレス論理位置名テーブル19
5に記述し管理する。なお、LU番号は、そのLU番号のLU
を提供するディスクアレイ200も表す(ステップ10
00)。
ドを受領した制御部300は、メモリ320内の論理/
物理対応情報321を用いて、コマンドで指定されてい
るLU番号により特定されるLUを構成する論理ボリューム
を特定する。制御部300は、論理ボリュームに対応す
るディスク装置210の領域を求め、コマンドで指定さ
れているLU内アドレスの物理アドレスへの変換を行う。
ように、LUとディスク装置210の物理アドレスとの対
応関係についての情報を保持するテーブルである。
5002は、ホスト100のファイルシステム110が
リード/ライト処理で指定するLU番号及びLU内アドレス
を示す。論理ボリューム番号5003は、LU番号500
1で特定されるLUに対応する論理ボリュームの番号であ
る。論理ボリュームアドレス5004は、LU内アドレス
5002に対応する論理ボリューム内のアドレスであ
る。
されるディスク装置210上の領域を示すアドレスであ
る。物理アドレスは、パリティグループ番号5005、
データおよびパリティ各々に対するディスク装置番号5
006及びディスク装置内アドレス5007を有する。
パリティグループ番号5005は、個々のパリティグル
ープ220を示す。ディスク装置番号5006は、個々
のディスク装置210を示す。ディスク装置内アドレス
5007は、ディスク装置210内での領域を示すアド
レスである(ステップ1010)。
アドレス変換で得た物理アドレスに基づいて、ディスク
装置210のデータを読み出し、ホスト100に転送す
る。データのライトの場合、制御部300は、ホスト1
00から転送されたデータ及びデータに関連して生成し
たパリティを、アドレス変換で得たディスク装置210
の物理アドレスの位置に格納する(ステップ102
0)。
00は、使用状況取得処理を実行する。この処理では、
制御部300は、リード/ライト処理でのリード/ライト
種別やシーケンシャル/ランダムアクセス種別を判別
し、メモリ320のリード/ライト対象となった論理ボ
リュームの論理ボリューム使用状況322を更新する。
論理ボリューム使用状況322は、ディスクアレイ20
0に含まれるLUの使用状況についての情報を保持したテ
ーブルである。論理ボリューム使用状況322の一例
を、図4に示す。
ボリューム毎に、論理ボリューム番号5101及びリー
ド/ライト種別およびシーケンシャル/ランダムアクセス
種別毎のディスク使用時間(マイクロ秒単位)5102
が記述される。ここでは、リード/ライト対象となった
論理ボリュームの論理ボリューム番号5101に対応す
る、ディスク使用時間5102に、リード/ライトに要
した時間が加算される(ステップ1030)。
イ200からディスク装置210の使用状況を収集する
使用状況収集処理の手順を示すフロー図である。この処
理は、随時行われる。
ンターフェース160を介し、コマンドボリュームに対
して、情報収集用のパラメータをライトデータとするSC
SI規格のライトコマンドを発行する。コマンドボリュー
ムは、ディスクアレイ200が有する情報転送用のLUで
あって、対応する物理領域が指定されない論理ボリュー
ムである。(ステップ1100)。
マンドボリュームに対するライトコマンドであることを
確認すると、ホスト100から転送された情報収集用の
パラメータに含まれるオペレーションコードから、要求
された情報を判別する。制御部300は、要求された情
報をメモリ320上に用意する(ステップ1110)。
制御部300は、FCインターフェース260を介して、
ホスト100にライトの完了を報告する(ステップ11
20)。
ャ130は、FCインターフェース160を介して、ディ
スクアレイ200のコマンドボリュームに、SCSI規格の
リードコマンドを発行する(ステップ1130)。
するリードコマンドを受領すると、メモリ320上に用
意した情報を、FCインターフェース260を介してホス
ト100に転送する(ステップ1140)。制御部30
0は、FCインターフェース260を介してホスト100
にリードの完了を報告する(ステップ1150)。
用のパラメータ及びステップ1110で用意される情報
には、論理ボリューム情報、パリティグループ情報及び
使用状況情報の3種類の情報が含まれる。
用のパラメータが、図6に示すような論理ボリューム情
報のパラメータである場合、制御部300は、その0〜
1バイト目で指定された論理ボリューム番号5201で
特定される論理ボリュームについて、図7に示すような
論理ボリューム情報(ディスクアレイ200内のその論
理ボリュームの構成を示す情報)を用意する。
8〜47バイト目には、その0〜1バイト目に記述され
ている論理ボリューム番号5201で特定される論理ボ
リュームの各種情報5202が記述される。49〜12
1バイト目には、その論理ボリュームが属するLUを構成
する各論理ボリュームの情報5203が記述される。
ープ情報のパラメータの場合、制御部300は、パラメ
ータで指定された論理ボリュームが属するパリティグル
ープ220のパリティグループ情報(RAIDの構成、ディ
スク装置210の型名等、ディスクアレイ200内のそ
のパリティグループ220の構成を示す情報)を用意す
る。
210の使用状況を確認するためのパラメータの場合、
制御部300は、パラメータで指定された論理ボリュー
ムの使用状況情報(ディスクアレイ200内のリソース
の使用状況、例えば論理ボリュームが占有される時間、
論理ボリュームの各種コマンド受領回数やキャッシュメ
モリ330のヒット回数等の情報、プロセッサ310の
占有時間及び内部バスの占有時間等の情報等)を用意す
る。
ーム毎に、各種コマンド受領回数やキャッシュメモリ3
30のヒット回数やプロセッサ310の占有時間や内部
バスの占有時間等を取得している。マネージャ130
は、例えば複数回取得した占有時間の平均を取得間隔で
割ることにより、単位時間あたりの占有時間率を求める
ことができる。
リティグループ情報を生成する際に、論理/物理対応情
報321の一部あるいは全部を使用する。マネージャ1
30は、各型のディスク装置210の性能に関する情報
を保持しており、ディスク装置210の型名を基に、パ
リティグループ220を構成するディスク装置210の
性能を得ることができる。
は、LUに対しSCSI規格のINQUIRYコマンドを発行して応
答データを得ることで、この応答データからLUに属する
論理ボリューム番号を得ることもできる。
タを決定する再配置対象決定処理の手順を示すフロー図
である。本処理は、ユーザが再配置すべきデータを検索
する際に使用するアプリケーションが実行された時に実
行される。
20が使用しているLU及び使用していないLU(空きLU)
を、例えばローカルディスク190に格納されているLU
論理位置名テーブル191から判定する。マネージャ1
30は、OS120が使用している各LUについて、LUが属
するディスクアレイ200における各論理ボリュームの
使用状況や、LUに対応する論理ボリュームの使用状況等
を計算する。この計算には、INQUIRYコマンドを発行し
て得られるLUに属する論理ボリューム番号、使用状況収
集処理で得られる各ディスクアレイ200における論理
ボリューム情報、パリティグループ情報および論理ボリ
ュームの使用状況等が使用される(ステップ120
0)。
果を、各論理ボリュームが属するパリティグループ22
0の属性(RAID構成、ディスク装置210の型名又はデ
ィスク装置210の性能等)等と共にユーザに提示する
(ステップ1210)。
IRYコマンドを発行して得られた各LUに属する論理ボリ
ューム番号、使用状況収集処理で得られた各ディスクア
レイ200における論理ボリューム情報、パリティグル
ープ情報及び論理ボリュームの使用状況等とから、各空
きLUが対応する各論理ボリュームの使用状況等を計算す
る(ステップ1220)。この計算結果が、各空きLUに
関連するパリティグループ220の属性等と共にユーザ
に分類されて提示される(ステップ1230)。
はホスト100にネットワーク接続された他の計算機で
表示することもできる。
についての情報を参照し、データを再配置すべきLU(再
配置元LU)及びデータの再配置先のLUを決定する。ただ
し、ユーザではなく、ホスト100のマネージャ130
が、各LUについての情報から自動的にデータ再配置元又
は再配置先を決定してもよい。再配置の決定は、たとえ
ば、再配置後に、ディスクアレイ200間での負荷分
散、パリティグループ220間での負荷分散、高性能を
要求するファイルが存在するLUの高性能パリティグルー
プ220への配置等が実現されるように行なわれる。再
配置先LUのサイズは、再配置元LUのサイズ以上でなけれ
ばならない。各LUのサイズは、SCSI規格のREAD CAPACIT
Yコマンドで取得することができる(ステップ124
0)。
配置処理の手順を示すフロー図である。ホスト100
は、再配置を決定したユーザの指示、例えば再配置を指
示する実行コマンドの入力等があった場合に本処理を実
行する。
0のマネージャ130は、ファイルシステム110に再
配置元LUのロックを指示する(ステップ1300)。フ
ァイルシステム110は、ロック指示に応じて、再配置
元LUへのリード/ライト要求の受付を禁止する(ステッ
プ1310)。
テム110に、再配置元LUについてのキャッシュメモリ
のフラッシュを指示する(ステップ1320)。ファイ
ルシステム110は、再配置元LUに格納されるデータで
あって、ホスト100上のメモリにキャッシュされてい
て且つディスクアレイ200に未だライトされていない
データを、ディスクアレイ200の再配置元LUにライト
する(ステップ1330)。
10に、再配置元LUについてのキャッシュの無効化を指
示する(ステップ1340)。ファイルシステム110
は、再配置元LUに格納されるデータであってホスト10
0上のメモリにキャッシュされているデータを無効にす
る(ステップ1350)。
ュ及び無効化の処理は、LUのアンマウントの処理に相当
する。
るディスクアレイ200に、再配置元LUから再配置先LU
へのデータのコピーを指示する。この指示は、使用状況
収集処理と同様、再配置先LUが存在するディスクアレイ
200のコマンドボリュームに、コピー指示オペレーシ
ョンコードや再配置元LUや再配置先LU等のコピー指示の
パラメータを含んだライトコマンドを発行することで行
われる(ステップ1360)。ディスクアレイ200
は、後述のコピー処理を開始し、コピー指示の受領をマ
ネージャ130に通知する(ステップ1370)。
90に格納されているファイルシステム110が使用す
るLU論理位置名テーブル191を書き換え、再配置元LU
と再配置先LUとの論理位置名を入れ替える。入れ替えら
れるLU論理位置名テーブル191の例を、図10及び図
11に示す。
は、LU番号6001を特定するために必要な情報であ
る。図10は、論理位置名をディレクトリ形式で示した
ものであり、図11は、論理位置名をドライブ形式で示
したものである。いずれも、アプリケーション140が
使用する記憶領域としてのLUの論理位置を示している
(ステップ1380)。マネージャ130は、ファイル
システム110に、LU論理位置名テーブル191の更新
(再読み込み)及びステップ1300で指示したロック
の解除を指示する(ステップ1390)。
テーブル191を再度読み込んで情報を更新する(ステ
ップ1400)。ファイルシステム110は、ロックを
解除してリード/ライト要求の受け付けを再開する(ス
テップ1410)。
LUのマウント処理に相当する。
は、ファイルシステム110のリード/ライトの対象と
なるLUが再配置の対象であるLUであれば、ファイルシス
テム110のリード/ライト処理は、ステップ1380
において情報が入れ替えられた再配置先LUに対して行わ
れる。
アレイ200が、ホスト100からコピー指示を受けた
際に行うコピー処理の手順を示すフロー図である。
0が、FCインターフェース260を介してホスト100
からコピー指示を受け取ると、制御部300は、コピー
指示で指定された再配置先LUについてのコピー領域管理
テーブル323をメモリ320上に用意する。
の内容を示す図である。コピー領域管理テーブル323
は、コピーされるデータの範囲、大きさ等の情報が登録
されているテーブルである。
元LU番号6102は、FC600のネットワーク内におい
て再配置先LUと再配置元LUを一義的に示す番号を格納す
る領域である。具体的には、ホスト100からコピー指
示のパラメータとして指定された8バイトの番号(WORL
D WIDE NAME)、3バイトの番号(N_PORT ID)、SCSI規
格のターゲットIDもしくはLUNが格納される。コピーブ
ロック数6103には、コピーする領域のブロック(最
小リード/ライト単位)の数であり、コピー領域の大き
さを示すデータが格納される。ビットマップ6104の
ビットには、LUのコピー対象領域の各ブロックが割り当
てられる。ビットが「1」である場合は未コピーを示
し、「0」である場合はコピー済を示す。初期時は、コ
ピー対象領域に対応するすべてのビットが1に設定され
る(ステップ1500)。
ト100に通知する。この通知は、コピー指示を実際に
受領してから、コピー領域管理テーブル323の設定
後、実際にコピーを行う前の時点で行われる。このた
め、コピー指示の受領から当該通知までの時間は短い
(ステップ1510)。
0を介して再配置元LUから格納すべきデータをリード
し、再配置先LUに格納するコピーを行う(ステップ15
20)。
いて、コピー済の領域に対応するビットマップ6104
のビットを順次0に変更する(ステップ1530)。制
御部300は、対象となるLU全体のコピーが終了した
ら、コピー処理を終了する(ステップ1540)。
0と再配置先LUが存在するディスクアレイ200とが同
一の場合には、ディスクアレイ200内でLUのコピーが
行われる。
ド/ライトは、再配置対象LUのデータがコピー中であっ
ても、再配置先LU、すなわち再配置先LUの存在するディ
スクアレイ200に対して行われる。
アレイ200が、データの再配置におけるコピー処理の
最中に、再配置の対象となるLUに対するリード/ライト
コマンドを受けた場合における処理の手順について示す
フロー図である。
ース260を介してリードコマンドを受け取ると、制御
部300は、リード対象範囲とテーブル323のビット
マップ6104とを比較する(ステップ1610)。リ
ード対象領域に未コピーの領域が含まれている場合に
は、制御部300は、リード対象領域のデータを優先し
て読み出してコピーを済ませる(ステップ1630)。
制御部300は、ビットマップ6104のリード対象領
域に対応するビットをコピー済みに更新する(ステップ
1640)。制御部300は、ディスクアレイ200内
のコピーしたデータをホスト100に転送する(ステッ
プ1650)。リード対象領域がすべてコピー済であれ
ば、制御部300は、ディスクアレイ200内のコピー
済みのデータをホスト100に転送する(ステップ16
50)。
0を介してライトコマンドを受け取ると、ホスト100
から転送されたデータについて、ライト対象領域にライ
トを行う(ステップ1670)。制御部300は、コピ
ー領域管理テーブル323のビットマップ6104のラ
イト対象領域に対応するビットをコピー済に更新する
(ステップ1680)。制御部300は、残りの未コピ
ー領域のコピーを継続する(ステップ1690)。
ディスクアレイ200は、データ再配置におけるコピー
処理中であっても、ホスト100からのリード/ライト
を処理することができる。
御部300は、同時に、先に説明した使用状況取得処理
も行う。
は、データ再配置におけるコピー処理中に、ディスクア
レイ200のコマンドボリュームにコピー進捗取得のた
めのパラメータを含むデータのライトコマンドを発行
し、ディスクアレイ200が用意したデータをリードす
ることで、コピーの進捗情報等をディスクアレイ200
に問い合わせることができる。
ライトコマンドを受け付けた制御部300は、コマンド
ボリュームにライトされたパラメータを確認する。制御
部300は、コピー領域管理テーブル323を参照して
パラメータに対応するコピーの進捗率などの情報をメモ
リ320上に用意し、ライト完了をホスト100に通知
する。マネージャ130は、コマンドボリュームに対す
るリードを行う。制御部300は、ホスト100のリー
ドに対して、メモリ320上に用意したデータを転送す
ることによって、コピーの進捗等の問い合わせに答え
る。
イ200間におけるLUの再配置によるデータの適正配置
を、アプリケーション140にとって再配置前後で論理
的に等価となるように、すなわち、アクセス対象のアク
セスにアプリケーションが使用すべき論理位置名が変化
しないようにしつつ実現できる。
クアレイから取得した、各記憶領域の物理的な記憶装置
資源の使用状況を、例えば記憶装置資源の負荷分散等の
観点による、データの適正配置の決定に用いることがで
きる。したがって、この情報を用いて、例えば異なるス
トレージサブシステム間でデータを再配置することによ
り、データの適正配置を行うことができる。
レイ200間におけるデータの再配置について説明し
た。しかし、再配置対象データを格納するストレージサ
ブシステムは、ディスクアレイサブシステムでなくても
よい。磁気ディスク装置、光磁気ディスク装置、磁気テ
ープ装置又は半導体ディスク装置などを用いた他の種類
のストレージサブシステムであってもよい。
はなく、ネットワーク700経由で、例えばSimple Net
work Management Protocol(SNMP)で規定されているプ
ロトコルを用いて情報の収集や指示を行ってもよい。
制御部300が取得する論理ボリューム使用状況322
が使用時間の累積値である場合について説明した。しか
し、制御部300が単位時間毎の使用時間を使用率の形
式にしてメモリ320に蓄積し、これを論理ボリューム
使用状況322として、ホスト100のマネージャ13
0が収集するようにしてもよい。
テムの第2実施形態の構成を示す図である。
テムは、ローカルディスク190にLU領域範囲テーブル
192を格納し、スイッチ500にコピー制御部510
を設けた構成を有している点が、第1実施形態の計算機
システムと異なる。
ディスク装置210の使用状況を取得し、ホスト100
が複数のディスクアレイ200から使用状況を収集し、
使用状況を計算機システムのファイルに基づく分析も含
めてユーザに提示する。ホスト100は、ファイル管理
のためのデータ(以下「メタデータ」と称する)を変更
する。スイッチ500は、ホスト100の指示に基づい
て、ディスクアレイ200に格納されているデータをコ
ピーする。これにより、複数のディスクアレイ200間
におけるファイルの再配置を可能とし、データの適正配
置を行えるようにする。
ファイルシステム110は、各LUを、使用中のものと使
用していないものとに区別して管理した。本実施形態で
は、ファイルシステム110は、全てのLUを使用し、全
てのLUの領域の集合を単一領域(以下、「統合領域」と
称する。)として管理する。また、統合領域上のファイ
ルを、後述するメタデータで管理する。メタデータは、
統合領域の既定の位置に格納される。
システム110が統合領域を管理するために用いるLU領
域範囲テーブル192の例を示した図である。LU領域範
囲テーブル192は、統合領域の範囲と各LU内領域の範
囲との対応を示す情報を保持している。
領域内でのアドレスが格納される。LU番号6302は、
ディスクアレイ番号、ID及びLUNを含み、領域内アドレ
ス6301に格納されるLUを示す。LU内アドレス630
3は、対応するLU番号6302で特定されるLU内でのア
ドレスが格納される図17は、ホスト100がリード/
ライトを行う場合の処理の手順を示すフロー図である。
ョン140は、ファイルシステム110が管理するファ
イルの論理位置を指定して、ディスクアレイ200が格
納するデータにリードやライトを行うものとする。ま
た、ファイルシステム110は、データをファイルとし
て管理するために、メタデータをディスクアレイ200
に格納している。
に格納されているが、ファイルシステム110の管理に
基づき、ホスト100上のメモリにキャッシュされてい
る場合もある。以下、メタデータがホスト100上のメ
モリにキャッシュされている場合で説明する。
る。
イルの作成日時、更新日時、アクセス日時、属性、ファ
イル論理位置名、セキュリティ情報、及びファイル位置
等が含まれる。各ファイルに対応する統合領域内の範囲
は、ファイル位置6407に格納された情報で示され
る。
は、ファイル論理位置名によってファイルを指定し、フ
ァイルに対するリード/ライトをOS120に要求する
(ステップ1700)。OS120は、ファイルシステム
110に、ファイルのリード/ライトを要求する(ステ
ップ1710)。ファイルシステム110は、キャッシ
ュメモリされているメタデータを参照し、メタデータ及
びLU領域範囲テーブル192の情報から、指定されたフ
ァイルの位置(LUおよびLU内アドレス)を得る(ステッ
プ1720)。
ステム110は、さらにメタデータの更新を行う(ステ
ップ1740)。ファイルシステム110は、ステップ
1720で得たファイルの位置が示す領域内のリード/
ライトをディスクアレイ200に対して行い(ステップ
1750)、キャッシュされたメタデータ及びディスク
アレイ200のメタデータを更新する(ステップ176
0)。
ータの更新は、アクセスされたファイルについて、作成
日時6401、更新日時6402、アクセス日時640
3、属性6404、ファイル論理位置名6405、セキ
ュリティ情報64060、及びファイル位置6407等
に格納された情報を、アクセス内容に応じて更新するこ
とで行われる。例えば、ライトによりファイルサイズが
増減する場合は、これに合わせて、メタデータのファイ
ル位置6407が示す領域内の範囲が増減される。ま
た、ファイルが新規に作成される場合は、メタデータに
新規ファイルのエントリが追加され、ファイルが削除さ
れる場合は対応するエントリが削除される。
1実施形態と同様の使用状況取得処理を行う。また、ホ
スト100のマネージャ130は、第1実施形態と同様
の使用状況収集処理を行う。
位の再配置対象決定処理の手順を示すフロー図である。
領域に存在する各ファイルについて、ファイルとLUとの
対応を、ファイルシステム110に問い合わせる(ステ
ップ1800)。ファイルシステム110は、キャッシ
ュされたメタデータ及びLU領域範囲テーブル192を用
いて、問い合わせに答える(ステップ1810)。
0毎の各論理ボリュームの使用状況、各LUの各論理ボリ
ュームの使用状況及びファイル毎の各論理ボリュームの
使用状況等を計算する。この計算には、INQUIRYコマン
ドによって得られた各ディスクアレイ200における各
LUに属する論理ボリューム番号、使用状況収集処理で得
られた各ディスクアレイ200における論理ボリューム
情報及びパリティグループ情報及び論理ボリュームの使
用状況等が使用される(ステップ1820)。マネージ
ャ130は、計算結果を、各論理ボリュームが属するパ
リティグループ220の属性等と共にユーザに提示す
る。すなわち、ホスト100は、使用状況に関する情報
を、ディスクアレイ200、論理ボリューム、LU、ファ
イルといった各種の視点でユーザに提供する(ステップ
1830)。
00が提供するLUや論理ボリュームについて利用可能な
空き領域を計算し、ユーザに提示する(ステップ184
0)。マネージャ130は、各ディスクアレイ200が
提供するLUや論理ボリュームについて利用可能な空き領
域を、ファイルシステム110に問い合わせる(ステッ
プ1850)。ファイルシステム110は、キャッシュ
されたメタデータ及びLU領域範囲テーブル192を参照
して、ファイルが存在しない空き領域を特定し、マネー
ジャ130に答える(ステップ1860)。マネージャ
130は、使用状況収集処理で得た各種使用状況等か
ら、空き領域の論理ボリュームの使用状況等を、論理ボ
リュームやパリティグループ220の属性等と共にユー
ザに分類して提示する(ステップ1870)。
0またはホスト100にネットワークで接続された他の
計算機で表示することができる。ユーザは、これらの情
報より再配置すべきファイルと再配置先の空き領域とを
決定する。マネージャ130は、これらの情報から、自
動的に同様の再配置対象や空き領域を決定してもよい
(ステップ1880)。
が、OS120やアプリケーション140からの各ファイ
ルへのリード/ライト要求頻度(アクセス頻度)を監視
して統計情報を生成し、ステップ1830でユーザに提
示しするようにしてもよい。
各ファイルのアクセス頻度を勘案して再配置すべきファ
イルを決定することができる。
定処理の結果を受けて行う再配置処理の手順を示すフロ
ー図である。本処理は、基本的には、図9に示すLU単位
の再配置決定処理の手順において、LUをファイルに、デ
ィスクアレイ200をスイッチ500に読み替えた処理
と同じである。以下、図9とは異なる部分についてのみ
説明する。
10に、再配置先の空き領域についての領域の使用予約
を指示する(ステップ1940)。ファイルシステム1
10は、指定された再配置先領域が確保されるよう、キ
ャッシュされたメタデータを更新する(ステップ195
0)。マネージャ130は、ファイルシステム110
に、メタデータのキャッシュメモリのフラッシュを指示
する(ステップ1960)。ファイルシステム110
は、ホスト100上のメモリにキャッシュメモリしてあ
るメタデータを、ディスクアレイ200にライトする
(ステップ1970)。
え、指定されたファイルの位置を、再配置元領域から再
配置先領域へ入れ替える。これにより、再配置元の領域
を空き領域とする(ステップ2010)。マネージャ1
30は、ファイルシステム110に、メタデータについ
て、キャッシュの無効化を指示する(ステップ202
0)。ファイルシステム110は、ホスト100上のメ
モリにキャッシュしてあるメタデータを無効にする(ス
テップ2030)。
ルにリード/ライトする場合には、再配置先領域にコピ
ーされたデータに対して正常にリード/ライトを行うこ
とができる。
イ200間でのファイルの適正配置を、アプリケーショ
ン140にとって再配置前後で論理的に等価となるよう
に行うことが可能となる。
テムの第3実施形態の構成を示す図である。
ント800が、FCインタフェース860及びネットワー
クインタフェース870を有する。そして、クライアン
ト800がFCインターフェース860を介してFC600
経由でホスト100、ディスクアレイ200及びスイッ
チ500に接続され、かつネットワークインターフェー
ス870を介してネットワーク700経由でホスト10
0およびディスクアレイ200に接続される点が、第2
実施形態の計算機システムと異なる。本実施形態では、
複数のクライアント800とホスト100とが、ディス
クアレイ200上のファイルを共有する。クライアント
800は、OS820とアプリケーション840を有す
る。クライアント800は一般的な電子計算機である。
イルシステム110は、全てのLUを使用し、全てのLUの
領域を集合して単一の統合領域として管理する。そし
て、統合領域上のファイルを、第2実施形態と同様にメ
タデータにより管理する。
00に格納されているファイルへアクセスする処理につ
いて説明する。
アレイ200に格納されているファイルのリードを行う
場合の処理の手順を示すフロー図である。
40は、OS820にファイルのリードを要求する(ス
テップ2100)。OS820は、ネットワークインタ
ーフェース870あるいはFCインターフェース860を
介して、ホスト100のファイルシステム110にファ
イルのリードを通知する(ステップ2110)。
システム110は、ファイルが格納されているLUおよび
LU内アドレスを、メタデータとLU領域範囲テーブル19
2とを参照して求める(ステップ2120)。ファイル
システム110は、ファイルが格納されているLUのLU内
アドレスを他のクライアント800からのライトに対し
てロックする(ステップ2130)。ファイルシステム
110は、ホスト100のキャッシュメモリにあるメタ
データをフラッシュする(ステップ2140)。ファイ
ルシステム110は、クライアント800のOS820
に、ファイルが格納されているLUおよびLU内アドレス
と、メタデータの格納されているLUおよびLU内アドレス
とを返答する(ステップ2150)。
0は、リードの対象となるファイルが格納されているLU
が存在するディスクアレイ200に対し、FCインターフ
ェース860を介して、ファイルが格納されているLU内
アドレスに対するリードを行って、アプリケーション8
40からの要求を処理する(ステップ2160)。
のリード処理が終了したら、OS820は、ホスト100
のファイルシステム110から通知されたLUおよびLU内
アドレスにあるメタデータ上のファイルのアクセス日時
を更新する(ステップ2170)。OS820は、ファイ
ルシステム110に、ネットワークインターフェース8
70またはFCインターフェース860を介して、処理の
完了を通知する(ステップ2180)。
は、ホスト100上のメタデータのキャッシュメモリを
無効化し(ステップ2190)、ステップ2130で行
ったロックを解除する(ステップ2200)。
を示すフロー図である。
て、リードをライトに置き換えた処理とほぼ同一であ
る。以下、異なる部分について説明する。
する可能性のあるファイル使用領域のための領域の予約
をメタデータに記述する(ステップ2340)。ファイ
ルシステム110は、クライアント800のOS820
に、ファイルが格納されているLUおよびLU内アドレス
(ライトで増加する可能性のあるファイル使用領域のた
めに予約した領域を含める)と、メタデータが格納され
ているLU及びLU内アドレスとを返答する。なお、ライト
で増加する可能性のあるファイル使用領域の増加量は、
クライアント800のOS820からのライトの通知に含
まれているものとする(ステップ2360)。
なるファイルが格納されているLUが存在するディスクア
レイ200に対し、FCインターフェース860を介し
て、ファイルが格納されているLU内アドレスに対するラ
イトを行い、アプリケーション840からの要求を処理
する(ステップ2370)。
クセスを処理することにより、クライアント800およ
びホスト100は、ディスクアレイ200に格納されて
いるファイルを矛盾なく共有して使用することができ
る。なお、ホスト100自身のファイルアクセスも、ク
ライアント800によるファイルアクセスと同様に処理
される。
ついて説明する。
処理(使用状況取得処理、使用状況収集処理、再配置対
象決定処理および再配置処理)は、第2実施形態と同様
である。ただし、アプリケーション840が要求するデ
ータのリード/ライト処理でファイルがロックされてい
る間、再配置処理は実行されない。また、図20に示す
再配置処理のステップ1920及び1930におけるフ
ァイルのキャッシュメモリのフラッシュと、ディスクア
レイへ200への書き戻しは、ファイルシステム110
がそのファイルをキャッシュメモリしているクラインア
ント800に対して指示し、これを行わせる。
0に格納されているデータを共有して使用する環境にお
いても、複数のディスクアレイ200間におけるファイ
ルの物理的な再配置を、アプリケーション140、84
0に対して、再配置前後で論理的に等価となるように行
うことができる。
ァイルシステム110が、OS120、820やアプリケ
ーション140、840からの各ファイルへのリード/
ライト要求頻度を監視し、統計情報を生成して、再配置
対象決定処理においてユーザに提示するようにしてもよ
い。
上にマネージャ130のプログラムが格納され、そのマ
ネージャ130が、FCインターフェース860あるいは
ネットワークインターフェース870を用いて、使用状
況等の情報の収集や指示などの処理を、ホスト100の
ファイルシステム110やディスクアレイ200に要求
するようにしてもよい。
テムの第4実施形態の構成を示す図である。
00がLUプールマネージャ900及びLU管理テーブ
ル910を有する点で、第1実施形態の計算機システム
と異なる。
択を容易にすることができる。
図である。
のLUの状態に関する情報が登録されているテーブルで
ある。
り当てられた番号が登録される。この番号は、LUプー
ルマネージャ900が各LUを管理するために使用され
る。サイズ3320には、対応するLUの容量が登録さ
れる。構成3330には、RAID構成の種別が格納さ
れる。構成3330には、LUがキャッシュメモリ33
0や単体ディスクで構成されている場合には、その情報
も格納される。
が格納される。その種別として、「オンライン」、「オ
フライン」、「未実装」及び「障害オフライン」が設け
られている。「オンライン」は、LUが正常な状態であ
り、ホスト100からアクセス可能であることを示す。
「オフライン」は空きLU、すなわちLUは正常に存在
するが、ホスト100からはアクセス不能の状態におか
れていることを示す。「未実装」は、このLUは定義さ
れておらず、ホスト100からアクセス不能であること
を示す。「障害オフライン」は、LUに障害が発生して
ホスト100からのアクセスができないことを示す。
るLUが存在するディスクアレイ200を示す情報が格
納される。
0に複数接続するFC600のどれにLUが割り当てら
れているかを示す番号が格納される。ID3370及び
LUN3380には、LUを示す番号が格納される。
が現在配置されているディスク装置210の性能を示す
指標が格納される。具体的には、図29に示すとおり、
ディスク装置210の平均シーク時間、平均回転待ち時
間及び構成から、ディスク装置210の性能が高性能、
中性能、低性能の指標に分類されて格納されている。キ
ャッシュメモリ上のLUは、超高性能に分類される。
ィスクアレイ200がホスト100に提供する各LUの
ディスク装置としての型を示す情報が格納される。
配置を行う際に、LUの再配置先として使用できるか否
かを指定するためのフラグが格納される。ユーザは、こ
のフラグを用いて再配置用のLUとその他のLUを区別
することができる。ユーザはフラグのオン/オフを変更
することができる。
のLU管理テーブルを示す図である。マネージャ130
は、すべてのディスクアレイ200についてのLU管理
テーブルを保持している。
以下のようにして行われる。
配置元LUの指定及び再配置先LUとして必要とされる
条件を指定する。具体的な条件としては、性能条件や信
頼性レベル等がある。
LUを含むディスク装置の能力を超えて負荷がかかって
いる場合、そのLUの再配置先としてより高性能のディ
スク装置を指定すれば、LUの処理能力が増大し、計算
機システムの性能向上が期待できる。
体ディスクや冗長なしRAID(RAID0)上に存在
する場合、再配置先としてRAID5やRAID1を指
定すれば、冗長性による耐障害性を確保できる。
10に登録された情報を用いて再配置先のLUを決定
し、ユーザに通知した上で、LUの再配置を行う。
決定処理の手順を示すフロー図である。本処理は、ユー
ザの指示に対応して実行される。ユーザは、マネージャ
130に対して再配置元LUのディスクアレイ番号、パ
ス、ID及びLUNを指定する。この場合、パス及びI
D等の代わりに、ディスクアレイ番号及びLU番号を指
定してもよい(ステップ2500)。
配置先についての要求条件として性能条件や信頼性レベ
ルを指定する(ステップ2510)。
び再配置先についての要求条件をLUプールマネージャ
900に通知する(ステップ2520)。LUプールマ
ネージャ900は、LU管理テーブル910内を検索し
て、要求された条件を満たすLUの有無を確認する(ス
テップ2530)。
ン」かつ「サイズが再配置元LU以上」かつ「エミュレ
ーションタイプが再配置元LUと同じ」かつ「再配置可
能フラグがオン(真)すなわち可能」かつ「性能条件が
要求を満たす」かつ「信頼性レベルが要求を満たす」で
なければならない。
Uが存在した場合、LUプールマネージャは、該当する
LUをマネージャ130に通知する(ステップ255
0)。マネージャ130は、通知されたLUを再配置先
LUとして決定する(ステップ2560)。
在しなかった場合、LUプールマネージャ900は、L
U管理テーブル910内を検索して「状態が未実装」の
LU番号3310を探す(ステップ2570)。
た場合は、LUプールマネージャ900は、マネージャ
130に条件を満たすLUの利用不可を通知する(ステ
ップ2580)。通知を受けたマネージャ130は、ユ
ーザに再配置先LU決定不可を通知する(ステップ25
90)。
た場合は、LUプールマネージャ900は、未実装のL
U番号と再配置先LUについての条件を指定して、該当
するディスクアレイ200に再配置先LUの構築を指示
する(ステップ2600)。
は、「サイズが再配置元LU以上」かつ「エミュレーシ
ョンタイプが再配置元LUと同じ」かつ「性能条件が要
求を満たす」かつ「信頼性レベルが要求を満たす」であ
る。
00は、LU構築処理を行う(ステップ2610)。構
築が成功した場合は、ディスクアレイ200は、LUプ
ールマネージャ900に、構築したLUについてのディ
スクアレイ番号、パス、ID及びLUNなどを含む一連
の情報を通知する(ステップ2620)。構築が失敗し
た場合には、ディスクアレイ200は、LUプールマネ
ージャ900に構築不可の通知を行う(ステップ261
0)。
たLUの情報をLU管理テーブル910に登録し(ステ
ップ2630)、マネージャ130に通知する(ステッ
プ2550)。マネージャ130は、このLUを再配置
先LUとして決定する(ステップ2560)。
ジャ900は、マネージャ130に条件を満たすLUの
利用不可を通知する(ステップ2580)。通知を受け
たマネージャ130は、ユーザに再配置先LU決定不可
を通知する(ステップ2590)。
U構築処理の手順を示すフロー図である。この処理は、
LUプールマネージャ900の指示を受けた時に行われ
るディスクアレイ200は、LUプールマネージャ90
0からの指示により、未実装のLU番号と再配置先LU
についての条件を受け取る(ステップ2700)。
10やキャッシュメモリ330などの内部資源割り当て
状況等と受け取った条件を比較して、要求された条件の
LUが構築可能かどうかを判断する(ステップ271
0)。LUが構築可能な場合は、ディスクアレイ200
は、内部資源を割り当て、フォーマット/初期化処理を
行ってLUを構築する。ディスクアレイ200は、構築
したLUに、LUプールマネージャー900から受けと
った未実装のLUに対応するLU番号を割り当てる(ス
テップ2720)。
ース260を設定し、LUにパス、ID、LUNを割り
当てる(ステップ2730)。ディスクアレイ200
は、構築したLUについての、ディスクアレイ番号、パ
ス、ID及びLUN等を含む一連の情報をLUプールマ
ネージャ900に通知する(ステップ2740)。
能だった場合は、ディスクアレイ200は、構築不可を
LUプールマネージャ900に通知する(ステップ27
50)。
130は、第一の実施の形態と同様に再配置元LUと再
配置先LUについての再配置処理を行う。
理の手順を示すフロー図である。
説明した方法でコピーの進捗を取得し、コピーが終了し
た場合は、LUプールマネージャ900に再配置元LU
のオフライン化を指示する(ステップ2800)。
ネージャ900は、再配置元LUのディスクアレイ20
0に、再配置元LUのオフライン化を指示する(ステッ
プ2810)。オフライン化の指示をうけたディスクア
レイ200は、FCインタフェース260を設定してL
Uにロックをかけることで、LUをオフラインにする
(ステップ2820)。ディスクアレイ200は、オフ
ライン化したことをLUプールマネージャ900に通知
する(ステップ2830)。
ネージャは、LU管理テーブル910のLUの状態33
40の内容をオフラインに更新する(2840)。
捗情報を取得する例を説明したが、ディスクアレイ20
0がコピー終了をマネージャ130に通知してもよい。
指示する代わりにディスクアレイ200がコピー終了時
点で再配置元LUをオフライン化し、オフライン化した
ことをLUプールマネージャ900に通知してもよい。
が、SCSI規格のEXTENDED COPYコマンドを用いてスイッ
チ500のコピー制御部510へのコピー指示を行う場
合について説明したが、他のコマンドを用いてもよい。
他のコマンドとは、例えば、コマンドボリュームへのラ
イトコマンド等である。また、図15に示すように、デ
ィスクアレイ200がコピー制御部510を有し、マネ
ージャ130がディスクアレイ200のコピー制御部5
10に、コピー指示を行って、ディスクアレイ200が
コピー処理を行うようにしてもよい。
する条件などの情報はユーザが指定しているとしたが、
マネージャ130が自動的に判断して指定してもよい。
00とマネージャ130が同じホスト100に存在する
としたが、LUプールマネージャ900がリモートコン
ピュータ400といった、マネージャ130とは異なる
コンピュータに存在してもよい。この場合、LUプール
マネージャ900とマネージャ130は、FC600や
ネットワーク700を介してSCSIやSNMPや他の
プロトコルやコマンド体系で指示や通知を行う。
において、再配置先のLUの管理や選択を容易にしてユ
ーザの負荷を削減し、計算機システムの管理を容易にす
ることができる。
ムの第5実施形態を示す図である。本実施形態の計算機
システムは、LU領域範囲テーブル192に新たな項目
を付加したLU領域範囲テーブル193を用いて、クラ
イアント800からのリード/ライト要求に基づき、ホ
スト100がファイルをリード/ライトする。そして、
クライアント800との間でネットワーク700を介し
てデータを転送する処理を行う点が、第3実施形態の計
算機システムと異なる。ネットワーク700を経由した
ファイル共有のためのプロトコルとしては、Netwo
rk File System(NFS)やCommo
n Internet File System(CI
FS)が広く用いられている。これらのプロトコルや広
く普及しているネットワーク700を用いることによ
り、容易にファイル共有環境を実現することができる。
本実施形態においても、NFS又はCIFSを使用する
ことを考える。
示す図である。LU領域範囲テーブル193には、LU
領域に対するアクセスがネットワークを使用するか否か
に関する情報が格納される。
ド/ライトの処理が第3実施形態のようにFC600を
介して行われるLU領域であるか、本実施形態で説明す
るようにネットワーク700を介してリード/ライトの
処理が行われるLU領域であるかを示す情報が格納され
る。
実施形態のようにLUを再配置する構成および方法に用
いる領域(この場合のリード/ライト要求はFC600
を経由する)であるか、LUへのリード/ライトの処理
が、ネットワーク700を介して行う領域であるかの情
報を格納することができる。使用種別3510には、未
使用領域の情報を格納することもできる。その他、領域
内アドレス、ディスクアレイ番号、ID、LUN、LU
内アドレスは、第3実施形態で説明したものと同様なの
で、説明を省略する。
を集中して管理することで、ファイルシステム110
は、LUを少なくとも使用種別毎に区別された、複数の
領域として管理することができる。
ことによって、ホスト100は、クライアント800か
らの要求が、第3実施形態で説明した方法でのアクセス
か、ネットワークを介した形でのアクセスかを、要求で
用いられるプロトコルなどで区別する。ホスト100
は、この種別に応じて、LU領域を使用種別3510毎
に区別して扱う。
クセスされるファイルおよび領域と、本実施形態の方法
でアクセスされるファイルおよび領域を区別して処理す
る。したがって、同一のファイルおよび領域へアクセス
する方法が混在することはない。
の検索においても、同様の区別を行う。つまり、同一の
ディスクアレイ200に存在する各ファイルに、クライ
アント800からのアクセス要求があった場合、クライ
アント800からの使用種別を識別することにより、ク
ライアント800の使用種別とは異なる他の使用種別の
ファイルをクライアント800に対して返答しない。し
たがって、クライアント800には、自己が使用するア
クセス方法でのみアクセス可能なファイルだけが通知さ
れる。このことにより、本システムにおいては、共有フ
ァイルの管理を容易に行うことができる。
配置する構成および方法に用いる領域(リード/ライト
はFC600経由)と、LUへのリード/ライトをホス
ト100およびネットワーク700を介して行う領域と
の区別を行うことによって、上述したような効果をこれ
ら全ての使用種別に対して得ることができる。又、ユー
ザは、ホスト100またはリモートコンピュータ400
を介して、LU領域範囲テーブル193を自由に設定す
ることができる。
なファイル共有プロトコルをネットワーク700経由で
使用し、ホスト100とクライアント800間のデータ
転送をネットワーク700経由で行うとしたが、ネット
ワーク700の代わりに、FC800経由で行う処理も
考えられる。更に、クライアント800が行う各LUへ
のリード/ライト要求を、ホスト100およびネットワ
ーク700を介して行う処理も考えられる。この場合、
ホスト100は、クライアント800が要求するリード
/ライト対象領域を、LU領域範囲テーブル192を用
いて求める。ホスト100は、対象となるデータをリー
ドしてクライアント800にネットワーク700経由で
転送する。あるいは、ホスト100は、クライアント8
00からデータをネットワーク700経由で受領してラ
イトする。
ーション840が、ディスクアレイ200に格納されて
いるファイルに対してリードを行う場合における、ホス
ト100の処理の手順を示すフロー図である。
たホスト100のファイルシステム110は、LU領域
範囲テーブル193とメタデータを参照することで、フ
ァイルの格納されているLU及びLU内領域を求める
(ステップ2900)。ファイルシステム110は、他
のライト要求に対してリード対象となるファイルをロッ
クする(ステップ2910)。ファイルシステム110
は、ファイル内のデータをリードして(ステップ292
0)、クライアント800にネットワーク700を介し
てリードした内容を転送する(ステップ2930)。フ
ァイルシステム110は、メタデータ上のファイルアク
セス日時を更新する(ステップ2940)。ファイルシ
ステム110は、ファイルのロックを解除し(ステップ
2950)、リード処理の完了をクライアント800に
通知する(ステップ2960)。
イトを行う場合の処理の手順を示すフロー図である。
トワーク700経由でクライアント800からライトデ
ータを受け取る(ステップ3000)。ホスト100
は、LU領域範囲テーブル193とメタデータを参照す
ることで、ファイルの格納されているLUとLU内領域
を求める(ステップ3010)。ホスト100は、ファ
イルをロックし(ステップ3020)、ファイルにデー
タをライトする。このとき、必要ならばメタデータを更
新してファイル使用領域の追加を行う(ステップ303
0)。
更新日時とアクセス日時を更新する(ステップ304
0)。ホスト100は、ロックを解除し(ステップ30
50)、ライト完了をクライアント800に通知する
(ステップ3060)。
ーション840またはOS820が、アクセス可能なフ
ァイルの存在についてホスト100に問い合わせた場合
の処理の手順を示すフロー図である。
自身の要求があった時、OS820は、ネットワーク7
00を介してホスト100にアクセス可能なファイルの
存在を問い合わせる(ステップ3100)。
テム110は、アクセス可能なファイルを、LU領域範
囲テーブル193とメタデータを参照して求める(ステ
ップ3110)。ファイルシステム110は、各ファイ
ルのファイル名などの情報をクライアント800に通知
する(ステップ3120)。
びホスト100は、ディスクアレイ200に格納されて
いるファイルをホスト100経由で共有して使用するこ
とができる。データの再配置の方法等は第3実施形態と
同様である。ただし、再配置処理は各使用種別の領域内
で行われる。
格納されているデータを共有して使用する環境において
も、アプリケーション140およびアプリケーション8
40が関与することなく、複数のディスクアレイ200
間でのファイルの物理的再配置を行うことができる。
はなく、その要旨の範囲内で数々の変形が可能である。
すように、マネージャ130を、ネットワークインタフ
ェース470とFCインタフェース460とを有するリモ
ートコンピュータ400上のプログラムとして、ホスト
100の外部に配置してもよい。ホスト100外部のマ
ネージャ130がFC600あるいはネットワーク700
経由で情報の収集や指示を行い、各実施形態と同様の処
理を行って、複数のディスクアレイ200間におけるLU
の再配置によるデータの適正配置を、アプリケーション
140に対して透過的に行うことができる。
態と同様に、ファイルの共有等を行うようにしてもよ
い。この場合も、記第1実施形態と同様に、複数のディ
スクアレイ200間でのデータの物理的再配置を、アプ
リケーション140、840に対し、再配置前後で論理
的に等価となるように透過的に行うことができる。
ストレージサブシステム間におけるデータの再配置を容
易に行うことが出来る。また、本発明によれば、ホスト
コンピュータが適正配置の決定に必要な情報を複数のス
トレージサブシステムから取得することができる。ま
た、異なるストレージサブシステム間におけるデータの
再配置を、アプリケーションにとってのデータ位置が、
再配置の前後で変化しないように行うことができる。さ
らに、異なるストレージサブシステム間におけるファイ
ルを対象とするデータの再配置を行うことができる。
テムの構成を示す図である。
および使用状況取得処理の手順を示すフロー図である。
情報を示す図である。
使用状況を示す図である。
手順を示すフロー図である。
情報のパラメータを示す図である。
情報を示す図である。
の手順を示すフロー図である。
示すフロー図である。
テーブルを示す図である。
テーブルを示す図である。
を示すフロー図である。
理テーブルを示す図である。
理によるコピー中における、再配置先LUへのリード/ラ
イトコマンドに対する処理の手順を示すフロー図であ
る。
ステムの構成を示す図である。
ーブルを示す図である。
理の手順を示すフロー図である。
示す図である。
理の手順を示すフロー図である。
を示すフロー図である。
ステムの構成を示す図である。
トのアプリケーションがファイルのリードを行う際の処
理の手順を示すフロー図である。
トのアプリケーションがファイルのライトを行う際の処
理の手順を示すフロー図である。
ステムの構成を示す図である。
910を示す図である。
理の手順を示すフロー図である。
順を示すフロー図である。
ライン化処理の手順を示すフロー図である。
ステムの構成を示す図である。
ブル193を示す図である。
0のアプリケーション840がファイルのリードを行う
際の処理の手順を示したフロー図である。
0のアプリケーション840がファイルのライトを行う
際の処理の手順を示すフロー図である。
イル応答処理の手順を示すフロー図である。
820…OS、130…マネージャ、140、840…ア
プリケーション、160、260、460、860…FC
インタフェース、170、270、470、870…ネ
ットワークインタフェース、190…ローカルディス
ク、191…LU論理位置名テーブル、192…LU領域範
囲テーブル、200…ディスクアレイ、210…ディス
ク装置、220…パリティグループ、300…制御部、
310…CPU、320…メモリ、321…論理/物理対応
情報、322…論理ボリューム使用状況、323…コピ
ー領域管理テーブル、330…キャッシュメモリ、40
0…リモートコンピュータ、500…スイッチ、510
…コピー制御部、600…Fibre Channel(FC)、70
0…ネットワーク、800…クライアント。
Claims (14)
- 【請求項1】計算機と、前記計算機に接続される複数の
ストレージサブシステムとを有し、 前記複数のストレージサブシステムの各々は、 該ストレージサブシステムが有する記憶領域の各々につ
いて、前記記憶領域の使用状況を取得する取得手段を有
し、 前記計算機は、 前記複数のストレージサブシステムの各々から、前記取
得手段によって取得された記憶領域各々の使用状況を収
集する収集手段を有することを特徴とする計算機システ
ム。 - 【請求項2】前記記憶領域は、ディスク装置を用いて形
成される論理的な記憶領域であることを特徴とする請求
項1記載の計算機システム。 - 【請求項3】前記複数のストレージサブシステムの各々
は、前記計算機の指示にしたがって、他の前記複数のス
トレージサブシステムのうちのいずれかからデータの移
動を行う移動手段と、前記移動手段が完了したことを前
記計算機に通知する手段とを有し、 前記計算機は、 前記データの論理的な位置と、前記ストレージサブシス
テムにおいて前記データが格納される記憶領域との対応
を記憶する対応記憶部と、 前記通知手段によって前記ストレージサブシステム間で
のデータの移動が完了した通知を受け取った場合に、前
記対応記憶部を更新する更新手段とを有することを特徴
とする請求項2記載の計算機システム。 - 【請求項4】前記計算機は、前記複数のストレージサブ
システム各々から収集された各々の前記記憶領域の使用
状況を表示する表示部と、 該計算機システムの使用者に、前記表示部に表示された
各々の前記記憶領域のいずれかを選択させる選択手段と
を有し、 前記指示には、前記選択手段によって選択された記憶領
域を指定する情報が含まれていることを特徴とする請求
項3記載の計算機システム。 - 【請求項5】前記計算機は、前記複数のストレージサブ
システム各々から収集された各々の前記記憶領域の使用
状況に基づいて、所定の条件を満たす前記記憶領域を選
択する手段を有し、前記指示には、前記選択手段によっ
て選択された記憶領域を指定する情報が含まれているこ
とを特徴とする請求項3記載の計算機システム。 - 【請求項6】前記所定の条件とは、前記記憶領域へのア
クセスの頻度が一定値以上であるという条件であること
を特徴とする請求項5記載の計算機システム。 - 【請求項7】前記計算機は、前記データと前記計算機で
実行されるファイルシステムが管理するファイルとの対
応関係を保持するファイル対応関係記録部と、 前記ファイル対応関係記録部を使用して前記ファイルご
とに前記記憶領域の使用状況を収集する手段とを有し、 前記複数のストレージサブシステムの各々は、前記指示
にしたがって、指定された前記ファイルを他の前記複数
のストレージサブシステムのうちのいずれかから移動す
る手段と前記移動する手段が完了したことを前記計算機
に通知する手段を有することを特徴とする請求項3記載
の計算機システム。 - 【請求項8】前記計算機は、前記通知する手段によっ
て、ストレージサブシステム間のファイルの移動が完了
したことを通知されると、前記ファイル対応関係記録部
を更新する手段を有することを特徴とする請求項7記載
の計算機システム。 - 【請求項9】前記使用状況には、データを読み出す際に
前記記憶領域が占有される時間が含まれることを特徴と
する、請求項1〜8記載の計算機システム。 - 【請求項10】ホストコンピュータと接続される接続部
と、複数の記憶装置と、 前記複数の記憶装置を制御する制御部と、前記複数の記
憶装置の使用状況を示す情報が格納される記憶部とを有
し、 前記制御部は、前記接続部を介して、前記複数の記憶装
置の使用状況を示す情報の転送を要求する命令を受け取
った場合には、前記記憶部から前記複数の記憶装置の使
用状況を示す情報を読み出し、前記ホストコンピュータ
に転送することを特徴とするストレージサブシステム。 - 【請求項11】複数のストレージサブシステムと接続さ
れる接続部と、前記複数のストレージサブシステムから
取得した前記複数のストレージサブシステム各々が有す
る記憶領域の使用状況が格納される記憶部と、中央演算
処理装置とを有し、 前記中央演算処理装置は、前記記憶部に格納された前記
複数のストレージサブシステムの使用状況の情報に基づ
いて、移動すべきデータを決定する決定手段と、 前記決定手段によって決定されたデータの情報を前記接
続部を介して、移動先となる前記複数のストレージサブ
システムのうちのいずれか一つに通知する通知手段とを
有することを特徴とする計算機。 - 【請求項12】複数のストレージサブシステム間におい
てデータを移動する方法であって、前記複数のストレー
ジサブシステムにおいて収集された情報を前記複数のス
トレージシステムに接続される計算機で収集し、 移動対象となるデータを前記計算機で決定し、前記決定
されたデータの位置を、移動先となる前記複数のストレ
ージサブシステムのうちの一つに通知し、 通知を受けたストレージサブシステムで前記通知された
データの移動を行うことを特徴とするデータの移動方
法。 - 【請求項13】複数のストレージサブシステム間におい
てデータを移動する方法であって、前記複数のストレー
ジサブシステムにおいて収集された情報を前記複数のス
トレージシステムに接続される計算機で収集し、 移動対象となるデータを前記計算機で決定し、前記決定
されたデータの位置を、移動先となる前記複数のストレ
ージサブシステムのうちの一つに通知し、 通知を受けたストレージサブシステムで前記通知された
データの移動を行うことを特徴とするデータの移動方
法。 - 【請求項14】複数のストレージサブシステム間におい
てデータを移動するコンピュータプログラムであって、
前記複数のストレージサブシステムにおいて収集された
情報を前記複数のストレージシステムに接続される計算
機で収集し、 移動対象となるデータを前記計算機で決定し、前記決定
されたデータの位置を、移動先となる前記複数のストレ
ージサブシステムのうちの一つに通知するプログラム
と、 通知を受けたストレージサブシステムで前記通知された
データの移動を行うプログラムとから構成されることを
特徴とするコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001053458A JP4115093B2 (ja) | 2000-07-06 | 2001-02-28 | 計算機システム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000205510 | 2000-07-06 | ||
JP2000-205510 | 2000-07-06 | ||
JP2001053458A JP4115093B2 (ja) | 2000-07-06 | 2001-02-28 | 計算機システム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008063185A Division JP4862006B2 (ja) | 2000-07-06 | 2008-03-12 | 計算機システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002082775A true JP2002082775A (ja) | 2002-03-22 |
JP4115093B2 JP4115093B2 (ja) | 2008-07-09 |
Family
ID=26595536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001053458A Expired - Fee Related JP4115093B2 (ja) | 2000-07-06 | 2001-02-28 | 計算機システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4115093B2 (ja) |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1348860A2 (en) | 2002-03-25 | 2003-10-01 | Toyoda Koki Kabushiki Kaisha | Crankshaft and engine |
JP2004133885A (ja) * | 2002-06-12 | 2004-04-30 | Hitachi Ltd | 複製ボリュームを管理するための方法と装置 |
JP2004252934A (ja) * | 2002-06-12 | 2004-09-09 | Hitachi Ltd | 複製ボリュームを管理するための方法と装置法 |
JP2005215715A (ja) * | 2004-01-27 | 2005-08-11 | Hitachi Ltd | 動的負荷分散方法 |
JP2005234834A (ja) * | 2004-02-19 | 2005-09-02 | Hitachi Ltd | 論理ボリュームの再配置方法 |
WO2005115016A1 (ja) * | 2004-04-26 | 2005-12-01 | Olympus Corporation | 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法 |
JP2006012156A (ja) * | 2004-06-29 | 2006-01-12 | Hitachi Ltd | ボリューム活動に従ってストレージポリシーをコントロールするための方法 |
JP2006505069A (ja) * | 2002-11-01 | 2006-02-09 | ブルアーク ユーケー リミテッド | ハードウェアベースのファイルシステムのための装置および方法 |
JP2006079432A (ja) * | 2004-09-10 | 2006-03-23 | Hitachi Ltd | ストレージ装置およびそのボリューム再配置方法 |
US7089347B2 (en) | 2003-03-31 | 2006-08-08 | Hitachi, Ltd. | Computer system for managing performances of storage apparatus and performance management method of the computer system |
US7127445B2 (en) | 2002-06-06 | 2006-10-24 | Hitachi, Ltd. | Data mapping management apparatus |
JP2007018455A (ja) * | 2005-07-11 | 2007-01-25 | Hitachi Ltd | データマイグレーション方法又はデータマイグレーションシステム |
JP2007048323A (ja) * | 2002-11-25 | 2007-02-22 | Hitachi Ltd | 仮想化制御装置およびデータ移行制御方法 |
JP2007079774A (ja) * | 2005-09-13 | 2007-03-29 | Hitachi Ltd | ファイルシステムの構築方法 |
JP2007115264A (ja) * | 2003-09-17 | 2007-05-10 | Hitachi Ltd | 記憶システム |
JP2007226596A (ja) * | 2006-02-24 | 2007-09-06 | Hitachi Ltd | 記憶制御装置及び記憶制御装置を用いたデータマイグレーション方法 |
JP2007257646A (ja) * | 2007-04-06 | 2007-10-04 | Hitachi Ltd | ストレージ集中管理方法 |
JP2008033517A (ja) * | 2006-07-27 | 2008-02-14 | Hitachi Ltd | ファイル格納制御装置及び方法 |
JP2008033911A (ja) * | 2006-07-27 | 2008-02-14 | Hitachi Ltd | 記憶ボリューム間でデータを移行する方法および装置 |
US7337292B2 (en) | 2002-05-27 | 2008-02-26 | Hitachi, Ltd. | Method and apparatus for data relocation between storage subsystems |
JP2008047156A (ja) * | 2004-08-30 | 2008-02-28 | Hitachi Ltd | ストレージシステム及びデータ再配置制御装置 |
JP2008521140A (ja) * | 2004-11-19 | 2008-06-19 | ネットワーク・アプライアンス・インコーポレイテッド | 共有バックエンドストレージを備えた複数のストレージシステムにわたりユーザワークロードのバランスをリアルタイムにとるシステム、及び方法 |
JP2008171420A (ja) * | 2002-04-26 | 2008-07-24 | Hitachi Ltd | 記憶装置システムの制御方法および記憶制御装置 |
US7506120B2 (en) | 2003-12-17 | 2009-03-17 | Hitachi, Ltd. | Data transfer virtualization system |
US7509331B2 (en) | 2003-03-28 | 2009-03-24 | Hitachi, Ltd. | Method and apparatus for managing faults in storage system having job management function |
JP2009098941A (ja) * | 2007-10-17 | 2009-05-07 | Internatl Business Mach Corp <Ibm> | ストレージ・デバイス間のデータ複製を制御する制御装置、方法、プログラム及びストレージ・システム |
US7590818B2 (en) | 2003-10-06 | 2009-09-15 | Hitachi, Ltd. | Storage system having a plurality of virtualization apparatuses that allocate a storage area, form a plurality of virtual volumes, and process input-output from a host processor |
US7689573B2 (en) | 2002-12-11 | 2010-03-30 | Hitachi, Ltd. | Prefetch appliance server |
JP2011054180A (ja) * | 2003-08-14 | 2011-03-17 | Compellent Technologies | 仮想ディスク・ドライブのシステムおよび方法 |
JP2011221570A (ja) * | 2010-04-02 | 2011-11-04 | Nec Corp | データ移行システム、及び、データ移行方法 |
JP2012133436A (ja) * | 2010-12-20 | 2012-07-12 | Nec Corp | データ記憶装置、データ移行方法、及び、プログラム |
KR101189766B1 (ko) * | 2008-12-22 | 2012-10-10 | 한국전자통신연구원 | 데이터 서버로 분산 수집된 접근 횟수 기반의 핫 데이터 관리 방법 |
US8443160B2 (en) | 2010-08-06 | 2013-05-14 | Hitachi, Ltd. | Computer system and data migration method |
US8560631B2 (en) | 2002-06-03 | 2013-10-15 | Hitachi, Ltd. | Storage system |
US9292211B2 (en) | 2011-03-02 | 2016-03-22 | Hitachi, Ltd. | Computer system and data migration method |
US9489150B2 (en) | 2003-08-14 | 2016-11-08 | Dell International L.L.C. | System and method for transferring data between different raid data storage types for current data and replay data |
JP2017174219A (ja) * | 2016-03-24 | 2017-09-28 | 日本電気株式会社 | 情報処理システム、ストレージ装置、情報処理方法及びプログラム |
-
2001
- 2001-02-28 JP JP2001053458A patent/JP4115093B2/ja not_active Expired - Fee Related
Cited By (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1348860A2 (en) | 2002-03-25 | 2003-10-01 | Toyoda Koki Kabushiki Kaisha | Crankshaft and engine |
JP2008171420A (ja) * | 2002-04-26 | 2008-07-24 | Hitachi Ltd | 記憶装置システムの制御方法および記憶制御装置 |
US7337292B2 (en) | 2002-05-27 | 2008-02-26 | Hitachi, Ltd. | Method and apparatus for data relocation between storage subsystems |
US8560631B2 (en) | 2002-06-03 | 2013-10-15 | Hitachi, Ltd. | Storage system |
US7127445B2 (en) | 2002-06-06 | 2006-10-24 | Hitachi, Ltd. | Data mapping management apparatus |
JP2004133885A (ja) * | 2002-06-12 | 2004-04-30 | Hitachi Ltd | 複製ボリュームを管理するための方法と装置 |
JP2004252934A (ja) * | 2002-06-12 | 2004-09-09 | Hitachi Ltd | 複製ボリュームを管理するための方法と装置法 |
JP4508554B2 (ja) * | 2002-06-12 | 2010-07-21 | 株式会社日立製作所 | 複製ボリュームを管理するための方法と装置 |
JP2006505069A (ja) * | 2002-11-01 | 2006-02-09 | ブルアーク ユーケー リミテッド | ハードウェアベースのファイルシステムのための装置および方法 |
JP2007048323A (ja) * | 2002-11-25 | 2007-02-22 | Hitachi Ltd | 仮想化制御装置およびデータ移行制御方法 |
JP4509089B2 (ja) * | 2002-11-25 | 2010-07-21 | 株式会社日立製作所 | 仮想化制御装置及びデータ移行制御方法 |
US7689573B2 (en) | 2002-12-11 | 2010-03-30 | Hitachi, Ltd. | Prefetch appliance server |
US7509331B2 (en) | 2003-03-28 | 2009-03-24 | Hitachi, Ltd. | Method and apparatus for managing faults in storage system having job management function |
US7552138B2 (en) | 2003-03-28 | 2009-06-23 | Hitachi, Ltd. | Method and apparatus for managing faults in storage system having job management function |
US7089347B2 (en) | 2003-03-31 | 2006-08-08 | Hitachi, Ltd. | Computer system for managing performances of storage apparatus and performance management method of the computer system |
US7694070B2 (en) | 2003-03-31 | 2010-04-06 | Hitachi, Ltd. | Computer system for managing performances of storage apparatus and performance management method of the computer system |
US10067712B2 (en) | 2003-08-14 | 2018-09-04 | Dell International L.L.C. | Virtual disk drive system and method |
JP2011054180A (ja) * | 2003-08-14 | 2011-03-17 | Compellent Technologies | 仮想ディスク・ドライブのシステムおよび方法 |
US9047216B2 (en) | 2003-08-14 | 2015-06-02 | Compellent Technologies | Virtual disk drive system and method |
US9436390B2 (en) | 2003-08-14 | 2016-09-06 | Dell International L.L.C. | Virtual disk drive system and method |
US8555108B2 (en) | 2003-08-14 | 2013-10-08 | Compellent Technologies | Virtual disk drive system and method |
US9021295B2 (en) | 2003-08-14 | 2015-04-28 | Compellent Technologies | Virtual disk drive system and method |
US9489150B2 (en) | 2003-08-14 | 2016-11-08 | Dell International L.L.C. | System and method for transferring data between different raid data storage types for current data and replay data |
US8560880B2 (en) | 2003-08-14 | 2013-10-15 | Compellent Technologies | Virtual disk drive system and method |
JP2007115264A (ja) * | 2003-09-17 | 2007-05-10 | Hitachi Ltd | 記憶システム |
JP4486632B2 (ja) * | 2003-09-17 | 2010-06-23 | 株式会社日立製作所 | 記憶システム |
US7590818B2 (en) | 2003-10-06 | 2009-09-15 | Hitachi, Ltd. | Storage system having a plurality of virtualization apparatuses that allocate a storage area, form a plurality of virtual volumes, and process input-output from a host processor |
US7506120B2 (en) | 2003-12-17 | 2009-03-17 | Hitachi, Ltd. | Data transfer virtualization system |
JP4547162B2 (ja) * | 2004-01-27 | 2010-09-22 | 株式会社日立製作所 | 動的負荷分散方法 |
JP2005215715A (ja) * | 2004-01-27 | 2005-08-11 | Hitachi Ltd | 動的負荷分散方法 |
US7917720B2 (en) | 2004-02-19 | 2011-03-29 | Hitachi, Ltd. | Method for rearranging a logical volume |
US8151078B2 (en) | 2004-02-19 | 2012-04-03 | Hitachi, Ltd. | Method for rearranging a logical volume in a network connected storage system |
JP2005234834A (ja) * | 2004-02-19 | 2005-09-02 | Hitachi Ltd | 論理ボリュームの再配置方法 |
US8155431B2 (en) | 2004-04-26 | 2012-04-10 | Olympus Corporation | Image file processing apparatus which generates an image file to include stereo image data, collateral data related to the stereo image data, information of a date and time at which the collateral data is updated, and information of a date and time at which the image file is generated or updated, and corresponding image file processing method |
US8693764B2 (en) | 2004-04-26 | 2014-04-08 | Olympus Corporation | Image file processing apparatus which generates an image file to include stereo image data and collateral data related to the stereo image data, and information related to an image size of the stereo image data, and corresponding image file processing method |
WO2005115016A1 (ja) * | 2004-04-26 | 2005-12-01 | Olympus Corporation | 画像処理装置、画像加工・編集装置、画像ファイル再生装置、画像処理方法、画像加工・編集方法及び画像ファイル再生方法 |
JP4723925B2 (ja) * | 2004-06-29 | 2011-07-13 | 株式会社日立製作所 | ボリューム活動に従ってストレージポリシーをコントロールするための方法 |
JP2006012156A (ja) * | 2004-06-29 | 2006-01-12 | Hitachi Ltd | ボリューム活動に従ってストレージポリシーをコントロールするための方法 |
JP2008047156A (ja) * | 2004-08-30 | 2008-02-28 | Hitachi Ltd | ストレージシステム及びデータ再配置制御装置 |
JP4549787B2 (ja) * | 2004-09-10 | 2010-09-22 | 株式会社日立製作所 | ストレージ装置 |
JP2006079432A (ja) * | 2004-09-10 | 2006-03-23 | Hitachi Ltd | ストレージ装置およびそのボリューム再配置方法 |
JP4815449B2 (ja) * | 2004-11-19 | 2011-11-16 | ネットアップ,インコーポレイテッド | 共有バックエンドストレージを備えた複数のストレージシステムにわたりユーザワークロードのバランスをリアルタイムにとるシステム、及び方法 |
JP2008521140A (ja) * | 2004-11-19 | 2008-06-19 | ネットワーク・アプライアンス・インコーポレイテッド | 共有バックエンドストレージを備えた複数のストレージシステムにわたりユーザワークロードのバランスをリアルタイムにとるシステム、及び方法 |
JP2007018455A (ja) * | 2005-07-11 | 2007-01-25 | Hitachi Ltd | データマイグレーション方法又はデータマイグレーションシステム |
JP2007079774A (ja) * | 2005-09-13 | 2007-03-29 | Hitachi Ltd | ファイルシステムの構築方法 |
JP4704161B2 (ja) * | 2005-09-13 | 2011-06-15 | 株式会社日立製作所 | ファイルシステムの構築方法 |
JP2007226596A (ja) * | 2006-02-24 | 2007-09-06 | Hitachi Ltd | 記憶制御装置及び記憶制御装置を用いたデータマイグレーション方法 |
JP2008033911A (ja) * | 2006-07-27 | 2008-02-14 | Hitachi Ltd | 記憶ボリューム間でデータを移行する方法および装置 |
JP2008033517A (ja) * | 2006-07-27 | 2008-02-14 | Hitachi Ltd | ファイル格納制御装置及び方法 |
JP2007257646A (ja) * | 2007-04-06 | 2007-10-04 | Hitachi Ltd | ストレージ集中管理方法 |
JP4552957B2 (ja) * | 2007-04-06 | 2010-09-29 | 株式会社日立製作所 | ストレージ集中管理方法 |
JP2009098941A (ja) * | 2007-10-17 | 2009-05-07 | Internatl Business Mach Corp <Ibm> | ストレージ・デバイス間のデータ複製を制御する制御装置、方法、プログラム及びストレージ・システム |
KR101189766B1 (ko) * | 2008-12-22 | 2012-10-10 | 한국전자통신연구원 | 데이터 서버로 분산 수집된 접근 횟수 기반의 핫 데이터 관리 방법 |
JP2011221570A (ja) * | 2010-04-02 | 2011-11-04 | Nec Corp | データ移行システム、及び、データ移行方法 |
US8892840B2 (en) | 2010-08-06 | 2014-11-18 | Hitachi, Ltd. | Computer system and data migration method |
US8443160B2 (en) | 2010-08-06 | 2013-05-14 | Hitachi, Ltd. | Computer system and data migration method |
JP2012133436A (ja) * | 2010-12-20 | 2012-07-12 | Nec Corp | データ記憶装置、データ移行方法、及び、プログラム |
US9292211B2 (en) | 2011-03-02 | 2016-03-22 | Hitachi, Ltd. | Computer system and data migration method |
JP2017174219A (ja) * | 2016-03-24 | 2017-09-28 | 日本電気株式会社 | 情報処理システム、ストレージ装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP4115093B2 (ja) | 2008-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4862006B2 (ja) | 計算機システム | |
JP4115093B2 (ja) | 計算機システム | |
US8230194B2 (en) | Storage device | |
US7941632B2 (en) | Storage virtualization system with dynamic allocation of physical storage space | |
US7069380B2 (en) | File access method in storage-device system, and programs for the file access | |
KR100439675B1 (ko) | 대용량 공유 저장장치를 위한 효율적인 스냅샷 수행방법 | |
US8204858B2 (en) | Snapshot reset method and apparatus | |
US6895483B2 (en) | Method and apparatus for data relocation between storage subsystems | |
JP2004110218A (ja) | Dbms向け仮想ボリューム作成・管理方法 | |
US20090193207A1 (en) | Computer system, remote copy method and first computer | |
JP2007102760A (ja) | ストレージエリアネットワークにおけるボリュームの自動割り当て | |
US11409454B1 (en) | Container ownership protocol for independent node flushing | |
US7882086B1 (en) | Method and system for portset data management | |
JP4409521B2 (ja) | 記憶装置 | |
US11853574B1 (en) | Container flush ownership assignment | |
US20230325324A1 (en) | Caching techniques | |
US20040255833A1 (en) | Method, system, and article of manufacture for selecting replication volumes | |
JP2022070669A (ja) | データベースシステム、及びクエリ実行方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040914 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070410 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070604 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20070604 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20070731 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080229 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080415 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110425 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110425 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120425 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120425 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130425 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |