JP2003296039A - クラスタ構成記憶システム及び制御方法 - Google Patents

クラスタ構成記憶システム及び制御方法

Info

Publication number
JP2003296039A
JP2003296039A JP2002100220A JP2002100220A JP2003296039A JP 2003296039 A JP2003296039 A JP 2003296039A JP 2002100220 A JP2002100220 A JP 2002100220A JP 2002100220 A JP2002100220 A JP 2002100220A JP 2003296039 A JP2003296039 A JP 2003296039A
Authority
JP
Japan
Prior art keywords
storage system
information
node
resource
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002100220A
Other languages
English (en)
Inventor
Takashi Arakawa
敬史 荒川
Takashi Oeda
高 大枝
Naoto Matsunami
直人 松並
Hiroharu Arai
弘治 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2002100220A priority Critical patent/JP2003296039A/ja
Priority to US10/300,555 priority patent/US7761677B2/en
Publication of JP2003296039A publication Critical patent/JP2003296039A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2206/00Indexing scheme related to dedicated interfaces for computers
    • G06F2206/10Indexing scheme related to storage interfaces for computers, indexing schema related to group G06F3/06
    • G06F2206/1008Graphical user interface [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2206/00Indexing scheme related to dedicated interfaces for computers
    • G06F2206/10Indexing scheme related to storage interfaces for computers, indexing schema related to group G06F3/06
    • G06F2206/1012Load balancing

Abstract

(57)【要約】 【課題】 管理者が、ノード毎のリソース使用状況を把
握して管理することを可能とし、クラスタ構成の記憶シ
ステムの管理コストの削減を図る。 【解決手段】 管理サーバは、各ノードのデータ物理位
置情報を統合して有し、クラスタ構成記憶システムの構
成及び各ノードの構成と関連付けて提示する手段を備え
る。ノードは、処理に際し使用するリソースの量や負荷
を取得する手段を備え、管理サーバは、のリソース使用
状況を各サーバから収集して集計する手段と、リソース
使用状況と前記データ情報と前記構成情報とを関連付け
て、階層を設けて提示する手段を備える。さらに、論理
ボリュームをノード間においてホストコンピュータには
透過に移動する手段を備える。管理サーバは、情報表示
により移動元データと移動先物理位置との選択を支援す
る手段と、前記移動の指示を受領し、前記クラスタ構成
記憶システムに移動を指示する手段を備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、記憶システム及び
その制御方法に係り、特に、複数の記憶システムノード
を1つの記憶システムとして運用可能とするクラスタ構
成の記憶システム及びその制御方法に関する。
【0002】
【従来の技術】記憶システムに関する従来技術として、
例えば、特開平11−167521号公報等に記載され
た技術が知られている。この従来技術は、記憶システム
を使用する上位装置であるホストコンピュータに対する
インタフェースとしてのホストアダプタ、記憶システム
内の磁気ディスク装置等の記憶装置に対するインタフェ
ースとしてのディスクアダプタ、キャッシュメモリ、管
理メモリの相互間をコモンバス方式で接続して、記憶シ
ステム(ストレージシステム)を構成したものである。
【0003】前述したような構成の記憶システムのシス
テム構成を拡張する場合、ホストアダプタ、ディスクア
ダプタ、キャッシュメモリ、管理メモリ、記憶システム
等の構成要素が新たに追加される。例えば、ホストコン
ピュータとの接続数を増加させる場合、ホストアダプタ
が新たにコモンバスに接続される。また、記憶システム
の記憶容量を増加させる場合、記憶装置を追加する、ま
たは、ディスクアダプタを新たにコモンバスに接続して
記憶装置を追加する。
【0004】一方、格納されるデータを記憶装置に柔軟
に配置するため、ホストコンピュータがアクセスする論
理記憶領域と記憶装置の記憶領域を示す物理記憶領域と
の対応づけるためのアドレス変換を行う記憶システムに
関する従来技術として、例えば、特開平9−27454
4号公報に記載された技術が知られている。この従来技
術は、ホストコンピュータからの論理記憶領域に対する
I/Oアクセスについての情報を取得する手段と、論理
記憶領域の物理記憶領域への対応づけを変更して物理的
再配置を行う手段とにより、格納されたデータの最適配
置を実現するというものである。
【0005】前述した従来技術は、記憶システムのシス
テム拡張にあたり、ホストアダプタ、ディスクアダプ
タ、キャッシュメモリ、管理メモリ、記憶装置などの記
憶システムの構成要素を増設することにより対応してい
るため、記憶システムの拡張性が、記憶システムの構成
要素の最大搭載数に制限されている。このため、前述の
従来技術は、記憶システムの大規模化の要求に応じるた
めに、記憶システムの構成要素の最大搭載数を大きくす
ると、小規模な記憶システムの要求時にコストや筐体体
積や設置面積が大きくなってしまうという問題点を有し
ている。
【0006】前述のような問題点を解決することのでき
る従来技術として、クラスタ構成の記憶システムがあ
る。クラスタ構成の記憶システムは、複数の前述したよ
うな記憶システムを接続して構成され、しかも、ホスト
コンピュータからは1つの記憶システムとして運用可能
なものであり、ユーザによって1つの記憶システムとし
て管理可能とした記憶システムである。以下では、この
ようなクラスタ構成の記憶システムを構成する小規模な
記憶システムを記憶システムノードと呼ぶ。
【0007】クラスタ構成の記憶システムは、小規模な
記憶システムが要求されたとき、少数の記憶システムノ
ードを用いてクラスタ構成記憶システムを構成し、大規
模な記憶システムが要求されたとき、より多数の記憶シ
ステムノードを用いてクラスタ構成記憶システムを構成
することができ、ユーザの要求する規模に最適なコスト
や筐体体積や設置面積で対応することができる。このよ
うに、クラスタ構成の記憶システムは、小規模なシステ
ムから大規模なシステムまで対応することが可能であ
る。また、クラスタ構成の記憶システムは、例えば、あ
るノードに格納されているデータに対し他のノードが有
するインタフェースからアクセスを可能にするといった
手段を有し得る。このように、ホストコンピュータから
は1つの記憶システムとして運用可能であり、このため
記憶システムの管理及びホストコンピュータを含めた計
算機システム全体の容易になり、複数の記憶システムを
使用する場合に比べ、管理コストを削減できるという利
点を有している。
【0008】前述のようなクラスタ構成の記憶システム
において、記憶システムノードは、それぞれ独立にプロ
セッサ、メモリ、記憶装置、キャッシュ等のリソースを
有している。さらに、記憶システムノードは、配下の記
憶装置へのI/O処理や、その他の記憶装置に格納され
ているデータについての処理を、前記ノード自身が有す
るリソースを用いて行うことにより、ノード内の処理や
リソース管理を容易にし、また、システム管理者による
システム構成の計画立案やシステム管理を容易にするこ
とができる。
【0009】
【発明が解決しようとする課題】しかし、前述したよう
な従来技術によるクラスタ構成の記憶システムは、クラ
スタ構成の記憶システム自身が1つの記憶システムとし
て運用されるため、ホストコンピュータでの処理、また
は、システム管理者やユーザは、あるデータについて前
記クラスタ構成の記憶システムのどのノードのインタフ
ェースからアクセス可能かといった点は考慮できても、
前記データが実際にどのノードの記憶装置に格納されて
どのノードのリソースをどれだけ使用して処理されるか
という点については把握し考慮することができず、以下
に説明するような問題を生じさせることがる。
【0010】すなわち、前述のクラスタ構成の記憶シス
テムは、特定の記憶システムノードが格納しているデー
タに対して処理が集中した場合、前記ノードにおけるリ
ソースの量や処理能力が不足し、この結果、前記ノード
においてプロセッサボトルネック、キャッシュ過負荷、
ライトバックキャッシュデータの記憶装置への反映待ち
によるライト性能低下、キャッシュヒット率低下、内部
バスボトルネック、記憶装置過負荷によるボトルネック
などが発生して、前記ノードにおいてのみ処理性能が低
下するという問題点を生じさせる。
【0011】また、前述のクラスタ構成の記憶システム
は、前記ノードにおいて特定のデータの処理によってキ
ャッシュが占有されて、他のより高速な応答が求められ
るデータの処理に対してキャッシュヒット率が低下する
といった、ある処理により他の処理の実行が阻害されて
各種処理の性能が低下することがあるという問題点を有
している。
【0012】さらに、前述のクラスタ構成の記憶システ
ムは、あるノードが高速な記憶装置や大量のキャッシュ
メモリといった潤沢なリソースを持つにもかかわらず、
処理優先度が高く高速なI/O性能が要求されるデータ
が、より低速な記憶装置や少量のキャッシュメモリとい
った乏しいリソースを持つノードで処理され、前記デー
タに要求されるI/O性能を満たすことができないとい
った、格納データと使用リソースとの最適でない配置に
よる処理性能低下が生じることがあるという問題点を有
している。
【0013】本発明の目的は、前述した従来技術による
クラスタ構成の記憶システムの問題点を解決し、システ
ム管理者や保守員やユーザ等の管理者が、論理ボリュー
ムと、前記論理ボリュームのデータを格納し処理するノ
ードとの関係を容易に認識し、これにより、ノード毎の
リソース使用状況を把握して管理することを可能とし、
処理負荷集中やリソース使用の集中等の問題の発生に対
して効率よく分析調査を行うことを可能にして、管理コ
ストの削減を図ることのできるクラスタ構成の記憶シス
テムを提供することにある。
【0014】具体的にいえば、本発明の第1の目的は、
1つの記憶システムとして運用可能なクラスタ構成記憶
システムにおいて、システム管理者やユーザに対し、前
記クラスタ構成記憶システムに記憶され使用されるデー
タ、特に、論理ボリュームと、前記データを処理するノ
ードとを対応付けて管理する手段を提供することにあ
る。
【0015】本発明の第2の目的は、前述のクラスタ構
成記憶システムにおいて、システム管理者やユーザに対
し、ノード毎のリソース使用状況を把握して管理するこ
とができる手段を提供すると共に、処理負荷集中やリソ
ース使用の集中等の問題の発生に対して警告などにより
注意を促し、また、前述の問題の発生の検出及びその分
析調査を支援する手段を提供することにある。
【0016】さらに、本発明の第3の目的は、前述のク
ラスタ構成記憶システムにおいて、前記クラスタ構成記
憶システムに格納されるデータの物理位置をホストコン
ピュータには透過に、特に、ノード間で移動し、特定の
ノードにおける処理負荷集中やリソース使用集中を解消
し、また、処理の分散/配置の最適化による処理相互間
の阻害を回避し、また、リソースの量や性能や属性を考
慮したデータ物理位置最適化や処理分担最適化を実現す
る手段を提供することにある。
【0017】
【課題を解決するための手段】本発明によれば前記目的
は、複数の記憶システムを1つの記憶システムとして運
用するクラスタ構成記憶システムにおいて、前記記憶シ
ステムが有し、前記記憶システムに格納されるデータに
関する処理に使用する前記記憶システムのリソースの構
成、及び、リソースの使用量、使用負荷の少なくとも一
方を取得する手段と、データを使用する計算機に対して
クラスタ構成記憶システムが提供するアドレス情報と、
各記憶システムの前記リソース情報との関連を提示する
手段と、前記関連に基づいて前記リソース情報を提示す
る手段とを備えることにより達成される。
【0018】また、前記目的は、複数の記憶システムを
1つの記憶システムとして運用するクラスタ構成記憶シ
ステムの制御方法において、前記記憶システムが有し、
前記記憶システムに格納されるデータに関する処理に使
用する前記記憶システムのリソースの構成、及び、リソ
ースの使用量、使用負荷の少なくとも一方を取得し、デ
ータを使用する計算機に対してクラスタ構成記憶システ
ムが提供するアドレス情報と、各記憶システムの前記リ
ソース情報との関連を提示し、前記関連に基づいて前記
リソース情報を提示し、データを使用する計算機からの
使用を停止させることなく、前記記憶システム間での前
記データの再配置を行うことにより達成される。
【0019】前述において、クラスタ構成記憶システム
を管理するサーバが備えられ、該サーバは、クラスタ構
成記憶システムを構成する各記憶システムとしてのノー
ドのデータ物理位置情報を統合して有し、クラスタ構成
記憶システムの構成及び各ノードの構成と関連付けて提
示する手段を備える。また、前記ノードは、処理に際し
使用するリソースの量や負荷を取得する手段を備え、前
記管理サーバは、前記のリソース使用状況を各サーバか
ら収集して集計する手段と、前記リソース使用状況と前
記データ情報と前記構成情報と関連付けて、階層を設け
て提示する手段を備える。また、前記クラスタ構成記憶
システムは格納しているデータをノード間においてもホ
ストコンピュータには透過にオンラインのまま移動する
手段を備え、前記管理サーバは前記情報表示により移動
元データと移動先物理位置の選択を支援する手段と、前
記移動の指示を受領し、前記クラスタ構成記憶システム
に移動を指示する手段を備える。
【0020】
【発明の実施の形態】以下、本発明によるクラスタ構成
の記憶システムの実施形態を図面により詳細に説明す
る。
【0021】図1は本発明の一実施形態によるクラスタ
構成の記憶システムを用いた計算機システムの構成を示
すブロック図、図2は図1におけるノードの構成を示す
ブロック図である。図1、図2において、100はクラ
スタストレージ、110(110−1〜110−3)は
ノード、120はキャッシュ、130は物理ディスク、
140はバス、150は内部接続インタフェース(I/
F)、160は内部接続スイッチ、170は内部接続バ
ス、180はポート、200はチャネルプロセッサ(C
HP)、201はポート情報、202は物理位置情報、
203はキャッシュ管理情報、204、301、402
はリソース使用情報、205、302、403はリソー
ス情報、206、310、405は閾値情報、210、
310はローカルメモリ、300はディスクプロセッサ
(DKP)、400は管理サーバ、401はボリューム
情報、404は空き領域情報、490は管理ネットワー
ク、500はホスト、590はネットワーク、600は
I/Oパスである。
【0022】図1に示す計算機システムは、クラスタ構
成の記憶システムであるクラスタストレージ100、管
理サーバ400、1または複数のホスト500から構成
される。クラスタストレージ100は、複数のノード1
10から構成される。ノード110は、1つの記憶シス
テムとして機能し、CHP200、キャッシュ120、
DKP300、1または複数の物理ディスク130、内
部接続I/F150を備え、相互にバス140により接
続されて構成されている。クラスタストレージ100内
の各ノード110は、内部接続I/F150と内部接続
スイッチ160とを介して内部接続バス170により相
互に接続されている。ホスト500は、I/Oパス60
0を介して、クラスタストレージ100においてCHP
200が提供するポート180に接続されている。
【0023】I/Oパス600で用いられるプロトコル
及び規格の例としては、ファイバチャネル(FC)やI
PやInfini Band 等を挙げることができる。管理サーバ
400とホスト500とはネットワーク590で接続さ
れている。管理サーバ400とCHP200とDKP3
00とは、管理ネットワーク490により接続されてい
る。管理ネットワーク490やネットワーク590で用
いられるプロトコル及び規格の例としては、IPを挙げ
ることができる。
【0024】CHP200、DKP300、管理サーバ
400、ホスト500は、処理を行うためのメモリやC
PU等の計算機において必ず存在する構成要素を備えて
いるが、以下では説明を簡単にするため、ここでは必ず
しも明記しない。
【0025】物理ディスク130は、各ノード110に
1つまたは複数存在する、例えば、磁気ディスク等の記
憶装置であり、ホスト500が使用するデータの記憶や
再生を行う機能を有する。物理ディスク130は、単一
の磁気ディスクでもよく、またRAIDとして知られて
いるストライピングやパリティやミラーによる冗長性付
加等の構成をとっていてもよい。CHP200は、後述
する物理位置情報202に基づいて物理ディスク130
上の記憶領域から論理ボリュームを構成し、仮想的な記
憶デバイスとしてホスト500に提供する。前述の論理
ボリュームの提供において、CHP200は、論理ボリ
ュームをポート180に関係付け、ホスト500は、前
述のポート180を介して前記論理ボリュームにアクセ
スする。
【0026】一般に、CHP200は、論理ボリューム
に、ポート180の他、前記ポート180におけるター
ゲットID、論理ユニット番号といったI/Oパス60
0上のアドレスを関係付け、ホスト500は、前述のア
ドレスを指定して前記論理ボリュームにアクセスする
が、以下では、説明を簡単にするためにこれらについて
の説明を省略し、ポート情報201及びボリューム情報
401が前記アドレスに関する情報も含んでいて、CH
P200や管理サーバ400は、前記情報に含まれる前
記アドレスを使用して処理を行うものとする。1つの論
理ボリュームに関係付けられるポート180及び前記ア
ドレスは複数あり得る。
【0027】前述した図1に示す計算機システムは、ク
ラスタストレージを1台だけ示しているが、本発明は、
複数のクラスタストレージを複数台設けて1台の管理サ
ーバに管理させるように構成することもできる。また、
1台のクラスタストレージ内に備えられるノードの数
も、さらに多数であってよい。さらに、各ホストと各ノ
ード内のCHPとを接続するI/Oパスの数も、図示例
に限らず任意に設定することができる。
【0028】ノード110は、図2に示すように、CH
P200内に、ローカルメモリ210を有し、ローカル
メモリに210に、ポート情報201、物理位置情報2
02、キャッシュ管理情報203、リソース使用情報2
04、リソース情報205、閾値情報206を格納し、
また、DKP300内に、ローカルメモリ310を有
し、ローカルメモリに、リソース使用情報301、リソ
ース情報302、閾値情報303を格納して構成されて
いる。
【0029】図3はポート情報201の例について説明
する図、図4は物理位置情報202の例を説明する図、
図5はキャッシュ管理情報203の例を説明する図であ
り、次に、CHP200のローカルメモリ210内に格
納されるこれらの情報について説明する。
【0030】ポート情報201は、図3に示すように、
論理ボリューム番号とポート番号との対により構成され
る。論理ボリューム番号は、論理ボリュームを示す番号
であり、クラスタストレージ100において一意の番号
である。ポート番号は、論理ボリュームが関係付けられ
ているポート180を示す番号である。
【0031】物理位置情報202は、図4に示すよう
に、論理ボリューム番号、ノード番号、物理ディスク番
号、物理アドレス、容量、移動先ノード番号、移動先物
理ディスク番号、移動先物理アドレス、状態により構成
される。図4において、論理ボリューム番号は、ポート
情報201に関して説明した図3の場合と同一の番号で
ある。ノード番号は、論理ボリュームのデータを格納し
ている物理ディスク130が存在するノードを示す番号
である。物理ディスク番号は、前記の物理ディスク13
0を示す番号である。物理アドレスは、前記物理ディス
ク130において前記論理ボリュームのデータの格納領
域の開始位置を示すアドレスである。容量は、前記物理
ディスク130において前記格納領域の大きさを示す値
である。移動先ノード番号、移動先物理ディスク番号及
び移動先物理アドレスは、後述の論理ボリュームの移動
処理における移動先を示す情報であり、これらについて
は後述する。状態(ステータス)は、論理ボリュームの
状態を示し、「正常」は使用可能であることを、「障
害」は使用不可であることを、「移動中」は後述の移動
処理を実行中であることを示す。
【0032】前述したような物理位置情報202の1つ
の論理ディスク番号のエントリにおいて、複数のノード
番号、物理ディスク番号、物理アドレス、容量のエント
リが存在する場合、1つの論理ボリュームが複数の格納
領域から構成されていることを示し、図4に示す例の場
合、上から順に前記格納領域が結合されていることを示
す。ポート情報201と物理位置情報202とに存在す
る論理ボリュームのエントリは、前記情報を保持するC
HP200がリード/ライトコマンド受領処理を担当す
る論理ボリュームであり、論理ボリュームの構成(生
成)/解放(削除)によって物理位置情報202が更新
され、論理ボリュームのポートへの関係付け/関係解除
によりポート情報201が更新される。
【0033】キャッシュ管理情報203は、図5に示す
ように、物理ディスク番号、物理アドレス、メモリアド
レス及びダーティフラグから構成される。図5におい
て、物理ディスク番号、物理アドレスは、キャッシュ1
20に格納しているデータを格納すべき物理ディスク1
30及びその格納領域(一定長からなるセグメント)を
示す。メモリアドレスは、データのキャッシュ120上
のアドレスを示す。ダーティフラグは、データが物理デ
ィスク130に反映済みであるか、未反映(ダーティ)
であるかを示す。キャッシュ管理情報203のエントリ
は、キャッシュ管理情報203が存在するノードの物理
ディスクに対応しており、キャッシュ120上に領域が
確保されてデータが格納された場合や、キャッシュ12
0の領域不足により格納しているデータが物理ディスク
130に書き出され領域が解放された場合に更新され
る。キャッシュ管理情報203は、一般には、例えば、
ハッシュテーブル等を用いて高速に検索することがで
き、また、ダーティフラグがダーティなエントリについ
てはリスト構造が設けられて物理ディスク130に未反
映のデータを高速に検索できるような工夫がなされてい
る。
【0034】図6、図7はホスト500が論理ボリュー
ムにリード/ライトする際の処理動作を説明するフロー
チャートであり、次に、図6、図7に示すフローを参照
して、ホスト500がクラスタストレージ100の提供
する論理ボリュームにアクセス(リード/ライト)する
際の処理について説明する。リード/ライト処理では、
前述で説明したポート情報201と物理位置情報202
とキャッシュ管理情報203とが使用される。
【0035】(1)ホスト500は、アクセス対象の論
理ボリュームが関係付けられているポート180に対し
I/Oパス160を介して、リードコマンドまたはライ
トコマンドを発行する(ステップ1001)。
【0036】(2)前述のポートを提供しているCHP
200(ここでは、ノードA110−1のCHP200
とする)は、前記ポート180を介してホスト500か
らのリード/ライトコマンドを受領し、アクセス対象の
論理ボリューム及びアドレス、リード/ライト要求種
別、リード/ライト長などを取得する(ステップ100
2)。
【0037】(3)ノードA110−1のCHP200
は、前記コマンドの受領ポートとアクセス対象の論理ボ
リュームとが正しいか否かをポート情報201を用いて
調べ、正しくない場合、ホスト500にエラーを報告し
て処理を終了する(ステップ1003、1004)。
【0038】(4)ステップ1003の調べで、コマン
ドの受領ポートとアクセス対象の論理ボリュームとが正
しかった場合、ノードA110−1のCHP200は、
リード/ライト要求種別を判別し、要求がリード要求で
あった場合、物理位置情報202を参照して前記論理ボ
リュームのステータスが何かを調べ、「正常」または
「移動中」ではなく、「障害」であった場合、ホスト5
00にエラーを報告して処理を終了する(ステップ10
05、1006、1014)。
【0039】(5)ステップ1006の調べで、ステー
タスが「正常」または「移動中」であった場合、ノード
A110−1のCHP200は、物理位置情報202の
前記論理ボリュームのエントリのノード番号、物理ディ
スク番号、物理アドレスを参照して、前記論理ボリュー
ムの存在するノード番号、物理ディスク番号、物理アド
レスを取得し、前記論理ボリュームの存在するノードの
CHP(ここではノードB110−2のCHP200と
する)に前記物理ディスク番号、リード対象アドレス、
リード長などを内部接続バス170を介して通知してリ
ード対象データを要求する(ステップ1007)。
【0040】(6)前記要求を受領したノードB110
−2のCHP200は、キャッシュ管理情報203を参
照して、対象データがノード110−2のキャッシュ1
20上に存在するか否かを調べ、存在する場合、後述す
るリソース使用情報204のキャッシュヒット率を更新
して、対象データを前記キャッシュ120からノードA
110−1のCHP200にバス140を介して転送す
る(ステップ1008、1009)。
【0041】(7)ステップ1008での調べで、対象
データがノードB110−2のキャッシュ120に存在
しなかった場合、ノードB110−2のCHP200
は、ノードB110−2のDKP300に前記物理ディ
スク番号、リード対象アドレス、リード長などをバス1
40を介して通知して対象データのキャッシュ120へ
の読み出しを要求する(ステップ1010)。
【0042】(8)前記要求を受けたノードBのDKP
300は、通知された物理ディスク130から対象デー
タを読み出して前記キャッシュ120に格納して、キャ
ッシュ管理情報203を更新し、ノードB110−2の
CHP200に読み出し完了をバス140を介して通知
する。前述の処理においてDKP300は、CHP20
0のキャッシュ管理情報203をバス140を介して排
他的に参照/更新可能である。すなわち、キャッシュ管
理情報203は、CHP200とDKP300とにより
共有される情報である(ステップ1011)。
【0043】(9)前記通知を受けたノードBのCHP
200は、キャッシュ管理情報203を参照して前記キ
ャッシュ120から対象データを読み出して内部接続バ
ス170を介してノードA110−1のCHP200へ
転送し、後述するリソース使用情報204のキャッシュ
ヒット率を更新する(ステップ1012)。
【0044】(10)ステップ1012の処理またはステ
ップ1009の処理の後、対象データを受領したノード
A110−1のCHP200は、前記ホスト500へ前
記対象データをI/Oパス160を介して転送し、リー
ド完了を通知し、リード処理を終了する(ステップ10
13)。
【0045】(11)ステップ1005の調べで、ホスト
500からの要求がライト要求であった場合、ノードA
110−1のCHP200は、物理位置情報202を参
照してライト対象の論理ボリュームのステータスを調べ
る(ステップ1101)。
【0046】(12)ステップ1101の調べで、ステー
タスが「正常」であった場合、ノードA110−1のC
HP200は、物理位置情報202から前記論理ボリュ
ームの存在するノード番号、物理ディスク番号、物理ア
ドレスを取得し、前記論理ボリュームの存在するノード
のCHP(ノードB110−2のCHP200とする)
に前記物理ディスク番号、ライト対象アドレス、ライト
長等を通知すると共に、ライト対象データの転送開始を
通知し、前記対象データをホスト500から受領してノ
ードB110−2のCHP200に内部接続バス170
を介して転送する(ステップ1102)。
【0047】(13)前記通知を受けたノードB110−
2のCHP200は、前記対象データを受領してキャッ
シュ120に格納し、キャッシュ管理情報203を更新
し、前記キャッシュ管理情報203のダーティフラグを
ダーティに設定し、ノードA110−1のCHP200
にライト完了を通知する。キャッシュ120は、例え
ば、バッテリバックアップによる不揮発化及び2重化等
により耐障害性が確保されている(ステップ110
3)。
【0048】(14)前記通知を受けたノードA110−
1のCHP200は、ホスト500にライト完了を通知
し、ライト処理を終了する(ステップ1104)。
【0049】(15)ステップ1101の調べで、ステー
タスが「障害」であった場合、ノードA110−1のC
HP200は、ホスト500にライト失敗を通知してラ
イト処理を終了する。また、前記ステータスが「移動
中」であった場合、後述するように、ライトの二重化を
行った後、ライト処理を終了する(ステップ1105、
1106)。
【0050】ノードB110−2のDKP300は、非
同期にキャッシュ管理情報203を参照して、ダーティ
フラグがダーティのデータを検索し、ダーティのデータ
を物理ディスク130に書き込み、前記ダーティフラグ
を反映済みに設定する。この処理によりライト対象デー
タが物理ディスク130に格納される。
【0051】1つの論理ボリュームが物理ディスク13
0上の複数の格納領域から構成されている場合、ノード
A110−1のCHP200は、前述したの処理を個々
の格納領域について行う。例えば、前述の格納領域が複
数のノード110に存在する場合、ノードA110−1
のCHP200は、それぞれのノード110に対して処
理の要求を行い、前記各ノードから処理結果の通知を受
領してリード/ライト処理を進める。
【0052】前述で説明した処理において、各CHP2
00及び各DKP300は、処理に使用したリソースの
使用状況に関する情報を計測し、CHP200のリソー
ス使用情報204及びDKP300のリソース使用情報
301に記録する。
【0053】図8はCHP200のリソース使用情報2
04の例を説明する図、図9はDKP300のリソース
使用情報301の例を説明する図であり、次に、これら
の情報について説明する。
【0054】リソース使用情報204は、図4に示すよ
うに、全体/論理ボリューム番号毎に、キャッシュ使用
量(MB)、キャッシュ転送頻度(MB/s)、キャッ
シュヒット率(%)、プロセッサ1、2のそれぞれのプ
ロセッサ使用率、バス使用率(%)、バス転送頻度(M
B/s)、メモリ使用量(MB)の各情報を有して構成
される。このように構成されるリソース使用情報204
において、キャッシュ使用量は、キャッシュ120の使
用量であり、ライト処理でデータを格納することにより
増加する。また、キャッシュ使用量は、データをキャッ
シュ120に常駐化することによっても増加する。キャ
ッシュ転送頻度は、キャッシュ120における単位時間
当たりの流入量及び流出量であり、単位はMB/s等で
ある。キャッシュヒット率は((ヒットしたコマンド
数)/(全コマンド数))から計算されるキャッシュヒ
ット率である。プロセッサ使用率は、単位時間当たりの
CHPのプロセッサ使用時間である。バス使用率は、単
位時間当たりのバス140の使用時間である。バス転送
頻度は、バス140に関する単位時間当たりの流入量及
び流出量であり、単位はMB/s等である。メモリ使用
量は、CHPのローカルメモリの使用量である。CHP
200は、図8に示す前述の情報の値について、それぞ
れ論理ボリューム毎の値とその総和の2種類の値を集計
する。ある論理ボリュームについての処理に使用したリ
ソースの使用量が、前記論理ボリュームに関する値に集
計される。
【0055】DKP300のリソース使用情報301
は、図9にその一例を示すように、全体/論理ボリュー
ム番号毎に、プロセッサ使用率、バス使用率(%)、バ
ス転送頻度(MB/s)、メモリ使用量(MB)、ディ
スク使用率を有して構成される。そして、プロセッサ使
用率、バス使用率、バス転送頻度、メモリ使用量は、前
述したリソース使用情報204の例の説明と同様であ
る。ディスク使用率は、単位時間当たりの物理ディスク
130の使用時間であり物理ディスク番号毎のシーケン
シャルリード(%)、シーケンシャルライト(%)、ラ
ンダムリード(%)、ランダムライト(%)、合計
(%)の各使用率として示される。
【0056】DKP300は、先に説明したリード/ラ
イト処理において、リード/ライト種別やシーケンシャ
ル/ランダムアクセス種別毎に前記ディスク使用率を集
計する。DKP300は、前述の値についてCHP20
0と同様に、論理ボリューム毎の値とその総和の2種類
の値を集計するが、ディスク使用率については物理ディ
スク130毎にも集計する。物理ディスク番号は、論理
ボリュームまたは全体が使用する物理ディスク130の
番号である。
【0057】CHP200は、前述したリソース使用情
報204に集計された結果のいずれかが、閾値情報20
6に予め設定された各リソースの使用状況に関する閾値
を超えた場合、管理サーバ400に管理ネットワーク4
90を介して警告を通知する。同様に、DKP300
は、前述のリソース使用状況301に集計された結果の
いずれかが、閾値情報303に予め設定された各リソー
スの使用状況に関する閾値を超えた場合、管理サーバ4
00に管理ネットワーク490を介して警告を通知す
る。前述により各CHP200及び各DKP300は、
プロセッサやキャッシュ120やメモリやバス140や
物理ディスク130等のそれぞれのノード110のリソ
ースについて処理負荷の過大を検出することができる。
前記閾値情報206及び閾値情報303は、システム管
理者や保守員やユーザなどが設定するが、クラスタスト
レージ100に直接設定してもよく、また、管理サーバ
400を介して設定してもよい。各ノード110に同様
の閾値を設定することにより、特定のノードへの負荷の
集中を検出することができる。
【0058】図10は管理サーバが持つボリューム情報
401の例を説明する図、図11は管理サーバが持つ空
き領域情報404の例を説明する図であり、次に、これ
らの情報について説明する。
【0059】管理サーバ400は、ボリューム情報40
1、リソース使用情報402、リソース情報403、空
き領域情報404、閾値情報405を有し、計算機シス
テムの初期化時や構成変更時に、各ノード110のCH
P200からポート情報201と物理位置情報202及
び物理ディスク130の空き領域に関する情報を収集し
てボリューム情報401と空き領域情報404とを作成
する。
【0060】ボリューム情報401は、その一例を図1
0に示すように、論理ボリューム番号、ポート番号、ポ
ートノード番号、ノード番号、物理ディスク番号、物理
アドレス、容量の各情報により構成される。論理ボリュ
ーム番号は、論理ボリュームを示す番号であり、各ノー
ド110の物理位置情報202の論理ボリューム番号と
同一の番号である。ポート番号は、論理ボリュームが関
係付けられているポートを示す番号であり、ポート情報
201のポート番号と同一の番号である。ポートノード
番号は、前記ポートが存在するノード110を示す番号
である。ノード番号、物理ディスク番号、物理アドレ
ス、容量は、物理位置情報202のノード番号、物理デ
ィスク番号、物理アドレス、容量と同一である。
【0061】空き領域情報404は、その一例を図11
に示すように、各ノード110において使用されていな
い物理ディスクの格納領域を、ノード番号、物理ディス
ク番号、物理アドレス、容量の各情報により示したもの
であり、管理サーバ400は、空き領域情報404を用
いて各ノード110に存在する格納領域の空き領域を検
索することができる。
【0062】管理サーバ400は、各CHP200及び
各DKP300からリソース使用情報204及びリソー
ス使用情報301を管理ネットワーク490を介して収
集し、リソース使用情報402を集計する。リソース使
用情報402は、各ノードのリソース使用情報204及
びリソース使用情報301の集合であり、例えば、前述
で説明したリソース使用情報204及びリソース使用情
報301にノード番号を付与して管理したものである。
管理サーバ400は、リソース使用情報402をさらに
時系列的に蓄積して保持することにより、クラスタスト
レージ100のリソースの使用状況の履歴を記録する。
このような時系列的な保持は、管理サーバ400が各C
HP200及び各DKP300から単位時間毎にリソー
ス使用情報204及びリソース使用情報301を収集し
て蓄積して行ってもよいし、各CHP200及び各DK
P300がリソース使用情報204またはリソース使用
情報301をそれぞれ時系列的に蓄積し、蓄積した情報
を管理サーバ400が収集することにより行ってもよ
い。
【0063】さらに、管理サーバ400は、各CHP2
00及び各DKP300からリソース情報205及びリ
ソース情報302を管理ネットワーク490を介して収
集し、リソース情報403を作成する。CHP200が
有するリソース情報205の内容の例としては、キャッ
シュ120の容量、キャッシュ120の最大転送速度、
バス140の最大転送速度、CHP200のローカルメ
モリの容量等を挙げることができる。また、DKP30
0の有するリソース情報302の例としては、各物理デ
ィスク130の型名、容量、最大転送速度、物理アドレ
スによる物理ディスク130の最大転送速度分布、物理
ディスク130の平均回転待ち時間、バス140の最大
転送速度、DKP300のローカルメモリの容量等を挙
げることができる。管理サーバ400が有するリソース
情報403は、リソース情報205及びリソース情報3
02の集合であり、管理サーバ400は、リソース情報
403を用いてリソース使用情報402の内容を負荷の
程度や比率の観点から評価することができる。リソース
使用情報402との対応を保持するため、管理サーバ4
00は、リソース情報403についても履歴を保持す
る。
【0064】管理サーバ400は、閾値情報405にシ
ステム管理者や保守員やユーザ等が予め設定したリソー
スの使用状況に関する閾値と、前述のリソース使用情報
402に集計された結果とを比較して、プロセッサやキ
ャッシュ120やメモリやバス140や物理ディスク1
30等の各ノード110のリソースについて処理負荷の
過大を検出することができる。
【0065】次に、管理サーバ400がシステム管理者
や保守員やユーザなどの管理者に対してクラスタストレ
ージ100の性能低下の検出や性能低下原因の分析のた
めに提供する情報提示方法について説明する。管理者
は、管理サーバ400が画面表示などで提供する情報を
元にクラスタストレージ100の性能低下や原因を調査
することができ、特に、特定のノード110における負
荷集中やリソース使用集中などについて調査することが
できる。管理サーバ400は、システム管理者や保守員
やユーザなどの管理者が前記調査を行う以下の2種類の
手順に沿って情報の提示を行う。
【0066】図12は管理サーバ400が行うリソース
使用情報の収集と表示の処理との動作を説明する第1の
手順によるフローチャートであり、まず、図12を参照
して第1の手順について説明する。第1の手順は、前述
の各ノード110によるリソース使用過大の警告や管理
サーバ400による前記警告に対応する手順である。
【0067】(1)管理サーバ400は、管理者の指示
に基づいて、画面表示等の情報提示手段において、ま
ず、最初の段階として管理サーバ400が管理している
1つまたは複数のクラスタストレージ100の名前など
のリストを表示する(ステップ1201)。
【0068】(2)管理サーバ400は、次の段階とし
て、前記クラスタストレージ100の中から警告の対象
となっているクラスタストレージ100の名前やプロパ
ティ等の情報と、前記クラスタストレージ100を構成
する複数のノード110の名前等のリストとを表示する
(ステップ1202)。
【0069】(3)管理サーバ400は、さらに次の段
階として、前記複数のノード110の中から前記警告の
対象となっているノード110の名前やプロパティ等の
情報と、前記ノード110が有する各種リソースの種別
や名前等のリストを表示する(ステップ1203)。
【0070】(4)管理サーバ400は、さらに次の段
階として、前記各種リソースの中から前記警告の対象と
なっているリソースの名前やプロパティ等の情報と、前
記リソースの使用状況とを表示する。前述の表示情報
は、リソース使用情報402やリソース情報402の前
記リソースに関する情報及び前記情報から計算等により
導かれる値であり、例えば、前記リソースがキャッシュ
120の場合、キャッシュ120の名前、容量、最大転
送速度、使用量、使用率=使用量/容量、転送頻度等が
含まれ、物理ディスク130の場合、名前、型名、容
量、最大転送速度、最大転送速度分布、平均回転待ち時
間、使用率(アクセス種別毎)等が含まれる(ステップ
1204)。
【0071】(5)管理サーバ400は、さらに次の段
階として、前記表示情報に関し、ボリューム情報401
とリソース使用情報402とを用いて前記リソースを使
用する論理ボリュームと、前記論理ボリューム毎の前記
リソース使用状況とを表示する。これにより管理者はど
の論理ボリュームについての処理が前記リソースをどれ
だけ使用しているかを知ることができる(ステップ12
05)。
【0072】(6)管理サーバ400は、さらに次の段
階として、ボリューム情報401に基づき前記の論理ボ
リュームが関係付けられているポート180の名前や属
性やプロパティやノードなどの情報を表示する(ステッ
プ1206)。
【0073】前述したような表示を行うことにより、管
理者は、図1に示す計算機システムの構成に関する一般
的な情報であり、ホスト500がクラスタストレージ1
00の論理ボリュームを使用する上で一般的な情報であ
る、前記論理ボリュームが関係付けられているポート
名、ノード名、ポート180の属性やその他アドレスな
どの情報と、前記リソースを使用している論理ボリュー
ムとを結びつけて、前記論理ボリュームについての処理
の負荷やリソース使用状況を把握することができ、例え
ば、ホスト500で測定した前記論理ボリュームの性能
と照らしあわせるといったことを行うことができる。
【0074】図13は管理サーバ400が行うリソース
使用情報の収集と表示の処理との動作を説明する第2の
手順によるフローチャートであり、次に、図13を参照
して第2の手順について説明する。第2の手順は、シス
テム管理者や保守員やユーザが性能低下を検出したなど
の理由で特定の論理ボリュームに関して調査を行う場合
の手順である。管理者は前記論理ボリュームに関するポ
ート名、ノード名、ポート180の属性などの情報を元
に前記調査を始める。
【0075】(1)管理サーバ400は、管理者の指示
に基づいて、画面表示などの情報提示手段において、ま
ず最初の段階として、管理サーバ400が管理している
1つまたは複数のクラスタストレージ100の名前等の
情報を表示する(ステップ1301)。
【0076】(2)管理者が前記論理ボリュームが存在
するクラスタストレージ100を指定することにより、
管理サーバ400は、次の段階として、前記クラスタス
トレージ100を構成する複数のノード110の名前等
のリストを表示する(ステップ1302)。
【0077】(3)管理サーバ400は、さらに次の段
階として、管理者が前記論理ボリュームのポートが存在
するノード110を指定することにより、前記ノード1
10が有する複数のポート180の名前等のリストを表
示する(ステップ1303)。
【0078】(4)さらに次の段階として、管理者が前
記論理ボリュームのポート180を指定することによ
り、管理サーバ400は、前記ポート180に関係付け
られている論理ボリュームの名前等のリストを表示する
(ステップ1304)。
【0079】(5)さらに次の段階として、管理者が関
心のある前記論理ボリュームを指定することにより、管
理サーバ400は、前記論理ボリュームのデータを格納
している物理ディスク130があるノード110の名前
等のリストを表示する(ステップ1305)。
【0080】(6)さらに次の段階として、管理サーバ
400は、管理者が関心のある前記ノード110を指定
することにより、前記ノード110において前記論理ボ
リュームの処理に使用されている各種リソースの種別や
名前及び使用状況を表示する。ここで表示する使用状況
は、第1の手順で説明したものと同様である(ステップ
1306)。
【0081】前述したような表示を行うことにより、管
理者は、前記論理ボリュームが関係付けられているポー
ト名、ノード名、ポート180の属性やその他アドレス
等の情報から、前記リソースを使用している論理ボリュ
ームを導き、さらに前記論理ボリュームについての処理
の負荷やリソース使用状況を把握することができる。管
理サーバ400は、前述の各表示情報をボリューム情報
401に基づき作成して表示する。なお、前述の説明に
おける名前は、文字列で示されてもよく、番号等の識別
子であってもよい。
【0082】図14は前述した図12、図13による手
順に従って表示された情報の画面例を示す図である。こ
の画面例において、画面の左部は、前述した手順で説明
した段階に基づく階層を示すツリーである。すなわち、
第1の手順の場合、ルート(管理サーバ400の管理対
象全体)−クラスタストレージ100−ノード110−
プロセッサ、メモリ、キャッシュ120、物理ディスク
130、バス140等のリソース−前記リソースの各モ
ジュール(例えば、物理ディスク130なら特定の物理
ディスク130)−前記リソースやモジュールを使用し
ている論理ボリューム−ポート180といったオブジェ
クトの階層としてツリー構造で表示される。また、第2
の手順の場合、ルート(管理サーバ400の管理対象全
体)−クラスタストレージ100−ノード110−ポー
ト180−論理ボリューム−ノード110−プロセッ
サ、メモリ、キャッシュ120、物理ディスク130、
バス140などのリソース−前記リソースの各モジュー
ル(例えば、物理ディスク130なら特定の物理ディス
ク130)といったオブジェクトの階層としてツリー構
造で表示される。
【0083】選択されたオブジェクトは、例えば表示色
を変えたり、マークを変えたり、マークを表示するなど
の方法で表現される。画面の右上部は、前記ツリーで選
択されているオブジェクトの名前やプロパティや使用状
況などの情報を示す。画面の右下部は、詳細情報を表示
する部分であり、例えば、前記オブジェクトが複数の構
成要素を有する場合、前記構成要素についての名前や使
用状況等の情報のリストを表示し、前記オブジェクトが
単一のものの場合、前記オブジェクトに関する情報を表
示する。また、管理者が指定した期間に対し、使用状況
の履歴をグラフ表示することよって管理者の作業効率を
向上させることができる。
【0084】前述で説明した第1の手順の場合、管理サ
ーバ400は、負荷やリソース使用量が過大であるとい
う警告を得ているが、管理サーバ400は、前記警告の
対象となるクラスタストレージ100、ノード110、
各種リソース、各モジュールは前記ツリー及びリスト上
において表示色を変えたり、マークを表示したり、点滅
させることにより、システム管理者や保守員やユーザに
注意を促し誘導することができる。
【0085】システム管理者や保守員やユーザは、前述
の警告または自分の関心に基づいて前述ツリーを追って
オブジェクトを選択することにより、前述の手順に従っ
て情報を取得し、クラスタストレージ100の性能低下
や原因を解析することができ、特に、特定のノード11
0における処理負荷集中やリソース使用集中等について
調査することができる。
【0086】図15は前述した図12による第1の手順
に従って表示された情報の他の画面例を示す図である。
前述した第1の手順の場合に対して、図14に例示した
ツリーの代わりに、図15に例示するような前記警告対
象のみを表示した一本道のツリーを用いることができ
る。このような表示により、不慣れなユーザが混乱する
可能性を削減することができる。また、本発明は、前述
したようなツリーによる誘導の代わりに、対話式の画面
遷移を用いて前述の手順に基づいて情報を提供するよう
にしてもよい。
【0087】本発明の実施形態は、前述したように、段
階的、階層的に情報を提示することによって、システム
管理者や保守員やユーザ等が多種かつ多数の情報を同時
に分析する必要がなくなり、図1に示すような構成の計
算機システム及びクラスタストレージ100の管理を効
率的かつ容易に行うことが可能となり、管理コストを削
減することができる。
【0088】次に、管理サーバ400がシステム管理者
や保守員やユーザ等の管理者に対して、他ノード110
へ移動する論理ボリュームの決定及び前記論理ボリュー
ムの移動先の決定を支援する情報提示方法について説明
する。システム管理者や保守員やユーザは、管理サーバ
400が後述する画面表示等により提供する情報を元
に、特定のノード110における負荷集中やリソース使
用集中などの性能低下原因を解消するような上記移動元
ボリューム及び移動先を選択することができる。
【0089】移動元ボリュームの決定については、管理
者は、管理サーバ400が提供する前述の情報提示方法
や画面を用いて、負荷集中やリソース使用集中をもたら
している論理ボリュームを特定し、移動すべき論理ボリ
ュームを選択することができる。さらに、前述した手順
において、管理者が指定した論理ボリュームについて、
前記論理ボリュームのデータを格納する物理ディスク4
00についての名前、型名、容量、最大転送速度、最大
転送速度分布、平均回転待ち時間、使用率(アクセス種
別毎)等の情報を管理サーバ400が表示することによ
り、管理者は、前記論理ボリュームについての処理負荷
やリソース使用状況のみならず、前記物理ディスク13
0の性能や容量使用の最適化を考慮して、移動元ボリュ
ームを選択することができる。
【0090】移動先物理ディスク130の決定について
は、管理サーバ400は、管理者が行う以下の移動先選
択手順に沿って情報提示を行う。
【0091】図16は移動先選択の手順を説明するフロ
ーチャートであり、次に、これについて説明する。
【0092】(1)管理サーバ400は、まず最初の段
階として、移動元ボリュームが存在するクラスタストレ
ージ100を構成する複数のノード110の名前などの
リストを表示する(ステップ1401)。
【0093】(2)次の段階として、管理者が移行先候
補として関心のあるノード110を指定することによ
り、管理サーバ400は、前記ノード110が有する各
種リソースの種別や名前の一覧を表示する(ステップ1
402)。
【0094】(3)さらに次の段階として、管理者が関
心のあるリソースを指定することにより、そのリソース
の使用状況を表示する。表示される情報は、前述で説明
した第1の手順で説明したものと同様である(ステップ
1403)。
【0095】(4)管理者は、前述の表示から、処理負
荷が小さくリソース使用の小さいノード110を検索す
ることができる。さらに、管理サーバは、物理ディスク
130について、空き領域情報404に基づいて空き領
域も表示する。前記物理ディスク130に関する表示情
報には、名前、型名、容量、最大転送速度、最大転送速
度分布、平均回転待ち時間、使用率(アクセス種別毎)
等の情報が含まれるため、管理者は、前記ノード110
における処理負荷やリソース使用状況のみならず、前記
物理ディスク130の性能や容量使用の最適化を考慮し
て、移動先の物理ディスク130を選択することができ
る。また、空き領域を物理ディスク130などと同様に
リソースの一種として、上記の物理ディスク130に関
する情報と共に表示するようにしてもよい(ステップ1
404)。
【0096】(5)さらに次の段階として、管理サーバ
400は、前述の物理ディスク130にデータを格納し
ている論理ボリュームを、前記論理ボリュームが関係付
けられているポート180の名前や属性やプロパティや
ノード110等の情報と共に表示する(ステップ140
5)。
【0097】管理者は、前述の処理での表示情報から、
移動先のノード110の選択の際に他の論理ボリューム
に関する処理に与える影響を考慮することができる。最
終的に、管理者は、移動先のノード110及び前記ノー
ド110の物理ディスク130を選択して決定する。
【0098】図17は図16で説明した手順に従って表
示され、管理者による移動先の決定を得る画面の例を示
す図であり、次に、これについて説明する。
【0099】図17に示す画面例は、大きく上下2部分
に分かれており、選択されているオブジェクトは、上画
面と下画面とに1つずつ存在し、管理者は、上画面を使
用して移動元論理ボリュームを選択する。上画面は、前
述で説明したリソース使用状況調査の第2の手順に対す
る情報表示画面の例と基本的に同様であるので、以下で
は、下画面について説明する。
【0100】下画面の左部は、図16により説明した移
動先選択手順で示した段階に基づく階層を示すツリーで
あり、上画面で現在選択されているクラスタストレージ
100の構成要素及びリソースを示す。すなわち、前記
ツリーは、ルート(上画面で現在選択されているクラス
タストレージ100)−ノード110−プロセッサ、メ
モリ、キャッシュ120、物理ディスク130、バス1
40等のリソース−前記リソースやモジュールを使用し
ている論理ボリューム−ポート180及び前記ノード1
10から分岐して−空き領域−物理ディスク130とい
った階層を示している。下画面の右部は、前述したリソ
ース使用状況調査の情報表示画面と同様であり、右上部
は、名前やプロパティや使用状況等を表示し、右下部に
は、詳細情報が表示される。
【0101】管理者は、上画面で論理ボリュームを示す
オブジェクトやリスト項目を選択し、下画面の物理ディ
スク130を示すオブジェクトやリスト項目にドラック
アンドドロップすることにより、移動元と移動先とを決
定し、論理ボリュームの移動を指示することができる。
また、管理者は、メニューを選択することにより、設定
のためのダイアログボックスを表示し、リストボックス
やテキストボックスを用いて入力することにより、前述
の決定及び指示を行ってもよい。前記物理ボリューム1
30における移動先の物理アドレスは、管理サーバ40
0がボリューム情報401の移動元論理ボリュームの容
量と空き領域情報404とを参照して自動的に割り当て
てもよいし、前述のような方法で管理者が入力してもよ
い。管理サーバ400は、ボリューム情報401と空き
領域情報404とを参照して、移動先の物理ディスク1
30の空き領域不足等により指示された移動が不可能で
ある場合、その旨を管理者に通知する。
【0102】次に、クラスタストレージ100が論理ボ
リュームの移動処理を行う際の処理について説明する。
論理ボリュームの移動処理は、図18〜図21に示すフ
ローを実行することにより行われる。
【0103】図18はデータコピー指示の処理動作につ
いて説明するフローチャートであり、まず、これについ
て説明する。
【0104】(1)前述したように、システム管理者や
保守員やユーザ等の管理者は、管理サーバ400に対し
移動元の論理ボリュームと移動先の物理ディスク130
とを決定し、データの移動を指示する(ステップ150
1)。
【0105】(2)前述の指示を受けた管理サーバ40
0は、移動先に指定された領域を空き領域情報404か
ら退避し、ボリューム情報401を参照して、移動元論
理ボリュームが存在するクラスタストレージ100にお
いて移動元論理ボリュームが関係付けられているポート
180及び前記ポート180が存在するノード110
(ここではノードA110−1とする)を取得し、前記
ノードA110−1のCHP200に対して、移動元ボ
リュームの移動先物理ディスク130への移動を管理ネ
ットワーク490を介して指示する。移動元論理ボリュ
ームが関係付けられているポート180が複数存在する
場合、管理サーバ400は、前記ポート180が存在す
る全てのノード110に前記指示を行う。前記指示に
は、移動元の論理ボリューム番号、移動先のノード番
号、移動先の物理ディスク番号、移動先の物理アドレス
が含まれる(ステップ1502、1503)。
【0106】(3)前記指示を受けた前記ノードA11
0−1のCHP200は、物理位置情報202の移動元
論理ボリューム番号のエントリに、移動先ノード番号、
移動先物理ディスク番号、移動先物理アドレスを設定
し、ステータスを「移動中」に設定する(ステップ15
04)。
【0107】(4)次に、前記ノードA110−1のC
HP200は、物理位置情報202を参照して移動元論
理ボリュームのデータを格納しているノード110(こ
こではノードB110−2とする)を取得し、ノードB
110−2のCHP200及びDKP300に移動元の
物理ディスク番号、移動元の物理アドレス、容量、移動
先のノード番号、移動先の物理ディスク番号、移動先の
物理アドレス等のパラメータを内部接続バス170を介
して通知すると共にデータコピーを指示する(ステップ
1505)。
【0108】図19はノードB110−2及びノードC
110−3のDKP300が行うデータコピーの処理動
作を説明するフローチャートであり、次に、これについ
て説明する。
【0109】(1)図18の処理でコピーの指示を受領
したノードB110−2のDKP300は、前述のパラ
メータで示された移動先のノード110(ここではノー
ドC110−3とする)のDKP300に容量、移動先
の物理ディスク番号、移動先の物理アドレス等を通知す
ると共に、コピー開始を内部接続バス170を介して通
知し、前記パラメータで示された物理ディスク130上
の移動元の領域からデータを読み出し、ノードC110
−3のDKP300へ内部接続バス170を介して転送
する(ステップ1601)。
【0110】(2)前述の通知を受けたノードC110
−3のDKP300は、通知された物理ディスク130
上の移動先の領域へ転送された前記データを書き込む
(ステップ1602)。
【0111】(3)全てのデータを転送したノードB1
10−2のDKP300は、ノードC110−3のDK
P300から書き込み完了の通知を受け取った後、デー
タコピーの完了をノードA110−1のCHP200に
内部接続バス170を介して通知する(ステップ160
3、1604)。
【0112】図20はノードB110−2及びノードC
110−3のCHP200が行うデータコピーの処理動
作を説明するフローチャートであり、次に、これについ
て説明する。
【0113】(1)図18での処理で前記コピー指示を
ノードA110−1から受領したノードB110−2の
CHP200は、前述のパラメータに示されているノー
ドC110−3のCHP200に、容量、移動先の物理
ディスク番号、移動先の物理アドレスなどを通知すると
共に、コピー開始を内部接続バス170を介して通知
し、キャッシュ管理情報203を参照してキャッシュ1
20上に存在する移動元のデータを検索し、存在したデ
ータの物理ディスク番号及び物理アドレスをノードC1
10−3のCHP200に通知する(ステップ170
1)。
【0114】(2)前述の通知を受領したノードC11
0−3のCHP200は、物理ディスク番号と物理アド
レスとの情報を保持し、後述するライト処理があった場
合に、ライト対象範囲について更新済みであることを記
録する(ステップ1702)。
【0115】(3)次に、ノードB110−2のCHP
200は、キャッシュ120上の前記データを物理ディ
スク番号及び物理アドレスと共にノードC110−3の
CHP200に内部接続バス170を介して転送する
(ステップ1703)。
【0116】(4)前記データを受領したノードCのC
HP200は、前記物理ディスク番号/物理アドレス情
報を参照し、前記データが未更新の場合、キャッシュ管
理情報203を更新してキャッシュ120に前記データ
を格納する。しかし、前記データが既に更新されている
場合、転送されたデータをキャッシュ120に格納しな
い(ステップ1704、1705)。
【0117】(5)データを全て転送したノードB11
0−2のCHP200は、ノードC110−3のCHP
200から反映完了の通知を受け取った後、データコピ
ーの完了をノードA110−1のCHP200に内部接
続バス170を介して通知する(ステップ1706、1
707)。
【0118】図21はCHP200での物理位置情報の
更新の処理動作を説明するフローチャートであり、次
に、これについて説明する。
【0119】(1)ノードA110−1のCHP200
は、ノードB110−2のCHP200及びDKP30
0から前述のデータコピー完了通知を受領した後、ホス
ト500から移動元論理ボリュームへのリード/ライト
コマンド受け付けを一時保留しておく(ステップ180
1、1802)。
【0120】(2)ノードA110−1のCHP200
は、物理位置情報202のノード番号に移動先ノード番
号を設定し、物理ディスク番号に移動先物理ディスク番
号を設定し、物理アドレスに移動先物理アドレスを設定
する(ステップ1803)。
【0121】(3)その後、ノードA110−1のCH
P200は、移動完了を管理サーバ400に管理ネット
ワーク490を介して報告し、前記論理ボリュームへの
リード/ライトコマンド受け付けを再開する(ステップ
1804、1805)。
【0122】(4)ノードA110−1を含む移動を指
示した全てのノード110のCHP200から移動完了
報告を受領した管理サーバ400は、ノードA110−
1のCHP200にステータス回復を管理ネットワーク
490を介して指示する。前記移動元論理ボリュームが
関係付けられているポート180が複数存在する場合、
管理サーバ400は、前記ポート180が存在する全て
のノード110に前述の指示を行う(ステップ180
6)。
【0123】(5)前記指示を受領したノードA110
−1のCHP200は、物理位置情報202のステータ
スに「正常」を設定し、管理サーバ400にステータス
回復完了を管理ネットワーク490を介して報告する
(ステップ1807、1808)。
【0124】(6)ノードA110−1を含む移動を指
示した全てのノード110のCHP200から前記完了
報告を受領した管理サーバ400は、ボリューム情報4
01の移動元ボリュームのエントリのノード番号に、移
動先ノード番号を設定し、物理ディスク番号に移動先物
理ディスク番号を設定し、物理アドレスに移動先物理ア
ドレスを設定し、空き領域情報404から移動先の領域
を削除し、移動元の領域を加えて更新する(ステップ1
809、1810)。
【0125】前述した処理において、物理位置情報20
2のステータスが「移動中」の間にノードA110−1
のCHP200がリードコマンドを受領した場合、既に
説明した通常のリード処理をノードB110−2に対し
行う。また、物理位置情報202のステータスが「移動
中」の間にノードA110−1のCHP200がライト
コマンドを受領した場合、ノードAのCHP200は、
前記物理位置情報202を参照して、ノードB110−
2と移動先であるノードC110−3との両方に対し
て、前述のライト処理を行う。ノードC110−3のC
HP200は、前述の更新領域管理を行う。前述のよう
な処理を行うことによって、移動元であるノードB11
0−2と移動先であるノードC110−3の両方にライ
トデータが反映され、コピーの整合性を保持することが
できる。
【0126】前述した本発明の実施形態による各処理
は、処理プログラムとして構成することができ、この処
理プログラムは、HD、DAT、FD、MO、DVD−
ROM、CD−ROM等の記録媒体に格納して提供する
ことができる。
【0127】前述で説明した本発明の実施形態は、前述
のような処理を行うことによって、ホスト500からア
クセス可能のまま透過的に論理ボリュームの物理位置を
移動し、前記論理ボリュームについての処理負荷及びリ
ソース使用負荷を他のノード110に移動することがで
きる。
【0128】前述した本発明の実施形態における処理
は、ノード110のリソースを使用する処理として論理
ボリュームのリード/ライト処理を説明したが、本発明
は、論理ボリュームのデータのキャッシュ120への常
駐や、内部でのコピー作成(スナップショット作成)や
他のストレージシステムへのコピー処理などについて
も、各ノード110のCHP200及びDKP300が
リソースの使用状況を取得し、これを管理サーバ400
が収集して、前述と同様の処理を行うこともできる。
【0129】また、前述した本発明の実施形態は、管理
サーバ400がクラスタストレージ100の外部にある
として説明したが、本発明は、クラスタストレージ10
0が管理サーバ400を内部に含み、ユーザには一体の
装置として提供してもよい。また、前述した本発明の実
施形態は、各種リソースに関する情報を物理的に独立し
たノード110毎に収集し、集計し、提示するとして説
明したが、本発明は、ノード110のリソースが論理的
に分割され、前記分割された単位がそれぞれ独立した仮
想的処理装置として動作する場合、前記の収集、集計、
提示の単位を前記分割単位毎としてもよい。
【0130】前述した本発明の実施形態によれば、前述
のような処理を行うことにより、システム管理者や保守
員やユーザなどの管理者は、論理ボリュームと、前記論
理ボリュームのデータを格納し処理するノードとの関係
を認識し、ノード毎のリソース使用状況を把握して管理
し、処理負荷集中やリソース使用の集中等の問題の発生
に対して効率よく分析調査を行うことができ、これによ
り、計算機システム及びクラスタストレージ100の管
理を容易にし、管理コストを削減することができる。
【0131】さらに、本発明の実施形態によれば、シス
テム管理者や保守員やユーザなどの管理者は、ホストに
は透過な論理ボリュームの移動により、前述の問題を解
決し、計算機システム及びクラスタストレージの性能を
向上させることができる。
【0132】
【発明の効果】以上説明したように本発明によれば、管
理者が、ノード毎のリソース使用状況を把握して管理す
ることが可能となり、処理負荷集中やリソース使用の集
中等の問題の発生に対して効率よく分析調査を行うこと
ができ、クラスタ構成の記憶システムの管理コストの削
減を図ることができる。
【0133】
【図面の簡単な説明】
【図1】本発明の一実施形態によるクラスタ構成の記憶
システムを用いた計算機システムの構成を示すブロック
図である。
【図2】図1におけるノードの構成を示すブロック図で
ある。
【図3】ポート情報の例について説明する図である。
【図4】物理位置情報の例を説明する図である。
【図5】キャッシュ管理情報の例を説明する図である。
【図6】ホストが論理ボリュームにリード/ライトする
際の処理動作を説明するフローチャートである。
【図7】ホストが論理ボリュームにライトする際の処理
動作を説明するフローチャートである。
【図8】CHPのリソース使用情報の例を説明する図で
ある。
【図9】DKPのリソース使用情報の例を説明する図で
ある。
【図10】管理サーバが持つボリューム情報の例を説明
する図である。
【図11】管理サーバが持つ空き領域情報の例を説明す
る図である。
【図12】管理サーバが行うリソース使用情報の収集と
表示の処理との動作を説明する第1の手順によるフロー
チャートである。
【図13】管理サーバが行うリソース使用情報の収集と
表示の処理との動作を説明する第2の手順によるフロー
チャートである。
【図14】図12、図13による手順に従って表示され
た情報の画面例を示す図である。
【図15】図12による第1の手順に従って表示された
情報の他の画面例を示す図である。
【図16】移動先選択の手順を説明するフローチャート
である。
【図17】図16で説明した手順に従って表示され、管
理者による移動先の決定を得る画面の例を示す図であ
る。
【図18】データコピー指示の処理動作について説明す
るフローチャートである。
【図19】ノードB110−2及びノードC110−3
のDKP300が行うデータコピーの処理動作を説明す
るフローチャートである。
【図20】ノードB110−2及びノードC110−3
のCHP200が行うデータコピーの処理動作を説明す
るフローチャートである。
【図21】CHP200での物理位置情報の更新の処理
動作を説明するフローチャートである。
【符号の説明】
100 クラスタストレージ 110(110−1〜110−3) ノード 120 キャッシュ 130 物理ディスク 140 バス 150 内部接続インタフェース(I/F) 160 内部接続スイッチ 170 内部接続バス 180 ポート 200 チャネルプロセッサ(CHP) 201 ポート情報 202 物理位置情報 203 キャッシュ管理情報 204、301、402 リソース使用情報 205、302、403 リソース情報 206、310、405 閾値情報 210、310 ローカルメモリ 300 ディスクプロセッサ(DKP) 400 管理サーバ 401 ボリューム情報 404 空き領域情報 490 管理ネットワーク 500 ホスト 590 ネットワーク 600 I/Oパス
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 12/08 557 G06F 12/08 557 (72)発明者 松並 直人 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 荒井 弘治 神奈川県小田原市中里322番地2号 株式 会社日立製作所RAIDシステム事業部内 Fターム(参考) 5B005 JJ13 KK03 KK13 MM11 VV01 5B065 BA01 ZA01 ZA15 5B082 CA11

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 複数の記憶システムを1つの記憶システ
    ムとして運用するクラスタ構成記憶システムにおいて、
    前記記憶システムが有し、前記記憶システムに格納され
    るデータに関する処理に使用する前記記憶システムのリ
    ソースの構成、及び、リソースの使用量、使用負荷の少
    なくとも一方を取得する手段と、データを使用する計算
    機に対してクラスタ構成記憶システムが提供するアドレ
    ス情報と、各記憶システムの前記リソース情報との関連
    を提示する手段と、前記関連に基づいて前記リソース情
    報を提示する手段とを備えることを特徴とするクラスタ
    構成記憶システム。
  2. 【請求項2】 前記2つの提示手段による提示に際し、
    先に前記クラスタ構成記憶システムに関する情報を提示
    し、次に任意の記憶システムに関する情報を提示し、次
    に前記記憶システムが有するリソースに関する情報を提
    示する手段を備えることを特徴とする請求項1記載のク
    ラスタ構成記憶システム。
  3. 【請求項3】 前記記憶システムにおけるリソース使用
    量またはリソース使用負荷、処理負荷が、予め設定され
    た閾値を超えた場合に警告を通知する手段を備えること
    を特徴とする請求項1、2記載のクラスタ構成記憶シス
    テム。
  4. 【請求項4】 データを使用する計算機からの使用を停
    止させることなく、前記記憶システム間での前記データ
    の再配置を行う手段を備えることを特徴とする請求項
    1、2または3記載のクラスタ構成記憶システム。
  5. 【請求項5】 複数の記憶システムを1つの記憶システ
    ムとして運用するクラスタ構成記憶システムの制御方法
    において、前記記憶システムが有し、前記記憶システム
    に格納されるデータに関する処理に使用する前記記憶シ
    ステムのリソースの構成、及び、リソースの使用量、使
    用負荷の少なくとも一方を取得し、データを使用する計
    算機に対してクラスタ構成記憶システムが提供するアド
    レス情報と、各記憶システムの前記リソース情報との関
    連を提示し、前記関連に基づいて前記リソース情報を提
    示することを特徴とするクラスタ構成記憶システムの制
    御方法。
  6. 【請求項6】 情報提示に際して、先に前記クラスタ構
    成記憶システムに関する情報を提示し、次に任意の記憶
    システムに関する情報を提示し、次に前記記憶システム
    が有するリソースに関する情報を提示することを特徴と
    する請求項5記載のクラスタ構成記憶システムの制御方
    法。
  7. 【請求項7】 複数の記憶システムを1つの記憶システ
    ムとして運用するクラスタ構成記憶システムの制御方法
    において、前記記憶システムが有し、前記記憶システム
    に格納されるデータに関する処理に使用する前記記憶シ
    ステムのリソースの構成、及び、リソースの使用量、使
    用負荷の少なくとも一方を取得し、データを使用する計
    算機に対してクラスタ構成記憶システムが提供するアド
    レス情報と、各記憶システムの前記リソース情報との関
    連を提示し、前記関連に基づいて前記リソース情報を提
    示し、データを使用する計算機からの使用を停止させる
    ことなく、前記記憶システム間での前記データの再配置
    を行うことを特徴とするクラスタ構成記憶システムの制
    御方法。
  8. 【請求項8】 複数の記憶システムを1つの記憶システ
    ムとして運用するクラスタ構成記憶システムの制御を実
    現する処理プログラムであって、前記記憶システムが有
    し、前記記憶システムに格納されるデータに関する処理
    に使用する前記記憶システムのリソースの構成、及び、
    リソースの使用量、使用負荷の少なくとも一方を取得す
    る処理プログラムと、データを使用する計算機に対して
    クラスタ構成記憶システムが提供するアドレス情報と、
    各記憶システムの前記リソース情報との関連を提示する
    処理プログラムと、前記関連に基づいて前記リソース情
    報を提示する処理プログラムと、データを使用する計算
    機からの使用を停止させることなく、前記記憶システム
    間での前記データの再配置を行う処理プログラムとによ
    り構成されたことを特徴とする処理プログラム。
  9. 【請求項9】 複数の記憶システムを有するクラスタ構
    成記憶システムにおいて、前記記憶システムのうち、い
    ずれか1つの記憶システムに格納されるデータに関する
    処理に使用される前記1つの記憶システムのリソース構
    成及び前記リソースの使用量、並びに使用負荷に関する
    情報のうちいずれかを取得する手段と、前記データを使
    用する計算機に対して、前記リソースと前記取得手段に
    よって取得された情報との対応関係を提示する手段とを
    有することを特徴とするクラスタ構成記憶システム。
JP2002100220A 2002-04-02 2002-04-02 クラスタ構成記憶システム及び制御方法 Pending JP2003296039A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002100220A JP2003296039A (ja) 2002-04-02 2002-04-02 クラスタ構成記憶システム及び制御方法
US10/300,555 US7761677B2 (en) 2002-04-02 2002-11-20 Clustered storage system and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002100220A JP2003296039A (ja) 2002-04-02 2002-04-02 クラスタ構成記憶システム及び制御方法

Publications (1)

Publication Number Publication Date
JP2003296039A true JP2003296039A (ja) 2003-10-17

Family

ID=28449865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002100220A Pending JP2003296039A (ja) 2002-04-02 2002-04-02 クラスタ構成記憶システム及び制御方法

Country Status (2)

Country Link
US (1) US7761677B2 (ja)
JP (1) JP2003296039A (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309748A (ja) * 2004-04-21 2005-11-04 Hitachi Ltd ストレージシステム及びストレージシステムの障害解消方法
JP2005353044A (ja) * 2004-05-11 2005-12-22 Hitachi Ltd 計算機システムおよび計算機システムの制御方法
JP2006106901A (ja) * 2004-09-30 2006-04-20 Nippon Digital Kenkyusho:Kk 仮想サーバ、そのコンピュータ、およびコンピュータが実行するためのプログラム
JP2006318012A (ja) * 2005-05-10 2006-11-24 Hitachi Ltd ディスク制御システム
JP2007122463A (ja) * 2005-10-28 2007-05-17 Fujitsu Ltd 仮想ストレージシステム制御装置、仮想ストレージシステム制御プログラム、仮想ストレージシステム制御方法
JP2007536611A (ja) * 2004-04-26 2007-12-13 エヌキューブ コーポレイション 拡張可能な情報流通システム用のキャッシュメモリ
JP2007328408A (ja) * 2006-06-06 2007-12-20 Hitachi Ltd ストレージシステム及び記憶制御装置
JP2008040595A (ja) * 2006-08-02 2008-02-21 Rohm Co Ltd 情報処理装置
JPWO2006057059A1 (ja) * 2004-11-29 2008-06-05 富士通株式会社 仮想ボリューム移築プログラム
JP2008146627A (ja) * 2006-12-12 2008-06-26 Hitachi Ltd 複数のデータセンタにおけるストレージリソース管理のための方法および装置
JP2008299359A (ja) * 2007-05-29 2008-12-11 Fujitsu Ltd Raid装置及びraid装置のストライプ変換制御方法
JP2009080860A (ja) * 2006-03-01 2009-04-16 Townsend Analytics Ltd リスク管理のための方法および記録媒体
JP2009265727A (ja) * 2008-04-22 2009-11-12 Hitachi Ltd 計算機システムの電力制御方法、計算機システム、及び、管理計算機
JP2009276969A (ja) * 2008-05-14 2009-11-26 Hitachi Ltd ストレージシステム及び管理装置を用いたストレージシステムの管理方法
JP2010530564A (ja) * 2007-05-17 2010-09-09 インターナショナル・ビジネス・マシーンズ・コーポレーション 大規模なストレージ・コントローラの集合におけるスケーラブルな性能ベースのボリューム割り振りのための、方法、システム、およびコンピュータ・プログラム
JP2010211549A (ja) * 2009-03-11 2010-09-24 Fujitsu Ltd 管理プログラム、管理装置および管理方法
US8141095B2 (en) 2007-12-26 2012-03-20 Fujitsu Limited Recording medium storing data allocation control program, data allocation control device, data allocation control method, and multi-node storage-system
JP2014071906A (ja) * 2012-09-28 2014-04-21 Samsung Electronics Co Ltd コンピュータシステム及びそのデータ管理方法
JP2014524056A (ja) * 2011-01-10 2014-09-18 ストローン リミテッド 大規模記憶システム
WO2016088372A1 (ja) * 2014-12-05 2016-06-09 日本電気株式会社 アクセス装置、マイグレーション装置、分散ストレージシステム、アクセス方法及びコンピュータ読み取り可能記録媒体
US9448900B2 (en) 2012-06-25 2016-09-20 Storone Ltd. System and method for datacenters disaster recovery
US9563651B2 (en) 2013-05-27 2017-02-07 Fujitsu Limited Storage control device and storage control method

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6968463B2 (en) * 2001-01-17 2005-11-22 Hewlett-Packard Development Company, L.P. System for controlling access to resources in a storage area network
US6915397B2 (en) * 2001-06-01 2005-07-05 Hewlett-Packard Development Company, L.P. System and method for generating point in time storage copy
US6931487B2 (en) * 2001-10-22 2005-08-16 Hewlett-Packard Development Company L.P. High performance multi-controller processing
US6947981B2 (en) * 2002-03-26 2005-09-20 Hewlett-Packard Development Company, L.P. Flexible data replication mechanism
US7032131B2 (en) * 2002-03-26 2006-04-18 Hewlett-Packard Development Company, L.P. System and method for ensuring merge completion in a storage area network
US7007042B2 (en) * 2002-03-28 2006-02-28 Hewlett-Packard Development Company, L.P. System and method for automatic site failover in a storage area network
US8015266B1 (en) * 2003-02-07 2011-09-06 Netapp, Inc. System and method for providing persistent node names
JP4252828B2 (ja) * 2003-03-19 2009-04-08 株式会社日立製作所 キャッシュ制御方法、ノード装置、プログラム
JP2004318540A (ja) * 2003-04-17 2004-11-11 Hitachi Ltd 性能情報監視装置、方法およびプログラム
JP4554949B2 (ja) * 2004-01-23 2010-09-29 株式会社日立製作所 管理計算機および記憶装置の管理方法
JP2005267501A (ja) 2004-03-22 2005-09-29 Hitachi Ltd ストレージ管理方法及びシステム
US8127088B2 (en) * 2005-01-27 2012-02-28 Hewlett-Packard Development Company, L.P. Intelligent cache management
US7301718B2 (en) * 2005-01-31 2007-11-27 Hewlett-Packard Development Company, L.P. Recording errors in tape drives
US20060230243A1 (en) * 2005-04-06 2006-10-12 Robert Cochran Cascaded snapshots
US7779218B2 (en) * 2005-07-22 2010-08-17 Hewlett-Packard Development Company, L.P. Data synchronization management
US7206156B2 (en) * 2005-07-27 2007-04-17 Hewlett-Packard Development Company, L.P. Tape drive error management
US7752205B2 (en) 2005-09-26 2010-07-06 Bea Systems, Inc. Method and system for interacting with a virtual content repository
US7953734B2 (en) 2005-09-26 2011-05-31 Oracle International Corporation System and method for providing SPI extensions for content management system
US7818344B2 (en) 2005-09-26 2010-10-19 Bea Systems, Inc. System and method for providing nested types for content management
US7917537B2 (en) 2005-09-26 2011-03-29 Oracle International Corporation System and method for providing link property types for content management
US7325078B2 (en) * 2005-10-06 2008-01-29 Hewlett-Packard Development Company, L.P. Secure data scrubbing
US7721053B2 (en) * 2005-10-24 2010-05-18 Hewlett-Packard Development Company, L.P. Intelligent logical unit provisioning
US7467268B2 (en) 2006-04-14 2008-12-16 Hewlett-Packard Development Company, L.P. Concurrent data restore and background copy operations in storage networks
US8463852B2 (en) 2006-10-06 2013-06-11 Oracle International Corporation Groupware portlets for integrating a portal with groupware systems
US7774545B2 (en) * 2006-12-01 2010-08-10 Lsi Corporation System and method of volume group creation based on an automatic drive selection scheme
US7934027B2 (en) * 2007-01-19 2011-04-26 Hewlett-Packard Development Company, L.P. Critical resource management
US7861031B2 (en) * 2007-03-01 2010-12-28 Hewlett-Packard Development Company, L.P. Access control management
US8024514B2 (en) * 2007-03-01 2011-09-20 Hewlett-Packard Development Company, L.P. Access control management
US7694079B2 (en) 2007-04-04 2010-04-06 Hewlett-Packard Development Company, L.P. Tagged sequential read operations
US20090307508A1 (en) * 2007-10-30 2009-12-10 Bank Of America Corporation Optimizing the Efficiency of an Organization's Technology Infrastructure
US8769048B2 (en) * 2008-06-18 2014-07-01 Commvault Systems, Inc. Data protection scheduling, such as providing a flexible backup window in a data protection system
JP4923008B2 (ja) * 2008-08-22 2012-04-25 株式会社日立製作所 ストレージ管理装置、ストレージ管理方法およびストレージ管理プログラム
US8078825B2 (en) * 2009-03-11 2011-12-13 Oracle America, Inc. Composite hash and list partitioning of database tables
US8402106B2 (en) * 2010-04-14 2013-03-19 Red Hat, Inc. Asynchronous future based API
US8285780B2 (en) * 2010-06-01 2012-10-09 International Business Machines Corporation State sharing in a distributed data stream processing system
US8655985B2 (en) * 2010-11-15 2014-02-18 International Business Machines Corporation Content delivery using multiple sources over heterogeneous interfaces
US20120303322A1 (en) * 2011-05-23 2012-11-29 Rego Charles W Incorporating memory and io cycle information into compute usage determinations
US9286599B2 (en) * 2011-06-29 2016-03-15 International Business Machines Corporation Redacting content in online meetings
US9164880B2 (en) * 2012-10-23 2015-10-20 Hitachi, Ltd. Method and apparatus for offloading storage workload
EP2976711A4 (en) 2013-03-21 2016-09-14 Storone Ltd DEPLOYING EXTENSION MODULES RELATING TO A DATA PATH
GB2549242B (en) * 2013-08-20 2020-10-28 Hitachi Ltd Storage system and control method for storage system
CN103631873B (zh) * 2013-11-07 2017-12-12 华为技术有限公司 一种数据压缩方法及存储系统
US9565072B2 (en) * 2013-12-19 2017-02-07 Sap Se Moving median usage frequency based maintenance of server instances
US20150370816A1 (en) * 2014-06-18 2015-12-24 Netapp, Inc. Load-balancing techniques for auditing file accesses in a storage system
US20170124159A1 (en) * 2015-10-30 2017-05-04 Netapp, Inc. Techniques to process support data in a compute environment
US10834190B2 (en) 2018-01-18 2020-11-10 Portworx, Inc. Provisioning of clustered containerized applications
US11544139B1 (en) * 2021-11-30 2023-01-03 Vast Data Ltd. Resolving erred 10 flows

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3264465B2 (ja) 1993-06-30 2002-03-11 株式会社日立製作所 記憶システム
US5680640A (en) * 1995-09-01 1997-10-21 Emc Corporation System for migrating data by selecting a first or second transfer means based on the status of a data element map initialized to a predetermined state
JP3641872B2 (ja) 1996-04-08 2005-04-27 株式会社日立製作所 記憶装置システム
US6711649B1 (en) * 1997-10-06 2004-03-23 Emc Corporation Load balancing on disk array storage device
JP2000242434A (ja) 1998-12-22 2000-09-08 Hitachi Ltd 記憶装置システム
US6557035B1 (en) * 1999-03-30 2003-04-29 International Business Machines Corporation Rules-based method of and system for optimizing server hardware capacity and performance
JP3853540B2 (ja) * 1999-06-30 2006-12-06 日本電気株式会社 ファイバチャネル接続磁気ディスク装置およびファイバチャネル接続磁気ディスク制御装置
JP3541744B2 (ja) 1999-08-30 2004-07-14 株式会社日立製作所 ストレージサブシステム及びその制御方法
JP2001337790A (ja) 2000-05-24 2001-12-07 Hitachi Ltd 記憶システム及びその階層管理制御方法
US6924780B1 (en) * 2000-08-09 2005-08-02 3Ware, Inc. Spatial display of disk drive activity data
US6957433B2 (en) * 2001-01-08 2005-10-18 Hewlett-Packard Development Company, L.P. System and method for adaptive performance optimization of data processing systems
US7167965B2 (en) * 2001-04-30 2007-01-23 Hewlett-Packard Development Company, L.P. Method and system for online data migration on storage systems with performance guarantees
US8171414B2 (en) * 2001-05-22 2012-05-01 Netapp, Inc. System and method for consolidated reporting of characteristics for a group of file systems

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4514501B2 (ja) * 2004-04-21 2010-07-28 株式会社日立製作所 ストレージシステム及びストレージシステムの障害解消方法
US7702962B2 (en) 2004-04-21 2010-04-20 Hitachi, Ltd. Storage system and a method for dissolving fault of a storage system
JP2005309748A (ja) * 2004-04-21 2005-11-04 Hitachi Ltd ストレージシステム及びストレージシステムの障害解消方法
US7970999B2 (en) 2004-04-26 2011-06-28 Arris Group Cache memory for a scalable information distribution system
JP2007536611A (ja) * 2004-04-26 2007-12-13 エヌキューブ コーポレイション 拡張可能な情報流通システム用のキャッシュメモリ
US8307185B2 (en) 2004-05-11 2012-11-06 Hitachi, Ltd. Computer system and management method for the transfer and replication of data among several storage devices
JP2005353044A (ja) * 2004-05-11 2005-12-22 Hitachi Ltd 計算機システムおよび計算機システムの制御方法
US8032729B2 (en) 2004-05-11 2011-10-04 Hitachi, Ltd. Computer system and management method for the transfer and replication of data among several storage devices
JP4715286B2 (ja) * 2004-05-11 2011-07-06 株式会社日立製作所 計算機システムおよび計算機システムの制御方法
JP2006106901A (ja) * 2004-09-30 2006-04-20 Nippon Digital Kenkyusho:Kk 仮想サーバ、そのコンピュータ、およびコンピュータが実行するためのプログラム
JP4575740B2 (ja) * 2004-09-30 2010-11-04 株式会社日本デジタル研究所 仮想サーバ
US8072989B2 (en) 2004-11-29 2011-12-06 Fujitsu Limited Virtual volume transfer apparatus, virtual volume transfer method, and computer product
JPWO2006057059A1 (ja) * 2004-11-29 2008-06-05 富士通株式会社 仮想ボリューム移築プログラム
JP4643590B2 (ja) * 2004-11-29 2011-03-02 富士通株式会社 仮想ボリューム移築プログラム
JP2006318012A (ja) * 2005-05-10 2006-11-24 Hitachi Ltd ディスク制御システム
JP4550717B2 (ja) * 2005-10-28 2010-09-22 富士通株式会社 仮想ストレージシステム制御装置、仮想ストレージシステム制御プログラム、仮想ストレージシステム制御方法
JP2007122463A (ja) * 2005-10-28 2007-05-17 Fujitsu Ltd 仮想ストレージシステム制御装置、仮想ストレージシステム制御プログラム、仮想ストレージシステム制御方法
US7913042B2 (en) 2005-10-28 2011-03-22 Fujitsu Limited Virtual storage system control apparatus, virtual storage system control program and virtual storage system control method
JP2009080860A (ja) * 2006-03-01 2009-04-16 Townsend Analytics Ltd リスク管理のための方法および記録媒体
JP2007328408A (ja) * 2006-06-06 2007-12-20 Hitachi Ltd ストレージシステム及び記憶制御装置
JP2008040595A (ja) * 2006-08-02 2008-02-21 Rohm Co Ltd 情報処理装置
JP2008146627A (ja) * 2006-12-12 2008-06-26 Hitachi Ltd 複数のデータセンタにおけるストレージリソース管理のための方法および装置
JP2010530564A (ja) * 2007-05-17 2010-09-09 インターナショナル・ビジネス・マシーンズ・コーポレーション 大規模なストレージ・コントローラの集合におけるスケーラブルな性能ベースのボリューム割り振りのための、方法、システム、およびコンピュータ・プログラム
JP2008299359A (ja) * 2007-05-29 2008-12-11 Fujitsu Ltd Raid装置及びraid装置のストライプ変換制御方法
US8141095B2 (en) 2007-12-26 2012-03-20 Fujitsu Limited Recording medium storing data allocation control program, data allocation control device, data allocation control method, and multi-node storage-system
JP4568770B2 (ja) * 2008-04-22 2010-10-27 株式会社日立製作所 計算機システムの電力制御方法、計算機システム、及び、管理計算機
JP2009265727A (ja) * 2008-04-22 2009-11-12 Hitachi Ltd 計算機システムの電力制御方法、計算機システム、及び、管理計算機
JP2009276969A (ja) * 2008-05-14 2009-11-26 Hitachi Ltd ストレージシステム及び管理装置を用いたストレージシステムの管理方法
JP2010211549A (ja) * 2009-03-11 2010-09-24 Fujitsu Ltd 管理プログラム、管理装置および管理方法
US8281102B2 (en) 2009-03-11 2012-10-02 Fujitsu Limited Computer-readable recording medium storing management program, management apparatus, and management method
JP2014524056A (ja) * 2011-01-10 2014-09-18 ストローン リミテッド 大規模記憶システム
US9407516B2 (en) 2011-01-10 2016-08-02 Storone Ltd. Large scale storage system
US9729666B2 (en) 2011-01-10 2017-08-08 Storone Ltd. Large scale storage system and method of operating thereof
US9448900B2 (en) 2012-06-25 2016-09-20 Storone Ltd. System and method for datacenters disaster recovery
US9697091B2 (en) 2012-06-25 2017-07-04 Storone Ltd. System and method for datacenters disaster recovery
JP2014071906A (ja) * 2012-09-28 2014-04-21 Samsung Electronics Co Ltd コンピュータシステム及びそのデータ管理方法
US9563651B2 (en) 2013-05-27 2017-02-07 Fujitsu Limited Storage control device and storage control method
WO2016088372A1 (ja) * 2014-12-05 2016-06-09 日本電気株式会社 アクセス装置、マイグレーション装置、分散ストレージシステム、アクセス方法及びコンピュータ読み取り可能記録媒体

Also Published As

Publication number Publication date
US7761677B2 (en) 2010-07-20
US20030188085A1 (en) 2003-10-02

Similar Documents

Publication Publication Date Title
JP2003296039A (ja) クラスタ構成記憶システム及び制御方法
US9930118B2 (en) Systems and methods for granular resource management in a storage network
US7512888B2 (en) Management method and apparatus for storage apparatus
JP5568776B2 (ja) 計算機のモニタリングシステム及びモニタリング方法
JP5291456B2 (ja) ストレージシステム・アーキテクチャ内のデータ・アロケーション
JP4391265B2 (ja) ストレージサブシステムおよび性能チューニング方法
US8429369B2 (en) Storage management program, storage management method, and storage management apparatus
US7469289B2 (en) Storage system having virtualized resource
US9258364B2 (en) Virtualization engine and method, system, and computer program product for managing the storage of data
JP4115093B2 (ja) 計算機システム
JP4896593B2 (ja) 性能監視方法、計算機及び計算機システム
JP4646574B2 (ja) データ処理システム
US8495294B2 (en) Management computer for managing storage system capacity and storage system capacity management method
US7356640B2 (en) Storage apparatus and storage system
JP4310070B2 (ja) ストレージシステムの運用管理方式
US20020184463A1 (en) Computer system
JP4229626B2 (ja) ファイル管理システム
JP2006302274A (ja) ストレージシステムにおけるデータの移動
JP2007072813A (ja) ストレージシステム、ファイル移動方法、及びコンピュータプログラム
JP4121255B2 (ja) クラスタ構成記憶システム
JP5000234B2 (ja) 制御装置
US7188213B2 (en) Management computer and method of managing data storage apparatus
US20090319834A1 (en) Computer-readable storage medium storing storage management program, storage management method,and storage management apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081111