JP2009266106A - 管理装置及び管理方法 - Google Patents

管理装置及び管理方法 Download PDF

Info

Publication number
JP2009266106A
JP2009266106A JP2008117520A JP2008117520A JP2009266106A JP 2009266106 A JP2009266106 A JP 2009266106A JP 2008117520 A JP2008117520 A JP 2008117520A JP 2008117520 A JP2008117520 A JP 2008117520A JP 2009266106 A JP2009266106 A JP 2009266106A
Authority
JP
Japan
Prior art keywords
resource
management
resource management
node
nas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008117520A
Other languages
English (en)
Inventor
Hitoshi Arai
仁 荒井
Nobuyuki Zoga
信之 雜賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008117520A priority Critical patent/JP2009266106A/ja
Priority to US12/140,882 priority patent/US7970882B2/en
Publication of JP2009266106A publication Critical patent/JP2009266106A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0893Assignment of logical groups to network elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0895Configuration of virtualised networks or elements, e.g. virtualised network function or OpenFlow elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】資源管理を容易化し得る管理装置及び管理方法を提案する。
【解決手段】クライアントに対してファイル共有サービスを提供する仮想的なノードに割り当てられた資源を、相互に関連付けられた複数の資源からなる資源管理グループを単位として管理する管理装置及び管理方法において、クライアントからのアクセスの履歴情報に基づいて、資源間の関連性を抽出し、抽出した資源間の関連性に基づいて、関連性のある資源管理グループを統合するようにしたことにより、源管理の管理対象となる資源管理グループ数を減少させることができ、かくして資源管理を容易化させることができる。
【選択図】図10

Description

本発明は、管理装置及び管理方法に関し、例えばクライアントに対して仮想的なNAS(Network Attached Storage)を提供するNASサーバに適用して好適なものである。
従来、複数のホスト環境における多数の資源(リソース)の管理手法として、下記特許文献1及び特許文献2に記載された方法が提案されている。この方法は、ネットワークに接続された複数のホスト上に存在するソフトウェア資源及びハードウェア資源を関連付けて管理サーバにおいて管理するものである。
また1つの物理的なNASサーバ内において資源を分割し、仮想的なNAS(以下、これを仮想NASと呼ぶ)を構築する方法として、下記特許文献3及び特許文献4に記載された方法が提案されている。
特開2006−202293号公報 特開2007−257645号公報 特開2005−267327号公報 特開2003−223346号公報
ところで、NASサーバ上に設定された仮想NASが使用する資源としては、論理ボリューム(LU:Logical unit)、NIC(Network Interface Card)及びHBA(Host Bus Adapter)などのハードウェア資源と、ファイルシステム及びIP(Internet Protocol)アドレスなどのソフトウェア資源とがある。
そしてこれらの資源は、ハードウェア資源及びソフトウェア資源間での関連付けがなされるものの、かかる関連付けは「論理ボリューム及びファイルシステム」や「NIC及びIPアドレス」といった単純なものであった。また、このような関連付けは1つの仮想NAS内で閉じて行われていた。
このため、かかる従来の仮想NAS資源の管理方法によると、管理対象(関連付けられた資源のペアや、他の資源と関連付けられていない個々の資源)の数が多く、また仮想NASごとに資源管理が必要となるために、資源管理が複雑化し、管理コストが増大するという問題があった。
また、従来では、仮想NASから資源を解放するためには仮想NAS内における関連付けを切る必要があり、資源間の関連付けを保ったまま資源を管理することができない。このため、例えば削除するためなどの理由により一度資源を解放した仮想NASを再構築するに際しては、再度その仮想NASに個々の資源をユーザが割り当てる必要があり、仮想NASの再構築に多くの労力及び時間を要する問題があった。
本発明は以上の点を考慮してなされたもので、資源管理を容易化し得る管理装置及び管理方法を提案しようとするものである。
かかる課題を解決するため本発明においては、クライアントに対してファイル共有サービスを提供する仮想的なノードに割り当てられた資源を、相互に関連付けられた複数の前記資源からなる資源管理グループを単位として管理する管理装置において、前記クライアントからのアクセスの履歴情報に基づいて、前記資源間の関連性を抽出する関連性抽出部と、前記関連性抽出部により抽出された前記資源間の関連性に基づいて、関連性のある前記資源管理グループを統合する統合部とを備えることを特徴とする。
この結果、資源管理の管理対象となる資源管理グループ数を減少させることができる。
また本発明においては、クライアントに対してファイル共有サービスを提供する仮想的なノードに割り当てられた資源を、相互に関連付けられた複数の前記資源からなる資源管理グループを単位として管理する管理方法において、前記クライアントからのアクセスの履歴情報に基づいて、前記資源間の関連性を抽出する第1のステップと、抽出した前記資源間の関連性に基づいて、関連性のある前記資源管理グループを統合する第2のステップとを備えることを特徴とする。
この結果、資源管理の管理対象となる資源管理グループ数を減少させることができる。
本発明によれば、資源管理の管理対象を減少させることができ、かくして資源管理を容易化し得る管理装置及び管理方法を実現できる。
以下図面について、本発明の一実施の形態を詳述する。
(1)本実施の形態による情報処理システムの構成
図1において、1は全体として本実施の形態による情報処理システムを示す。この情報処理システム1は、クライアント2及び管理端末3がLAN(Local Area Network)等の第1のネットワーク4を介してNASサーバ5と接続されると共に、NASサーバ5がファイバチャネル(Fibre Channel)等の第2のネットワーク6を介してストレージ装置7と接続されることにより構成されている。
クライアント2及び管理端末3は、それぞれCPUやメモリ等の情報処理資源を備えたコンピュータ装置であり、例えばパーソナルコンピュータや、ワークステーション、メインフレームなどから構成される。これらクライアント2及び管理端末3は、例えばキーボード、スイッチやポインティングデバイス、マイクロフォン等の情報入力装置(図示せず)と、例えばモニタディスプレイやスピーカ等の情報出力装置(図示せず)とを備える。
NASサーバ5は、クライアント2に対してファイル共有サービスを提供するサーバであり、CPU10、メモリ11、NIC12及びHBA13を備えて構成される。
CPU10は、NASサーバ5全体の動作制御を司るプロセッサである。CPU10がメモリ11に格納された各種制御プログラムを実行することにより、NASサーバ5全体として各種処理が行なわれる。メモリ11は、各種制御プログラムを記憶するために用いられるほか、CPU10のワークメモリとしても用いられる。
NIC12は、クライアント2や管理端末3との通信時におけるプロトコル制御を行うインタフェースであり、HBA13は、ストレージ装置7との通信時におけるプロトコル制御を行なうインタフェースである。
ストレージ装置7は、それぞれデータを記憶する複数のディスクユニット(図示せず)と、このディスクユニットに対するデータの入出力を制御するコントローラ14とから構成される。
各ディスクユニットは、例えばSCSI(Small Computer System Interface)ディスク等の高価なディスク、又はSATA(Serial AT Attachment)ディスクや光ディスク等の安価なディスクを内蔵して構成される。これら各ディスクユニットは、コントローラ14によりRAID(Redundant Array of Inexpensive Disks)方式で運用される。1又は複数のディスクユニットが提供する物理的な記憶領域上に、1又は複数の論理ボリューム15が設定され、これら論理ボリューム15にデータが格納される。
コントローラ14は、例えば第2のネットワーク6を介してNASサーバ5と通信を行うためのネットワークインタフェースや、各ディスクユニットと通信を行うためのディスクインタフェース、論理ボリューム15に入出力するデータを一時的に保持するキャッシュメモリなどを備えて構成され、論理ボリューム15に対するデータの入出力を制御する。
(2)本実施の形態による資源管理方法
(2−1)概要及び各種テーブルの構成
次に、NASサーバ5に搭載された本実施の形態による資源管理方法について説明する。本実施の形態による情報処理システム1では、仮想化技術の1つである論理分割によって、NASサーバ5上に複数の論理区画を生成し、生成した論理区画の1つを管理ノード20に割り当て、他の論理区画を仮想NAS21に割り当てることができる。
ここで、「管理ノード」とは、仮想NAS21を管理するためのノードをいう。管理ノード20は、仮想NAS21に対する資源の割り当てや切り離し及び解放を行なう仮想NAS管理プログラム22と、OS(Operating System)23のカーネル部分及びファイルシステム部分から構成される。管理ノード20が仮想NAS21に資源を割り当てることによって、その仮想NAS21において当該仮想NAS21に割り当てられた資源を使用できるようになる。
また以下において、「仮想NAS」とは、クライアント2に対してファイル共有サービスを提供するためにNASサーバ5上に設定された仮想的なノードをいう。仮想NAS21は、OS23のファイルシステム部分と、ファイル共有サービスを提供するCIFS(Common Internet File System)/NFS(Network File System)サーバプログラム24と、自仮想NAS21に割り当てられた資源を管理するための資源管理プログラム25とから構成される。各仮想NAS21は、自己に割り当てられた資源を用いてクライアント2に対してファイル共有サービスを提供する。
管理ノード20及び各仮想NAS21には、それぞれ1つのシステム用の論理ボリューム(以下、適宜、これをシステム用論理ボリュームと呼ぶ)16が対応付けられ、これらシステム用論理ボリューム15にそれぞれその管理ノード20又は仮想NASを構成するOS23及びプログラム(仮想NAS管理プログラム22、CIFS/NFSサーバプログラム24及び又は資源管理プログラム25)が格納される。そしてNASサーバ5の起動時にこれらのプログラムがシステム用論理ボリューム15からメモリ11に読み込まれ、これらプログラムがCPU10により時分割に実行されることにより管理ノード20及び仮想NAS21が対応する論理区画上に構築される。
管理ノード20や仮想NAS21に割り当てられる資源としては、図2に示すように、NIC12(「NIC」)、IPアドレス30(「IP addr」)、ファイル共有31(「Share」;図4参照)、ファイルシステム32(「FS」)、HAB13(「HBA」)及び論理ボリューム15(「LU」)などがある。このうちIPアドレス30としては、管理ノード20や仮想NAS21のOS23が使用する管理用のIPアドレス(「mgnt IP addr」)30と、クライアント2がデータの入出力に使用するIPアドレス(「IP addr」)30とがある。また論理ボリューム15としては、上述のようにシステム用の論理ボリューム(「OS_LU」)15と、クライアント2に提供されるユーザ用の論理ボリューム15(「User_LU」)とがある。
かかる資源のうち、NIC13、ファイル共有31及びHBA14は複数の仮想NAS21間で共有して使用される共有資源であり、IPアドレス30、ファイルシステム31及び論理ボリューム15は割当先の仮想NAS21により排他的に使用される排他資源である。資源のデータ構造は、図3に示すようなクラス図として表すことができる。
ところで、これらの資源は、図4に示すように、例えば「NIC1−IP addr1−FS1−LU1−HBA1」、「NIC2−IP addr2」及び「Share2−FS2−LU2−HBA1」というように、ユーザ設定によって他の資源と関連付けられる。
そして相互に関連付けられた各資源は、1つのグループ(以下、これを資源管理グループと呼ぶ)33として管理される。各資源管理グループ33は、管理ノード20又はいずれかの仮想NAS21に属する。これら資源管理グループ33は、独立して存在し、他の資源管理グループ33とは関連がない状態で管理される。なお、この図4は、NASサーバ5のOS23上での資源同士の関連性を示したものであり、物理的にこのような順番でハードウェアが接続されることを意味するものではない。
しかしながら、実際には、IPアドレス30経由でクライアント2からアクセスがあり、これはファイル共有31へのアクセスであるため、例えば図4において「rmng2」という資源管理グループ33の「IP addr2」というIPアドレス30と、「rmng3」という資源管理グループ33の「Share1」というファイル共有31との間にも関連性が存在する。よって、これら「rmng2」という資源管理グループ33と、「rmng3」という資源管理グループ33とを1つの資源管理グループ33に統合して管理することができる。
従って、このようなユーザ設定によらない資源間の関連性を見つけ出し、これら関連性を有する資源をそれぞれ含む2つの資源管理グループ33を1つの資源管理グループ33に統合することができれば、資源管理の管理対象数を低減させることができるものと考えられる。
そこで、本実施の形態によるNASサーバ5には、クライアント2からのデータアクセスに基づいて、資源間の関連性に基づく資源管理グループ33間の関連付けを行なう資源管理機能が搭載されている。
このような資源管理機能を実現するための手段として、図1に示すように、NASサーバ5の管理ノード20は、資源管理テーブル40、資源関連テーブル41及び仮想NAS管理テーブル42を保持している。
資源管理テーブル40は、管理ノード20が各資源管理グループ33を一元管理するために使用するテーブルであり、図5に示すように、管理資源グループID欄40A、最終使用日時欄40B、アクティブ情報欄40C、NAS_ID欄40D及び複数の資源ID欄40Eから構成される。
そして資源管理グループID欄40Aには、対応する資源管理グループ33に付与された識別子(以下、適宜、これを資源管理グループIDと呼ぶ)が格納され、最終使用日時欄40Bには、その資源管理グループ33が最後に使用された日時が格納される。
またアクティブ情報欄40Cには、その資源管理グループ33がアクティブな状態(サービスの提供が可能な状態)にあるか否かを表す情報が格納され、NAS_ID欄40Dには、その資源管理グループ33が属する管理ノード20又は仮想NAS21の識別子(以下、適宜、これをNAS_IDと呼ぶ)が格納される。さらに資源欄40Eには、その資源管理グループ33に属する各資源にそれぞれ付与されたIDが格納される。
従って、例えば図5の例の場合、「VNAS1」というNAS_IDが付与された仮想NAS21には少なくとも「rmng1」、「rmng2」及び「rmng3」という3つの資源管理グループ33が属していることが示されている。またこのうち「rmng1」という資源管理グループ33は、最終使用日時が「2007/1/2 12:00」で、現在は「アクティブ(active)」な状態にあり、「IP addr1」というIPアドレス30、「NIC1」というNIC12及び「LU1」という論理ボリューム15を資源として備えることが図5に示されている。
また資源関連テーブルは41、管理ノード20が資源間の関連を管理するために使用するテーブルであり、図6に示すように関連元資源欄41A及び関連先資源欄41Bから構成される。
そして関連元資源欄41Aには、関連元の資源の識別子が格納され、関連先資源欄41Bには、その関連元の資源と関連付けられた資源の識別子が格納される。従って、図6の例では、「LU1」という論理ボリューム15と、「FS1」というファイルシステム32とが関連付けられ、「LU2」という論理ボリューム15と、「FS2」というファイルシステム32とが関連付けられていることが示されている。
仮想NAS管理テーブル42は、管理ノード20がNASサーバ5上に設定された仮想NAS21を管理するためのテーブルであり、図7に示すように、NAS_ID欄42A、ボリューム番号欄42B、管理IPアドレス欄42Cから構成される。
そしてNAS_ID欄42Aには、そのNASサーバ5上に設定された各仮想NAS21のNAS_IDがそれぞれ格納され、ボリューム番号欄42Bには、対応する仮想NAS21に割り当てられたシステム用論理ボリューム15のボリュームIDが格納される。また管理IPアドレス欄42Cには、その仮想NAS21のシステムに割り当てられた管理用IPアドレス30(図4)が格納される。
従って、図7の例では、NASサーバ5上には「NAS1」、「NAS2」、「NAS3」、……という仮想NAS21が設定されており、例えば「NAS1」という仮想NAS21には「OS_LU1」というシステム用論理ボリューム15と、「mant IP addr1」という管理IPアドレス30とが割り当てられていることが示されている。
(2−2)資源関連付け処理
次に、上述のような資源管理機能のうち、ユーザ操作によって関連付けられていない資源のうち、関連のある資源同士を関連付ける資源関連付け処理について説明する。なお、以下においては、クライアント2からのアクセスがない初期状態において、各資源がユーザ設定により図4〜図6のように関連付けられているものとする。
NASサーバ5のCPU10(図1)は、図8に示すように、クライアント2から「rmng3」という資源管理グループ33に属する「NIC2」というNIC12及び「IP addr2」というIPアドレス30と、「rmng2」という資源管理グループ33に属する「Share2」というファイル共有31、「FS2」というファイルシステム、「LU2」という論理ボリューム及び「HBA1」というHBA14とを順次介して物理的な論理ボリューム15に対するデータアクセスがあった場合、そのアクセスログを図9に示すアクセスログ管理テーブル50を用いて管理する。
実際上、アクセスログ管理テーブル50は、図9に示すように、日時欄50A、クライアントIP欄50B及び使用資源欄50Cから構成される。そして日時欄50Aには、ストレージ装置7(図1)が提供する論理ボリューム15に対してクライアント2からのデータアクセスがあった日時が登録され、クライアントID欄50Bには、かかるデータアクセスを行なったクライアント2の識別子(以下、適宜、これをクライアントIDと呼ぶ)が格納される。また使用資源欄50Cには、かかるデータアクセスにおいて使用された各資源の識別情報がそれぞれ格納される。
従って、図8の例では、「2008/02/01 12:00」に、「192.168.1.20」というクライアントIDが付与されたクライアント2から、「10.208.1.33」というIDアドレス30、「NIC1」というNIC12及び「FS1」というファイルシステム32を介して「LU1」という論理ボリューム15にアクセスがあったことが示されている。
そしてCPU10は、メモリ11に格納された管理ノード20の仮想NAS管理プログラム22(図1)に基づき、このアクセスログ管理テーブル50を参照して、図10に示す資源関連付け処理を定期的にかつ仮想NAS21ごとに独立して実行することにより、関連性のある資源同士を関連付ける。
すなわちCPU10は、この図10に示す資源関連付け処理を開始すると、まず、1つ分のアクセスログのデータ(アクセスログ管理テーブル50の1レコード分のデータ)をアクセスログ管理テーブル50から読み出す(SP1)。
続いてCPU10は、ステップSP1においてアクセスログ管理テーブル50から読み出したアクセスログを解析し連続する2つ資源の組合せ(以下、これを資源ペアと呼ぶ)の使用頻度をカウントすべく、そのデータアクセスにおいて使用した資源ペアごとに1ずつカウントする(SP2)。
例えば図8の例の場合、「NIC2」というNIC12及び「IP addr2」というIPアドレス30からなる資源ペアと、「IP addr2」というIPアドレス30及び「Share2」というファイル共有31からなる資源ペアと、「Share2」というファイル共有31及び「FS2」というファイルシステム32からなる資源ペアと、「FS2」というファイルシステム32及び「LU2」という論理ボリューム15からなる資源ペアと、「LU2」という論理ボリューム15及び「HBA1」というHBA13からなる資源ペアとについて、それぞれ1ずつカウントアップすることになる。
続いてCPU10は、アクセスログ管理テーブル50に登録されたすべてのアクセスログについてステップSP2の処理を実行し終えたか否かを判断する(SP3)。そしてCPU10は、この判断において否定結果を得るとステップSP2に戻り、この後、ステップSP3において肯定結果を得るまで、ステップSP2において順次異なるアクセスログを選択しながら、同様の処理を繰り返す。
そしてCPU10は、アクセスログ管理テーブル50に登録されたすべてのアクセスログについてステップSP2の処理を実行し終えることによりステップSP3において肯定結果を得ると、ステップSP2においてカウントした資源ペアごとのカウント値のうち、カウント値が予め定められた閾値(以下、これを関連追加閾値と呼ぶ)以上の資源ペアが資源関連テーブル41(図6)に登録されていない場合には、当該資源ペアを資源関連テーブル41に登録する。またCPU10は、ステップSP2においてカウントした資源ペアごとのカウント値のうち、カウント値が一定期間上述の関連追加閾値以下である資源ペアを資源関連テーブル41から削除する(SP4)。
例えば図4〜図6の例で、「IP addr2」というIPアドレス40及び「Share2」というファイル共有31からなる資源ペアのカウント値が関連追加閾値を超えた場合、図12に示すように、「IP addr2」というIPアドレス30及び「Share2」というファイル共有31の資源ペアが資源関連テーブル41に追加されることになる。
続いてCPU10は、ステップSP4において更新した資源関連テーブル41に基づいて、関連性のある2つの資源のうちの一方を含む資源管理グループ33と、他方を含む資源管理グループ33とを統合するように資源管理テーブル40(図5)を更新する(SP5)。
例えば図12の例の場合、資源関連テーブル41に新たに追加された資源ペアを構成する「IP addr2」というIPアドレス30は「rmng3」という資源管理グループ33に属し、「Share2」というファイル共有31は「rmng2」という資源管理グループ33に属するため、図13に示すように、これら「rmng3」という資源管理グループ33及び「rmng2」という資源管理グループ33を1つの資源管理グループに統合することができる。
そこでCPU10は、このような場合に「rmng3」という資源管理グループ33及び「rmng2」という資源管理グループ33を1つの資源管理グループに統合し、これに応じて例えば図11に示すように資源管理テーブル33を更新する。なお、図11では、「rmng3」という資源管理グループを「rmng2」という資源管理グループに吸収した例を示している。図5及び図11の比較からも明らかなように、このような資源管理グループ33の統合により管理対象の資源管理グループ33を減少させることができる。
またCPU10は、このような資源管理グループ33の統合と併せて、統合された資源管理グループ33の最終使用日時欄を現在の日時に変更し(SP5)、この後、この資源関連付け処理を終了する。
なお、上述の資源関連付け処理でカウントした資源ペアごとの使用頻度に基づいて、使用頻度が低い資源ペア(又はその資源ペアを構成する各資源)や、一定期間使用されていない資源ペア(又はその資源ペアを構成する各資源)については、例えばユーザが管理端末3を操作して新たな仮想NAS21を作成する際などに未使用資源として図14のようにリスト表示してユーザに提示し、その資源ペア(又はその資源ペアを構成する各資源)の利用を促すようにしても良い。
(2−3)仮想NAS削除処理
次に、NASサーバ5上に設定された仮想NAS21を削除する仮想NAS削除処理に関するNASサーバ5のCPU10の具体的な処理内容について説明する。以下においては、上述の資源関連付け処理によって、NASサーバ5の各資源が図11〜図13のように関連付けられているものとする。
仮想NAS21を使用しなくなった場合に、今後もその仮想NAS21を使用しないことが分かっているときには、当該仮想NAS21に割り当てたすべての資源を解放することができる。ただし、解放された資源は、この後他の仮想NAS21に割り当てられることになるため、使用しなくなった仮想NAS21でも再使用する可能性があるときには、その資源を解放しない方が良い。しかしながら、このような場合にもその仮想NAS21のOS23が使用していた資源管理グループ33を構成していた資源については解放することができ、このようにすることによって資源の有効利用を図ることができる。
そこで本実施の形態の場合、NASサーバ5上に設定された仮想NAS21を削除する際には、その仮想NAS21のOS23が使用していた資源のみを解放し、クライアント2が使用していた当該仮想NAS21の資源については、解放することなくその管理を管理ノード20に移すようになされている。
図15は、このような仮想NAS削除処理に関するNASサーバ5のCPU10の具体的な処理内容を示している。
ユーザが管理端末3を操作し、NASサーバ5上に設定された所望の仮想NAS21を指定してその削除指示を入力すると、その仮想NAS21の削除命令(以下、これを仮想NAS削除命令と呼ぶ)が管理端末3からNASサーバ5に与えられる。そして、この仮想NAS削除命令を受信したNASサーバ5のCPU10は、削除対象としてユーザが指定した仮想NAS21の資源管理プログラム25(図1)に基づいて、この図15に示す仮想NAS削除処理を実行することにより、当該仮想NAS21をNASサーバ5上から削除する。
すなわちCPU10は、この仮想NAS削除処理を開始すると、まず、資源管理テーブル40(図11)のレコードであって、ユーザにより指定された削除対象の仮想NAS21のNAS_IDがNAS_ID欄40D(図11)に格納され、かつ最終使用日時欄40Bに格納された最終使用日時が予め定められた閾値(以下、これを最終使用日時閾値と呼ぶ)よりも古いレコードをすべて抽出する(SP10)。
続いてCPU10は、ステップSP10において抽出したすべてのレコードに対して後述するステップSP12〜ステップSP14の処理を実行し終えたか否かを判断する(SP11)。そしてCPU10は、この判断において否定結果を得ると、ステップSP12〜ステップSP14が未処理のレコードを1つ選択し(SP12)、そのレコードに対応する資源管理グループ33が、仮想NAS21のOS23(図1)が使用する資源管理グループ33であるか否かを判断する(SP13)。
例えば図11〜図13の例では、「rmng1」という資源管理グループ33は、仮想NAS21のOS23がシステム用の論理ボリューム15にアクセスする際に使用する資源管理グループ33であるため、ステップSP12においてこの資源管理グループ33に対応するレコードが選択された場合、CPU10はこのステップSP13において肯定結果を得ることになる。また図11〜図13の「rmng2」という資源管理グループ33は、クライアント2がユーザ用の論理ボリューム15にアクセスする際に使用する管理資源グループ33であるため、ステップSP12においてこの資源管理グループ33に対応するレコードが選択された場合、CPU10はこのステップSP13において否定結果を得ることになる。
かくしてCPU10は、ステップSP13において肯定結果を得た場合にはステップSP11に戻る。
これに対してCPU10は、かかるステップSP13において否定結果を得た場合には、図16の上段及び中段に示すように、資源管理テーブル40上のステップSP12において選択したレコードのアクティブ情報欄40Cに格納されたアクティブ情報を、使用可能状態であることを表す「active」から使用不可能であることを表す「inactive」に変更する。またCPU10は、そのレコードのNAS_ID欄40Dに管理ノード20のNAS_IDを格納する(SP14)。
これにより図17の上段及び中段に示すように、その仮想NAS21に割り当てられたかかるレコードに対応する資源管理グループ33が資源管理グループ単位でその仮想NAS21から切り離され(削除対象の仮想NAS21に対する割り当てが解除され)、当該仮想NAS21の所属先が削除対象の仮想NAS21から管理ノード20に移動する。またこれに伴い、その資源管理グループ33に属する各資源は、この後は管理ノード20が使用しているものとして管理される。従って、これらの資源がこの後他の仮想NAS21に割り当てられることはない。
続いてCPU10は、ステップSP11に戻り、この後ステップSP11において肯定結果を得るまで同様の処理を繰り返す。
そしてCPU10は、やがてステップSP10において抽出したすべてのレコードについて同様の処理を終えることによりステップSP11において肯定結果を得ると、かかる仮想NAS21に属する資源管理グループ33と対応付けられたレコードであって、当該仮想NAS21のOS23が使用する資源管理グループ33と対応付けられたレコード以外のレコード(つまりクライアント2が使用する資源管理グループ33と対応付けられたレコード)が資源管理テーブル40上に存在しなくなったか否かを判断する(SP15)。
この判断において否定結果を得ることは、かかる仮想NAS21に属する資源管理グループ33と対応付けられたレコードであって、最終使用日時がステップSP10において上述した最終使用日時閾値よりも新しい資源管理グループ33と対応付けられたレコードが資源管理テーブル40上に存在することを意味する。かくして、このときCPU10は、この仮想NAS削除処理を終了する。
これに対してステップSP15の判断において肯定結果を得ることは、かかる仮想NAS21のOS23が使用する資源管理グループ33に対応するレコード以外の資源管理グループ33の管理をすべて管理ノード20に移行し終えたことを意味する。かくして、このときCPU10は、当該仮想NAS21を停止(その仮想NAS21のOS23を停止)する(SP16)。
続いてCPU10は、図16の中段及び下段に示すように、資源管理テーブル40上のそのとき対象としている仮想NAS21のOS23が使用する資源管理グループ33と対応付けられたレコードのアクティブ情報欄40Cに格納されているアクティブ情報を「active」から「inactive」に変更すると共に、そのレコードのNAS_ID欄40Dに管理ノード20のNAS_IDを格納する(SP17)。
さらにCPU10は、図7について上述した仮想NAS管理テーブル42のレコードのうち、削除対象の仮想NAS21と対応するレコードを削除する(SP18)。これにより図17の中段及び下段に示すように、NASサーバ5上のその仮想NAS21が削除される。またCPU10は、これと併せてかかる仮想NAS21のOS23が使用していた資源を解放する。そしてCPU10は、この後、この仮想NAS削除処理を終了する。
(2−4)仮想NAS再構築処理
仮想NAS21では複数の資源を管理するが、これら資源には利用に際して何らかの制限がある場合がある。このため、管理が管理ノード20に移された資源管理グループ33を再利用して仮想NAS21を再構築するに際しては、その資源管理グループ33を再利用可能であるか否かを事前に判定する必要がある。
例えば、一般のIPv4規格に準拠したLAN(Local Area Network)では、1つのネットワークインタフェースに複数のIPアドレスを付与することが可能であるが、異なるネットワークに属するIPアドレスを同一のネットワークインタフェースに割り当てるとネットワークが混乱する場合がある。仮想NAS21もネットワークから見ると1つのネットワーク機器であるため、外部のネットワークに関する事項についての状況は同じである。従って、ネットワークの混乱を防止するためには、NIC12(図2)を共有するIPアドレス30(図2)が同一ネットワークに属している必要がある。
ここで、図18及び図19に示すように、「rmng1」という資源管理グループ33及び「rmng2」という資源管理グループ33が管理ノード20に属し、「rmng3」という資源管理グループ33が「VNAS1」というアクティブな仮想NAS21に属し、「rmng2」という資源管理グループ33及び「rmng3」という資源管理グループ33が「NIC2」という資源を共有しているものとする。
この状態において、「rmng2」という資源管理グループ33に属する「IP addr2」と、「rmng3」という資源管理グループ33に属する「IP addr3」とが同一のネットワークに属さない場合、「rmng2」という資源管理グループ33は、「rmng3」という資源管理グループ33との間で競合(コンフリクト)を起こす。従って、この場合には、「rmng2」という資源管理グループ33のIPアドレス30を変更するなどして競合を解消しない限り「rmng2」という資源管理グループ33を再使用することはできない。
これに対して、「rmng2」という資源管理グループ33に属する「IP addr2」と、「rmng3」という資源管理グループ33に属する「IP addr3」とが同一のネットワークに属さない場合には、「rmng2」という資源管理グループ33は、「rmng3」という資源管理グループ33との間で競合を起こさないため、再利用が可能である。
以上のような競合の有無を判定する方法(以下、これを競合判定方法と呼ぶ)としては、資源間の関連を用いる方法が考えられる。すなわち資源管理テーブル33に登録された資源は、すべていずれかの資源管理グループ33に属する。従って、資源管理グループ33から資源間の関連を辿ることによって競合の有無を判定することができる。
例えば図18及び図19の例において、「rmng2」という資源管理グループ33を再利用する場合、資源管理テーブル33上において「rmng2」という資源管理グループ33のネットワークインタフェースである「NIC2」というNIC12を使用しているアクティブな資源管理グループ33を検索する。この検索の結果、図18及び図19の例では、「rmng3」という資源管理グループ33が検出される。そこで、この「rmng3」という資源管理グループ33が使用しているIPアドレス30(「IP addr3」)と、再利用対象の「rmng2」という資源管理グループ33が使用しているIPアドレス30(「IP addr2」)とを比較し、これらのIPアドレス30が同一のネットワークに属するか否かを判定する。以下においては、このような競合判定方法を第1の競合判定方法と呼ぶものとする。
なお、IPアドレス30は、ネットワークを識別するためのネットワークアドレスと、ネットワーク内の個々の通信機器を識別するためのホストアドレスとの組み合わせにより構成されているため、かかるネットワークアドレスの部分を比較することにより2つのIPアドレス30が同一のネットワークに属するか否かを判定することができる。
また他の競合判定方法(以下、これを第2の競合判定方法と呼ぶ)として、資源間の関連図を用いる方法も考えられる。具体的には、図18及び図19の例において、「rmng2」という資源管理グループ33及び「rmng3」という資源管理グループ33における各資源間の関連は図20のように表すことができる。この図20において各資源間を結ぶ線は、その線の両端側の資源間に関連があることを示す関連線である。
図20において、「NIC2」というNIC12は、「rmng2」という資源管理グループ33及び「rmng3」という資源管理グループ33において共有されているため、「NIC2」は「rmng2」という資源管理グループ33の「IP addr2」及び「rmng3」という資源管理グループ33の「IP addr3」の双方と関連線によって結ばれている。従って、この図20を参照することによって、「rmng2」という資源管理グループ33を再利用するためには、「IP addr2」及び「IP addr3」が同一ネットワークに属していなければならないことが判定できる。
図21は、上述のような仮想NAS再構築処理に関するNASサーバ5のCPU10の具体的な処理内容を示している。
ユーザが管理端末3を操作し、所望の仮想NAS21を指定してその再構築指示を入力すると、その仮想NAS21の再構築命令(以下、これを仮想NAS再構築命令と呼ぶ)が管理端末3からNASサーバ5に与えられる。そして、この仮想NAS再構築命令を受信したNASサーバ5のCPU10は、再構築対象としてユーザが指定した仮想NAS21の資源管理プログラム25(図1)に基づいて、この図21に示す仮想NAS再構築処理を実行することにより、当該仮想NAS21をNASサーバ5上に再構築する。
すなわちCPU10は、この仮想NAS再構築処理を開始すると、まず、資源管理テーブル40のレコードのうち、再構築対象の仮想NAS21に割り当てるべき資源管理グループとしてユーザにより指定された各資源管理グループ33(通常はその仮想NAS21の削除前に当該仮想NAS21に割り当てられていた資源管理グループ33)とそれぞれ対応するレコードをすべて選択する(SP20)。なお、かかる再構築対象の仮想NAS21に割り当てるべき資源管理グループ33の指定は、ユーザにより管理端末3を用いて行なわれる。そしてこのとき指定された資源管理グループ33の識別子(以下、適宜、これを資源管理グループIDと呼ぶ)が上述の仮想NAS再構築命令と共に管理端末3からNASサーバ5に与えられる。
続いてCPU10は、ステップSP20において選択したすべてのレコードに対してステップSP23について後述する競合判定処理を実行し終えたか否かを判断する(SP21)。そしてCPU10は、この判断において否定結果を得ると、かかる競合判定処理が未処理のレコードを1つ選択し(SP22)、そのレコードを再利用する場合に既にアクティブ状態となっている他の資源管理グループ33との間で競合が生じないか否かを、上述した第1又は第2の競合判定方法により判定する(SP23)。
CPU10は、この判断において肯定結果を得るとステップSP21に戻り、これに対して否定結果を得るとエラー通知を管理端末3に送信し(SP24)、この後、この仮想NAS再構築処理を終了する。
一方、CPU10は、ステップSP20において選択したすべてのレコードについて競合が生じないとの判定が得られたことによりステップSP21において肯定結果を得ると、図22の上段及び中段に示すように、そのときユーザに指定された仮想NAS21を新規に作成する(SP25)。具体的に、CPU10は、ユーザが指定した論理ボリューム15をシステム用論理ボリューム15として再構築対象の仮想NAS21に割り当て、当該仮想NAS21のNAS_ID及び当該論理ボリューム15のボリュームIDを対応付けて図7について上述した仮想NAS管理テーブル42に登録する。
続いてCPU10は、図23に示すように、資源管理テーブル40上のステップSP20において選択した各レコードについて、アクティブ情報欄40Cに格納されたアクティブ情報を「inactive」から「active」に変更すると共に、NAS_ID欄40Dに格納されたNAS_IDを、管理ノード20のNAS_IDから再構築した仮想NAS21のNAS_IDに変更する(SP26)。
これにより図22の中段及び下段に示すように、ユーザにより指定された各資源管理グループ33(OS23が使用する資源管理グループ33も含む)がそのとき再構築した仮想NAS21に属するようになり、かくして仮想NAS21がその資源管理グループ33を使用できるようになる。
次いでCPU10は、再構築した仮想NAS21を起動(その仮想NAS21のOS23)を起動し(SP27)、この後、この仮想NAS再構築処理を終了する。
(2−5)仮想NAS再起動処理
通常、クライアントが仮想NASにアクセスする際には、ARP(Address Resolution Protocol)によるアドレス解決が行なわれる。これは、クライアントが対象とする仮想NASのIPアドレスをセットしたMACアドレス解決要求をネットワークにブロードキャストすることにより行なわれる。かかるIPアドレスの所有者である仮想NASがネットワーク上に存在する場合、その仮想NASはかかるMACアドレス解決要求に応じて自己のMACアドレスをそのクライアントに送信する。かくしてクライアントは、かかる仮想NASから送信されてきたMACアドレスに基づいて、その仮想NASとの通信が可能となる。
そこで、NASサーバ5の管理ノード20は、かかるクライアント2からのMACアドレス解決要求を監視し、停止中の仮想NAS21に対するMACアドレス解決要求を一定期間内に一定量検知したときに、その仮想NAS21を再起動するようになされている。
図24は、このような仮想NAS再起動処理に関するNASサーバ5のCPU10の具体的な処理内容を示している。かかるCPU10は、メモリ11に格納された仮想NAS管理プログラム22(図1)に従って、この図24に示す仮想NAS再起動処理を実行する。
すなわちCPU10は、クライアントからのMACアドレス解決要求を待ち受け(SP30)、やがてかかるMACアドレス解決要求を受信すると、資源管理テーブル40(図5)を参照して、当該MACアドレス解決要求において指定されたIPアドレスが属する資源管理グループ33が存在するか否かを判断する(SP31)。
CPU10は、この判断において否定結果を得ると、ステップSP30に戻り、これに対して肯定結果を得ると、資源管理テーブル40を参照して、その資源管理グループ33の状態がインアクティブであるか否かを判断する(SP32)。
CPU10は、この判断において否定結果を得るとステップSP30に戻り、これに対して肯定結果を得ると、かかるIPアドレスを指定したMACアドレス解決要求を過去に受信したか否かを判断する(SP33)。
そのための手段として、CPU10は、過去に受信したMACアドレス解決要求を管理するための図25に示すような監視テーブル51をメモリ11に保持している。
この監視テーブル51は、IPアドレス欄51A、初回受信時刻欄51B、最終受信時刻欄51C及びカウント欄51Dから構成され、それまで登録されていない新たなIPアドレスを指定したMACアドレス解決要求を受信するごとに、そのIPアドレスがIPアドレス欄51Aに格納される。
また初回受信時刻欄51Bには、そのIPアドレスを指定したMACアドレス解決要求を初めて受信した日時が格納され、最終受信時刻欄51Cには、そのIPアドレスを指定したMACアドレス解決要求を最後に受信した日時が格納される。さらにカウント欄51Dには、そのIPアドレスを指定したMACアドレス解決要求を受信した回数が格納される。
そしてCPU10は、MACアドレス解決要求を受信すると、監視テーブル51を参照して、そのMACアドレス解決要求において指定されたIPアドレスを指定したMACアドレス解決要求を過去に受信したことがあるか否かを判断し、否定結果を得ると、そのIPアドレスを監視テーブル51に新たに登録する(SP34)。
具体的に、CPU10は、そのIPアドレスを監視テーブル51のIPアドレス欄51Aに新たに格納すると共に、そのIPアドレス欄51Aと対応する初回受信時刻欄51B及び最終受信時刻欄51Cに現在の日時を格納する。またCPU10は、カウント欄51Dにカウント値として「1」を格納する。
この後、CPU10は、ステップSP30に戻り、次のMACアドレス解決要求を受信するのを待ち受ける(SP30)。
一方、CPU10は、ステップSP33の判断において肯定結果を得ると、監視テーブル51の対応するレコードのカウント欄51Dに格納されたカウント値を「1」だけカウントアップし(SP35)、この後、そのレコードのカウント欄51Dに格納されたカウント値が予め定められた閾値を超えたか否かを判断する(SP36)。
そしてCPU10は、この判断において肯定結果を得ると、そのレコードに対応する仮想NAS21を起動し(SP38)、監視テーブル51のそのレコードを削除した後(SP39)、ステップSP30に戻る。
これに対してCPU10は、ステップSP36の判断において否定結果を得ると、監視テーブル51におけるそのレコードの初回受信時刻欄51Bに格納された初回受信時刻から現在までの経過時間が予め定められた閾値を超えたか否かを判断する(SP37)。
そしてCPU10は、この判断において否定結果を得るとステップSP30に戻り、これに対して肯定結果を得ると、そのとき対象としているレコードを監視テーブル51から削除した後(SP39)、ステップSP30に戻る。
(3)本実施の形態の効果
以上のように本実施の形態による情報処理システム1では、ユーザの設定によらない資源間の関連性クライアント2からのデータアクセスに基づいて抽出し、抽出結果に基づいて関連性のある資源管理グループ33を統合するようにしているため、資源管理の管理対象を減少させることができ、かくして資源管理を容易化させることができる。
また本実施の形態による情報処理システム1では、各資源管理グループ33の管理をNASサーバ5の管理ノード20において一元管理するようにしているため、仮想NAS21ごとの資源管理を行なう必要がなく、その分、より一層と資源管理を容易化させることができる。
(4)他の実施の形態
なお上述の実施の形態においては、本発明を図1のように構成されたNASサーバ5に適用するようにした場合について述べたが、本発明はこれに限らず、要は、クライアント2に対してファイル共有サービスを提供する仮想的なノードに割り当てられた資源を、相互に関連付けられた複数の資源からなる資源管理グループ33を単位として管理する種々の構成の管理装置に広く適用することができる。従って、かかる管理装置をNASサーバ5とは別個に設けるようにしても良い。
また上述の実施の形態においては、クライアント2からのアクセスの履歴情報(アクセスログ管理テーブル50に格納された各アクセスログ)に基づいて、資源間の関連性を抽出する関連性抽出部と、関連性抽出部により抽出された資源間の関連性に基づいて、関連性のある資源管理グループ33を統合する統合部と、各資源管理グループ33を一元管理する管理部とを同じ1つの管理ノード20により構成するようにした場合について述べたが、本発明はこれに限らず、これら関連性抽出部、統合部及び管理部を別個のノードとして設けるようにしても良い。
さらに上述の実施の形態においては、各仮想NAS21に割り当てる資源を管理するための資源管理テーブル40を図5のように構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を広く適用することができる。
本発明は、NASサーバのほか、クライアントに対してファイル共有サービスを提供する仮想的なノードに割り当てられた資源を、相互に関連付けられた複数の資源からなる資源管理グループを単位として管理する管理装置に広く適用することができる。
本実施の形態による情報処理システムの全体構成を略線的に示すブロック図である。 情報処理システムにおける資源の説明に供するブロック図である。 情報処理システムにおける資源のデータ構成を示すクラス図である。 資源間の関連付けの説明に供する概念図である。 資源管理テーブルの構成を示す図表である。 資源関連テーブルの構成を示す図表である。 仮想NAS管理テーブルの構成を示す図表である。 データアクセス時における資源の使用順序を示す概念図である。 アクセスログ管理テーブルの構成を示す図表である。 資源関連付け処理の処理手順を示すフローチャートである。 資源関連付け処理の説明に供する図表である。 資源関連付け処理の説明に供する図表である。 資源関連付け処理の説明に供する概念図である。 未使用資源のリスト表示例を略線的に示す略線図である。 仮想NAS削除処理の処理手順を示すフローチャートである。 仮想NAS削除処理の説明に供する図表である。 仮想NAS削除処理の説明に供する概念図である。 仮想NAS再構築処理の説明に供する図表である。 仮想NAS再構築処理の説明に供する概念図である。 第2の競合判定方法の説明に供する概念図である。 仮想NAS再構築処理の処理手順を示すフローチャートである。 仮想NAS再構築処理の説明に供する概念図である。 仮想NAS再構築処理の説明に供する図表である。 仮想NAS再起動処理の処理手順を示すフローチャートである。 監視テーブルの構成を示す図表である。
符号の説明
1……情報処理システム、2……クライアント、3……管理端末、5……NASサーバ、7……ストレージ装置、10……CPU、11……メモリ、12……NIC、13……HBA、15……論理ボリューム、20……管理ノード、21……仮想NAS、22……仮想NAS管理プログラム、23……OS、25……資源管理プログラム、30……IPアドレス、31……ファイル共有、32……ファイルシステム、42……仮想NAS管理テーブル、50……アクセスログ管理テーブル、51……監視テーブル。

Claims (10)

  1. クライアントに対してファイル共有サービスを提供する仮想的なノードに割り当てられた資源を、相互に関連付けられた複数の前記資源からなる資源管理グループを単位として管理する管理装置において、
    前記クライアントからのアクセスの履歴情報に基づいて、前記資源間の関連性を抽出する関連性抽出部と、
    前記関連性抽出部により抽出された前記資源間の関連性に基づいて、関連性のある前記資源管理グループを統合する統合部と
    を備えることを特徴とする管理装置。
  2. 各前記資源管理グループを一元管理する管理部を備える
    ことを特徴とする請求項1に記載の管理装置。
  3. 前記管理部は、
    前記ノードに割り当てられた前記資源を当該ノードから切り離す際には、当該資源を前記資源管理グループ単位で前記ノードから切り離す
    ことを特徴とする請求項2に記載の管理装置。
  4. 前記管理部は、
    前記ノードを削除する際に、前記ノードに割り当てられた前記資源管理グループのうち、前記クライアントのアクセスに使用する前記資源グループは解放せずに、当該ノードのシステムが使用する前記資源管理グループを解放する
    ことを特徴とする請求項2に記載の管理装置。
  5. 前記管理部は、
    前記ノードを再構築する際に、当該ノードに割り当てるべき前記資源管理グループに含まれる資源が、他の前記ノードが使用する前記資源管理グループに含まれる資源と競合しないか否かを判定し、競合しないときに当該資源管理グループを当該ノードに割り当てる
    ことを特徴とする請求項2に記載の管理装置。
  6. クライアントに対してファイル共有サービスを提供する仮想的なノードに割り当てられた資源を、相互に関連付けられた複数の前記資源からなる資源管理グループを単位として管理する管理方法において、
    前記クライアントからのアクセスの履歴情報に基づいて、前記資源間の関連性を抽出する第1のステップと、
    抽出した前記資源間の関連性に基づいて、関連性のある前記資源管理グループを統合する第2のステップと
    を備えることを特徴とする管理方法。
  7. 各前記資源管理グループが一元管理された
    ことを特徴とする請求項6に記載の管理方法。
  8. 前記ノードに割り当てられた前記資源を当該ノードから切り離す際には、当該資源を前記資源管理グループ単位で前記ノードから切り離す
    ことを特徴とする請求項7に記載の管理方法。
  9. 前記ノードを削除する際に、前記ノードに割り当てられた前記資源管理グループのうち、前記クライアントのアクセスに使用する前記資源グループは解放せずに、当該ノードのシステムが使用する前記資源管理グループを解放する
    ことを特徴とする請求項7に記載の管理方法。
  10. 前記ノードを再構築する際に、当該ノードに割り当てるべき前記資源管理グループに含まれる資源が、他の前記ノードが使用する前記資源管理グループに含まれる資源と競合しないか否かを判定し、競合しないときに当該資源管理グループを当該ノードに割り当てる
    ことを特徴とする請求項7に記載の管理方法。
JP2008117520A 2008-04-28 2008-04-28 管理装置及び管理方法 Pending JP2009266106A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008117520A JP2009266106A (ja) 2008-04-28 2008-04-28 管理装置及び管理方法
US12/140,882 US7970882B2 (en) 2008-04-28 2008-06-17 Management apparatus and management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008117520A JP2009266106A (ja) 2008-04-28 2008-04-28 管理装置及び管理方法

Publications (1)

Publication Number Publication Date
JP2009266106A true JP2009266106A (ja) 2009-11-12

Family

ID=41216080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008117520A Pending JP2009266106A (ja) 2008-04-28 2008-04-28 管理装置及び管理方法

Country Status (2)

Country Link
US (1) US7970882B2 (ja)
JP (1) JP2009266106A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011083522A1 (ja) * 2010-01-05 2011-07-14 株式会社日立製作所 計算機システム及びその可用化方法
US9841900B2 (en) 2014-09-02 2017-12-12 Fujitsu Limited Storage control apparatus, method, and medium for scheduling volume recovery

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8156540B2 (en) 2009-01-28 2012-04-10 Dell Products, Lp System and method for managing feature enablement in an information handling system
US8495108B2 (en) 2010-11-30 2013-07-23 International Business Machines Corporation Virtual node subpool management
US10796010B2 (en) * 2017-08-30 2020-10-06 MyMedicalImages.com, LLC Cloud-based image access systems and methods
US20220247750A1 (en) * 2021-01-29 2022-08-04 Paypal, Inc. Evaluating access requests using assigned common actor identifiers

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001098951A1 (en) * 2000-06-22 2001-12-27 Synchrologic, Inc. A system and method for file transmission using file differentiation
US7054927B2 (en) * 2001-01-29 2006-05-30 Adaptec, Inc. File system metadata describing server directory information
US7237243B2 (en) * 2001-06-11 2007-06-26 Microsoft Corporation Multiple device management method and system
US6880002B2 (en) * 2001-09-05 2005-04-12 Surgient, Inc. Virtualized logical server cloud providing non-deterministic allocation of logical attributes of logical servers to physical resources
US7360034B1 (en) 2001-12-28 2008-04-15 Network Appliance, Inc. Architecture for creating and maintaining virtual filers on a filer
US8578053B2 (en) * 2002-12-05 2013-11-05 Fujitsu Limited NAS load balancing system
JP2004227098A (ja) * 2003-01-20 2004-08-12 Hitachi Ltd 記憶デバイス制御装置の制御方法、及び記憶デバイス制御装置
JP4457614B2 (ja) * 2003-09-16 2010-04-28 富士ゼロックス株式会社 情報提供システムおよびそのプログラム
JP2005165486A (ja) * 2003-12-01 2005-06-23 Sony Corp ファイル管理装置、ストレージ管理システム、ストレージ管理方法、プログラム及び記録媒体
JP4448719B2 (ja) 2004-03-19 2010-04-14 株式会社日立製作所 ストレージシステム
JP3974150B2 (ja) 2006-01-19 2007-09-12 富士通株式会社 資産情報の一元管理を行うコンピュータシステム
JP4890048B2 (ja) * 2006-02-24 2012-03-07 株式会社日立製作所 記憶制御装置及び記憶制御装置を用いたデータマイグレーション方法
JP2007279890A (ja) * 2006-04-04 2007-10-25 Hitachi Ltd バックアップシステム及びバックアップ方法
JP2008021116A (ja) * 2006-07-12 2008-01-31 Hitachi Ltd San/nas統合管理計算機及び方法
US8069191B2 (en) * 2006-07-13 2011-11-29 International Business Machines Corporation Method, an apparatus and a system for managing a snapshot storage pool
US7970851B2 (en) * 2006-10-31 2011-06-28 Netapp, Inc. Method and system for managing and monitoring virtual storage servers of a hosting storage server
JP2007257645A (ja) 2007-03-26 2007-10-04 Fujitsu Ltd 資産情報の一元管理を行うコンピュータシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011083522A1 (ja) * 2010-01-05 2011-07-14 株式会社日立製作所 計算機システム及びその可用化方法
US9841900B2 (en) 2014-09-02 2017-12-12 Fujitsu Limited Storage control apparatus, method, and medium for scheduling volume recovery

Also Published As

Publication number Publication date
US7970882B2 (en) 2011-06-28
US20090271506A1 (en) 2009-10-29

Similar Documents

Publication Publication Date Title
US20210247973A1 (en) Virtualized file server user views
CN105892943B (zh) 一种分布式存储系统中块存储数据的访问方法及系统
US8103826B2 (en) Volume management for network-type storage devices
US7730259B2 (en) Method, computer and system for managing a storage subsystem configuration
US7509443B2 (en) Storage management system and method using performance values to obtain optimal input/output paths within a storage network
EP1953636A2 (en) Storage module and capacity pool free capacity adjustment method
US20100199065A1 (en) Methods and apparatus for performing efficient data deduplication by metadata grouping
US8069217B2 (en) System and method for providing access to a shared system image
US20120096059A1 (en) Storage apparatus and file system management method
US8412901B2 (en) Making automated use of data volume copy service targets
CN105975210A (zh) 数据存储系统和数据存储控制方法
JP2007257317A (ja) 記憶システム及び記憶領域解放方法並びにストレージシステム
US9460003B2 (en) Using an alias volume name for a volume to allocate space to a data set
JP2009266106A (ja) 管理装置及び管理方法
US8838768B2 (en) Computer system and disk sharing method used thereby
US20210117235A1 (en) Storage system with efficient release of address lock waiters during synchronous replication
US20180129521A1 (en) Parallel mapping of client partition memory to multiple physical adapters
US20130318102A1 (en) Data Handling in a Cloud Computing Environment
US20180165380A1 (en) Data processing system and data processing method
US10685046B2 (en) Data processing system and data processing method
CN112714910A (zh) 分布式存储系统及计算机程序产品
WO2012066597A1 (en) Computer system and performance assurance method
CN116401227A (zh) 一种集群配置方法、装置、设备及介质
US20170255408A1 (en) Information processing apparatus, storage system, computer-readable recording medium having control program recorded therein, and method of controlling storage
JP2015079280A (ja) 情報処理装置および情報処理方法およびプログラム