JP4313650B2 - ファイルサーバ、冗長度回復方法、プログラム及び記録媒体 - Google Patents

ファイルサーバ、冗長度回復方法、プログラム及び記録媒体 Download PDF

Info

Publication number
JP4313650B2
JP4313650B2 JP2003377819A JP2003377819A JP4313650B2 JP 4313650 B2 JP4313650 B2 JP 4313650B2 JP 2003377819 A JP2003377819 A JP 2003377819A JP 2003377819 A JP2003377819 A JP 2003377819A JP 4313650 B2 JP4313650 B2 JP 4313650B2
Authority
JP
Japan
Prior art keywords
file
server
redundancy
servers
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003377819A
Other languages
English (en)
Other versions
JP2005141528A (ja
Inventor
浩二 薗田
正明 岩嵜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003377819A priority Critical patent/JP4313650B2/ja
Priority to US10/785,950 priority patent/US7146368B2/en
Publication of JP2005141528A publication Critical patent/JP2005141528A/ja
Application granted granted Critical
Publication of JP4313650B2 publication Critical patent/JP4313650B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99953Recoverability

Description

本発明は、ファイルサーバ、冗長度回復方法、プログラム及び記録媒体に係り、特に、同一のファイルを格納することでファイルの冗長度を確保するファイルサーバ、冗長度回復方法、プログラム及び記録媒体に関する。

従来より、データを冗長構成のディスクドライブにバックアップさせるシステムが知られている。例えば、特許文献1には、冗長構成のディスクドライブ群の中で、あるディスクドライブに障害が発生した場合に、障害の発生したディスクドライブと同一内容のデータを保持する別のディスクドライブから予備のディスクドライブにデータをバックアップすることによりデータの冗長度を維持する技術が掲載されている。
なお、非特許文献1には、ファイルを複数のファイルサーバに分散させて保存するシステムに関して、M-of-Nエンコーディングというファイルの分散/復元方法に関する技術が記載されている。
特開平9−330182号公報 「メンテナンスフリー・グローバル・データ・ストレージ(Maintenance-Free Global Data Storage)」,インターネット・コンピューティング(INTERNET COMPUTING),(米国),アイイーイーイー・コンピュータ・ソサイエティ(IEEE COMPUTER SOCIETY),2001年,9月−10月,P.40−49
しかし、上記特許文献1には、所定の制御装置によってディスクドライブ群が制御されると記載されている。そのため、ディスクドライブの障害発生時におけるバックアップ処理等は、かかる制御装置によって行われていた。従って、このような制御装置自体に障害が発生した場合には、データの冗長度を維持することができないという課題があった。
本発明は、このような課題に鑑みてなされたものであり、複数のファイルサーバがネットワークによって接続されたシステムにおいて、中央集権的な制御装置を用いることなくシステム内に保存されたファイルの冗長度を維持することを目的とし、更に、各ファイルサーバが備える記憶装置の利用状態を均衡化することを目的とする。
上記課題の少なくとも一部を解決するため、本発明のファイルサーバを次のように構成した。すなわち、所定の冗長度に応じて同一のファイルをネットワークによって接続された複数のファイルサーバに分散して保存するシステムに用いられるファイルサーバであって、前記システム内に保存されているファイルの冗長度の低下を検知する冗長度低下検知部と、前記冗長度低下検知部がファイルの冗長度の低下を検知した場合に、当該ファイルサーバが冗長度を回復させる主体になるか否かを判定する判定部と、前記判定部によって主体になると判定した場合に、前記冗長度の低下したファイルと同一のファイルが保存されていないファイルサーバを所定の条件に基づき選択してコピー先サーバとして設定し、更に、前記冗長度の低下したファイルと同一のファイルを保存するいずれかのファイルサーバをコピー元サーバとして設定し、これらの設定に基づき、前記コピー元サーバから前記コピー先サーバに前記冗長度の低下したファイルと同一のファイルをコピーさせる冗長度回復処理部とを備えることを要旨とする。
本発明によれば、ネットワークに接続された各ファイルサーバが、ファイルの冗長度を回復させる主体になるか否かをそれぞれ判断した上で、冗長度を回復させる処理を行う。従って、かかるファイルサーバを有するシステムは、自立的にファイルの冗長度を維持することが可能となる。
各ファイルサーバが、冗長度を回復させる主体になるか否かは、種々の条件に基づき判定することができる。例えば、当該ファイルサーバが、前記冗長度の低下したファイルが最初に作成されたファイルサーバである場合に、冗長度を回復させる主体になると判定するものとしてもよい。
また、当該ファイルサーバが、前記冗長度の低下したファイルと同一のファイルを保存していない場合には、冗長度を回復させる主体にならないと判定するものとしてもよい。こうすることにより、冗長度の低下したファイルと同一のファイルを保存するいずれかのファイルサーバが冗長度を回復させる主体となる。
また、前記システム内の各ファイルサーバにはそれぞれ優先度が設定されており、当該ファイルサーバの前記優先度が最も高い場合に、冗長度を回復させる主体になると判定するものとしてもよい。こうすることにより、冗長度を回復させる主体が複数となることがないため、ネットワーク上を流れるトラフィックを抑制することができる。
また、当該ファイルサーバが、前記冗長度の低下したファイルと同一のファイルを保存しており、かつ、前記優先度が、前記冗長度の低下したファイルと同一のファイルを保存しているファイルサーバの中で最も高い場合に、冗長度を回復させる主体になると判定するものとしてもよい。こうすることにより、保存しているファイルに応じて冗長度を回復させる主体がシステム内に分散することとなり、負荷の集中を抑制することが可能となる。
上記構成のファイルサーバにおいて、前記冗長度低下検知部は、他のファイルサーバに障害が発生したことを検知した場合にファイルの冗長度が低下したものとみなすものとしてもよい。ファイルサーバになんらかの障害が発生すると、正常にファイルの入出力ができなくなるおそれがある。そのため、実際には障害の発生したファイルサーバにファイルが正常に保存されていたとしても、そのファイルの冗長度が低下したと判断することが好ましい。こうすることによって、障害の原因に関わらず、ファイルの冗長度を維持することが可能となる。
このようなファイルサーバにおいて、更に、前記システム内に保存されている各ファイルと、該各ファイルを保存しているファイルサーバとの対応関係を記憶するロケーション記憶部を備えさせ、前記判定部は、前記ロケーション記憶部を検索し、当該ファイルサーバに、前記障害の発生したファイルサーバに保存されているファイルと同一のファイルが保存されていることが検索された場合に、冗長度を回復させる主体になると判定するものとしてもよい。こうすることにより、障害の発生したファイルサーバに保存されているファイルを、他のファイルサーバに振り替えて保存することができる。
また、前記ロケーション記憶部に対して、同一のファイルを保存する複数のファイルサーバについてそれぞれ優先度を設定するものとし、前記判定部は、前記ロケーション記憶部を検索し、当該ファイルサーバに、前記障害の発生したファイルサーバに保存されているファイルと同一のファイルが保存されており、かつ、前記障害の発生したファイルサーバに保存されているファイルと同一のファイルが保存されているファイルサーバの中で、当該ファイルサーバの前記優先度が最も高いと検索された場合に、冗長度を回復させる主体になると判定するものとしてもよい。こうすることにより、ファイル毎に設定された優先度に応じて、障害の発生したファイルサーバに保存されていたファイルの冗長度を回復させる主体になるか否かを判定することができる。
また、上記ロケーション記憶部を備えるファイルサーバにおいて、前記冗長度回復処理部は、前記障害の発生したファイルサーバに保存されているファイルと同一のファイルを保存しているファイルサーバを前記ロケーション記憶部から検索し、該検索したファイルサーバのうちいずれかを、前記コピー元サーバとして設定することによって、冗長度を回復させるものとしてもよい。
本発明のファイルサーバにおいて、更に、他のファイルサーバが備える記憶装置の利用状態を検知する利用状態検知部を備えさせ、前記冗長度回復処理部は、前記記憶装置の残容量が最も大きいファイルサーバ、または、前記記憶装置の使用量が最も少ないファイルサーバを前記コピー先サーバとして設定するものとしてもよい。こうすることによって、各ファイルサーバが備える記憶装置を効率的に利用することが可能となる。
また、本発明のファイルサーバにおいて、更に、他のファイルサーバの属するネットワークドメインを検知するドメイン検知部を備えさせ、前記冗長度回復処理部は、前記コピー元サーバと前記コピー先サーバとを異なるネットワークドメインに属するファイルサーバからそれぞれ選択するものとしてもよい。こうすることによって、ファイルを効率よく分散して配置することが可能となり、システムの耐障害性を高めることができる。
また、本発明のファイルサーバにおいて、前記冗長度回復処理部は、前記冗長度の低下したファイルと同一のファイルを保存しており、かつ、前記コピー先サーバからネットワーク距離の最も近いファイルサーバを前記コピー元サーバとして設定するものとしてもよい。
ネットワーク距離とは、ネットワーク機器間の物理的な距離としてもよいが、ネットワーク機器間に介在するルータの数(ホップ数)を表すものとしてもよい。すなわち、ファイルサーバ間に介在するルータの数が少なければネットワーク距離が近いこととなり、多ければネットワーク距離が遠いこととなる。上記構成によれば、ネットワーク距離の近いファイルサーバ同士でファイルのコピーを行うこととなるため、ネットワーク全体に流れるトラフィック量を抑制することが可能となる。
また、本発明は、次のようなファイルサーバ制御装置としても構成することができる。すなわち、ネットワークによって接続された複数のファイルサーバにファイルを分散して保存するシステムに用いられ、前記各ファイルサーバが備える記憶装置の利用状態の均衡化を行うファイルサーバ制御装置であって、前記各ファイルサーバが備える記憶装置の利用状態を検知する利用状態検知部と、前記各ファイルサーバが備える記憶装置の利用状態に応じて、ファイルの移動元となるファイルサーバと、移動先となるファイルサーバを選択し、該選択に基づき、前記移動元のファイルサーバから前記移動先のファイルサーバにファイルを移動させるファイル移動制御部と、を備えるファイルサーバ制御装置である。
このようなファイルサーバ制御装置によれば、各ファイルサーバが備える記憶装置の利用状態を均衡化することができる。記憶装置の利用状態とは、例えば、記憶装置内に確保された記憶領域の残容量や使用量などをいう。記憶装置とは、例えば、ディスク装置やテープドライブなどである。
上記ファイルサーバ制御装置は、更に、前記利用状態検知部によって検知した前記各ファイルサーバが備える記憶装置の利用状態に応じて、該各ファイルサーバが備える記憶装置の利用状態の目標値を求める目標値決定部を備え、前記ファイル移動制御部は、前記移動元となるファイルサーバが備える記憶装置の利用状態が前記目標値になるようにファイルを移動させるものとしてもよい。
目標値とは、例えば、各ファイルサーバが備える記憶装置の残容量の平均値や、使用量の平均値などとすることができる。ファイル移動制御部は、記憶装置の残容量をこの目標値に完全に合わせる必要はなく、所定の範囲内で目標値に近似するようにファイルを移動させるものとすれば好適である。ファイルのサイズが一定であるとは限らないためである。
本発明において、上述した種々の態様は、適宜、組み合わせたり、一部を省略したりして適用することができる。また、本発明は、ファイルの冗長度を回復させる冗長度回復方法や、各ファイルサーバが備える記憶装置の利用状態の均衡化を行う利用状態均衡化方法、ファイルの冗長度を回復させるためのコンピュータプログラム、各ファイルサーバが備える記憶装置の利用状態の均衡化を行うためのコンピュータプログラム、などとしても構成することができる。これらのコンピュータプログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよい。記録媒体としては、例えば、フレキシブルディスクやCD−ROM、DVD−ROM、光磁気ディスク、メモリカード、ハードディスク等の種々の媒体を利用することができる。
以下、本発明の実施の形態について図面を参照しつつ実施例に基づき次の順序で説明する。
A.ファイル保存システムの概略構成:
B.監視サーバの概略構成:
C.ファイルサーバの概略構成:
D.各種処理:
(D−1)ファイルサーバにおけるファイル作成処理:
(D−2)監視サーバにおけるファイルサーバ監視処理:
(D−3)監視サーバにおける構成テーブル更新処理:
(D−4)ファイルサーバにおける構成テーブル更新処理:
(D−5)ファイルサーバにおける冗長度回復処理:
(D−6)ファイルサーバにおける主体判定処理:
(D−7)監視サーバにおけるディスク残容量均衡化処理:
(D−8)ファイルサーバにおけるファイル移動処理:
E.変形例:
A.ファイル保存システムの概略構成:
図1は、実施例としてのファイル保存システムの概略構成を示す説明図である。ファイル保存システム10は、複数のネットワークドメインND(以下、単に「ドメインND」と記載する。)がインターネットによって接続されることによって構成されている。各ドメインNDは、ファイルサーバFSと監視サーバWSとクライアントCLがLANによって接続されることにより構成されている。
本実施例では、各ドメインNDに、ファイルサーバFSが2台、クライアントCLが1台、配置されている例を示したが、これらの台数は任意であって、ドメインND毎に異なっていてもよい。なお、図示するように、ファイル保存システム10内には、ドメインNDやファイルサーバFS、監視サーバWS、クライアントCLが複数存在しているため、図中には、それぞれを区別するために便宜的に番号を付して記載している。
監視サーバWSは、同じドメインND内に存在するファイルサーバFSの構成情報を監視する装置である。構成情報とは、そのファイルサーバFSのディスク残容量やディスク使用量、所属するドメインND等の情報である。構成情報は、監視サーバWSが保持する構成テーブルCTに記録される。構成テーブルCTの更新情報は、LANやインターネットを経由して、ファイル保存システム10内に存在するすべてのファイルサーバFSと監視サーバWSに配布される。また、監視サーバWSは、どのドメインNDにどの監視サーバWSが所属しているかを示す情報の記録されたドメインテーブルDTを保持している。
ファイルサーバFSはディスク装置を備えており、クライアントCLはこのディスク装置に確保されたファイル記憶領域をLAN経由でマウントすることによりファイルの入出力を行う。ディスク装置には、クライアントから作成されたファイルのほか、構成テーブルCTや、ファイル保存システム10内に存在するすべてのファイルの所在を記録したロケーションテーブルLTが記憶される。
ファイルサーバFSは、定期的にロケーションテーブルLTを他の全てのファイルサーバFSに配布する。従って、ファイル保存システム10内に存在する全てのファイルサーバFSが、システム内に保存されている全てのファイルの所在を把握することができる。
ファイルサーバFSは、クライアントCLによってファイルが作成されると、所定の冗長度に応じてファイルのレプリカ(複製)を他のファイルサーバFS上に作成する。本実施例では、冗長度を3とするものとした。従って、例えば、図中のクライアントCL1が「A」というファイルをファイルサーバFS1に作成すると、ファイルサーバFS1は、所定の条件に従って他のファイルサーバFSを2つ選択し、それらのファイルサーバFSにレプリカを作成する。図には、ドメインND3に属するファイルサーバFS5とドメインND4に属するファイルサーバFS8にレプリカが作成された例を示した。
このように、ファイルサーバFSは、所定の冗長度に応じて同一内容のファイルを複数のファイルサーバFSに分散して保存するため、ファイルの保全性を高めることができる。本実施例のファイルサーバFSは、かかるファイルの冗長度を維持するために、他のファイルサーバFSに障害が発生してファイルの冗長度が下がった場合に、その冗長度を回復させる機能を備えている。
B.監視サーバの概略構成:
図2は、監視サーバWSの概略構成を示す説明図である。監視サーバWSは、ネットワークインタフェースコントローラ(NIC)100とディスク装置101とROM102とCPU103とRAM104を備えるコンピュータとして構成されている。NIC100は、LANやインターネットを介して他の装置と通信を行うための通信制御を行う。ディスク装置201には、構成テーブルCTとドメインテーブルDTが記録されている。これらのテーブルの詳細は後述する。
ROM102には、監視サーバWSを制御するための制御プログラムが記録されている。CPU103は、RAM104をワークエリアとして用いることによりこのプログラムを実行する。なお、この制御プログラムは、ディスク装置101にインストールされているものとしてもよい。
図の下部には、上記制御プログラムによってソフトウェア的に実現される機能ブロックを示した。ファイルサーバ監視部150は、当該監視サーバWSと同じドメインND内に存在するファイルサーバFSの構成情報を監視し、監視した結果を構成テーブルCTに記録する。
構成変更メッセージ処理部151は、ファイルサーバFSの構成情報が変更された場合に、他のドメインNDに属する監視サーバWSに対して、構成情報が変更された旨を表す構成変更メッセージを送信する。
また、構成変更メッセージ処理部151は、他のドメインNDに属する監視サーバWSから構成変更メッセージを受信した場合に、受信した構成変更メッセージに応じて構成テーブルCTの更新を行う。更に、構成変更メッセージ処理部151は、他のドメインNDに属する監視サーバWSから構成変更メッセージを受信すると、同じドメインND内の各ファイルサーバFSにこの構成変更メッセージを配布する。ファイルサーバFSは、かかる構成変更メッセージに基づき、自分が記憶する構成テーブルCTの更新を行う。
ネットワーク距離計測部152は、新規のファイルサーバFSがファイル保存システム10内に追加された場合に、当該監視サーバWSから、新規のファイルサーバFSまでのネットワーク距離の計測を行う。ネットワーク距離は、例えば、ネットワーク機器間に介在するルータの数(ホップ数)によって表すことができる。すなわち、介在するルータの数が多いほど、ネットワーク距離が遠いといえる。この場合、例えば、計測対象のファイルサーバFSに対して「Tracert」あるいは「Traceroute」といったコマンドを発行することにより、介在するルータの数を計測することができる。また、ネットワーク距離は、ネットワーク上を伝わる信号の到達時間によって表してもよい。この場合、例えば、計測対象のファイルサーバFSに対して「Ping」コマンドを発行することにより信号の到達時間を計測することができる。
ファイル移動制御部153は、同じドメインND内に存在する各ファイルサーバFSのディスク残容量の均衡化を行う。目標値決定部154は、ファイル移動制御部153がディスク残容量の均衡化を行う際に目標とする各ファイルサーバFSのディスク残容量の算出を行う。
図3は、ディスク装置101に記憶される構成テーブルCTの一例を示す説明図である。構成テーブルCTには、各ファイルサーバFSのディスク使用量、ディスク残容量、ネットワーク距離、所属するドメイン、およびそのファイルサーバの状態が記録される。状態フィールドには、そのファイルサーバに障害が発生している場合には「Bad」というパラメータが記録され、障害が発生していない場合には、「Good」というパラメータが記録される。
図4は、ディスク装置101に記憶されるドメインテーブルDTの一例を示す説明図である。ドメインテーブルDTには、それぞれのドメインNDにどの監視サーバWSが所属するかを示す情報が記録されている。
図5は、構成変更メッセージ処理部151が送受信を行う構成変更メッセージの構造を示す説明図である。図示するように、構成変更メッセージには、構成情報が変更されたファイルサーバの名称とそのディスク使用量、ディスク残容量、所属するドメイン名、そのファイルサーバの状態が記録される。なお、監視サーバWSからファイルサーバFSに送信される構成変更メッセージには、ネットワーク距離情報が含まれるものとする。
C.ファイルサーバの概略構成:
図6は、ファイルサーバFSの概略構成を示す説明図である。ファイルサーバFSは、NIC200とディスク装置201とROM202とCPU203とRAM204を備えるコンピュータとして構成されている。NIC200は、LANやインターネットを介して他の装置と通信を行うための通信制御を行う。ディスク装置201には、ロケーションテーブルLTと構成テーブルCTが記録されており、更に、ファイルを記憶するためのファイル記憶領域FAが確保されている。
ROM202には、ファイルサーバFSを制御するための制御プログラムが記録されている。CPU203は、RAM204をワークエリアとして用いることによりこのプログラムを実行する。なお、制御プログラムは、ディスク装置201にインストールされているものとしてもよい。
図の下部には、前記制御プログラムによってソフトウェア的に実現される機能ブロックを示した。利用状態検知部250は、構成テーブルCTを参照して他のファイルサーバFSのディスク残容量やディスク使用量を検知する。ドメイン検知部251は、構成テーブルCTを参照して他のファイルサーバFSが属するドメインNDを検知する。
冗長度低下検知部252は、構成テーブルCTを参照して、状態フィールドが「Bad」に変化したファイルサーバFSがあったときにファイルの冗長度が低下したと検知する。主体判定部253は、当該ファイルサーバFSが、低下した冗長度を回復する主体になるか否かの判定を行う。
冗長度回復処理部254は、主体判定部253によって冗長度回復の主体になると判定した場合に、冗長度の低下したファイルの冗長度を回復させる。冗長度の回復は、冗長度の低下したファイルを記憶するいずれかのファイルサーバFSから、他のファイルサーバFSにそのファイルをコピーさせることによって行う。
ファイル移動処理部255は、監視サーバWSからの指示に応じて他のファイルサーバFSにファイルを移動させることにより、同一ドメインND内に存在するファイルサーバFS間のディスク残容量の均衡化を行う。
図7は、ディスク装置201に記憶されるロケーションテーブルLTの一例を示す説明図である。ロケーションテーブルLTには、ファイル保存システム10内に保存されている全ファイルの所在が記録される。図示するように、ロケーションテーブルLTは、ファイルに一意に付与される識別情報(GUID)を記録するフィールドと、ファイルの所在を記録するフィールド(所在1〜3)とを備えている。「所在1」に記録されているファイルサーバFSは、そのファイルを最初に作成したオリジナルサーバである。本実施例では、冗長度を3としたため、同一のファイルが、オリジナルサーバ以外に「所在2」と「所在3」に示す2つのファイルサーバFSに保存されている。
ファイルの所在を示すフィールドには、ファイルサーバFSの名称とそのファイルサーバFS内のファイルのパスとが結合された情報が記録される。図示する「:」以前の情報がファイルサーバFSの名称であり、「:」以降の情報がそのファイルサーバFSに保存されたファイルのパスである。例えば、図中のGUID1というファイルは、ファイルサーバFS1,FS5,FS8のルートディレクトリ(「/」)にそれぞれ「A」というファイル名で保存されていることとなる。なお、本実施例では、ファイルの冗長度は一律に3であるものとしたが、ファイルごとに異なる冗長度を設定するものとしてもよい。
D.各種処理:
(D−1)ファイルサーバにおけるファイル作成処理:
図8は、各ファイルサーバFSのCPU203が実行するファイル作成処理のフローチャートである。クライアントCLからの要求に応じてファイルを作成するための処理である。
まず、CPU203は、クライアントCLからファイルの作成要求を受信すると(ステップS10)、かかる要求に応じてファイルを作成し、作成したファイルをディスク装置201に保存する(ステップS11)。そして、構成テーブルCTを参照して、他のドメインNDに属するファイルサーバFSをディスク残容量の多い順に2つ選択する。この2つのファイルサーバは、各々異なるドメインNDに属していることが好ましい。なお、CPU203は、ディスク残容量ではなく、ディスク使用量の少ない順にファイルサーバFSを2つ選択するものとしてもよい。
次に、CPU203は、選択した2つのファイルサーバFSに、ステップS11で作成したファイルのレプリカを作成する(ステップS13)。レプリカの作成に失敗した場合には(ステップS14:No)、再度、他のファイルサーバFSを選択する(ステップS15)。選択した全てのファイルサーバFSにレプリカの作成が成功すると(ステップS14:Yes)、CPU203は、そのファイルに対してGUIDを割り当てる(ステップS16)。GUIDは、ドメインNDの識別番号と、ドメインND内で一意な番号とを結合することで生成される。そのため、GUIDは、ファイル保存システム10内において一意の識別番号となる。
次に、CPU203は、作成したファイルを保存した所在とGUIDとを対応付けてロケーションテーブルLTに記録する(ステップS17)。更に、ファイル作成に伴いディスク使用量等も変化するため、構成テーブルCTの更新も行う(ステップS18)。最後に、CPU203は、ファイルの作成が完了した旨をファイルの作成要求を送信したクライアントCLに対して返信する(ステップS19)。
以上で説明したファイル作成処理によれば、ファイルサーバFSは、同一内容のファイルを複数のファイルサーバFSに分散させて保存することができる。そのため、ファイルの保全性を高めることができる。
(D−2)監視サーバにおけるファイルサーバ監視処理:
図9は、各監視サーバWSのCPU103が実行するファイルサーバ監視処理のフローチャートである。監視サーバWSが、同じドメイン内に属する各ファイルサーバFSの構成情報を監視するための処理である。
まず、CPU103は、定期的に同一ドメインND内に存在する各ファイルサーバFSに構成情報の問い合わせを行う(ステップS30)。そして、構成情報の取得に成功した場合には(ステップS31:Yes)、取得した構成情報に基づき構成テーブルCTを更新する(ステップS32)。構成情報に変更がなかった場合には更新は行わなくてよい。
構成情報の取得ができなかった場合には(ステップS31:No)、CPU103は、問い合わせを行ったファイルサーバFSに障害が発生したことを検知したこととなる。そのため、かかるファイルサーバFSの構成テーブルCTの状態フィールドを「Bad」とする。以下の説明では、障害の発生したファイルサーバFSを、「障害発生サーバ」と記載する。
CPU103は、ドメインND内の全ファイルサーバFSに対する問い合わせが完了したら(ステップS34:Yes)、構成情報に変更のあったファイルサーバFSに関する構成変更メッセージをファイル保存システム10内の全監視サーバWSに送信する(ステップS35)。
上記ステップS35において、CPU103は、例えば、ディスク使用量やディスク残容量に一定量以上(例えば1Gバイト以上)の変化があった場合にのみ構成変更メッセージを送信するものとしてもよい。ネットワーク上のトラフィック増加を抑制するためである。ただし、障害発生サーバを検知した場合には、ディスク使用量等の変化量にかかわらず構成変更メッセージを送信するものとしてもよい。
(D−3)監視サーバにおける構成テーブル更新処理:
図10は、監視サーバWSのCPU103が実行する構成テーブル更新処理のフローチャートである。他の監視サーバWSから構成変更メッセージを受信した場合に、監視サーバWSが自身の保持する構成テーブルCTを更新するための処理である。
まず、CPU103は、他の監視サーバWSから構成変更メッセージを受信すると(ステップS40)、その構成変更メッセージが、ディスク装置101に保持された構成テーブルCTに登録されていない新規のファイルサーバFSに関するものであるかを判定する。
新規のファイルサーバFSに関するものである場合には(ステップS41:Yes)、当該監視サーバWSから新規のファイルサーバFSまでのネットワーク距離を計測する(ステップS42)。そして、CPU103は、構成変更メッセージと計測したネットワーク距離に基づき構成テーブルCTを更新する(ステップS43)。
新規のファイルサーバFSに関するものでない場合には(ステップS41:No)、ネットワーク距離の計測を行うことなく、受信した構成変更メッセージに従い構成テーブルCTを更新する(ステップS43)。最後に、CPU103は、ネットワーク距離情報を含む構成変更メッセージを同じドメインND内の全ファイルサーバFSに送信する(ステップS44)。
(D−4)ファイルサーバにおける構成テーブル更新処理:
図11は、ファイルサーバFSのCPU203が実行する構成テーブル更新処理のフローチャートである。監視サーバWSから構成変更メッセージを受信した場合に、ファイルサーバFSが、自身の保持する構成テーブルCTを更新するための処理である。
まず、CPU203は、同じドメインND内の監視サーバWSから構成変更メッセージを受信すると(ステップS50)、受信した構成変更メッセージに基づいてディスク装置201に保持する構成テーブルCTの更新を行う(ステップS51)。
更新の結果、構成テーブルCTの状態フィールドが「Good」から「Bad」に変化した場合には(ステップS52:Yes)、受信した構成変更メッセージに係るファイルサーバFSが障害発生サーバであることがわかる。そこで、CPU203は、ロケーションテーブルLTを参照して、その障害発生サーバにファイルが保存されていたか否かを検索する(ステップS53)。障害発生サーバにファイルが保存されていたと検索された場合には(ステップS54:Yes)、障害発生サーバに保存されていたファイルの冗長度が低下したものとみなし、後述する冗長度回復処理を行う(ステップS55)。障害発生サーバにファイルが保存されていないと検索された場合には(ステップS54:No)、ファイルの冗長度は低下していないため、本処理を終了する。
なお、上記ステップS52において、構成テーブルCTの更新前から状態フィールドが「Bad」である場合や更新前後ともに「Good」の場合、あるいは、更新の結果「Bad」から「Good」となった場合には(ステップS52:No)、冗長度は低下していないため、冗長度回復処理を行うことなく、そのまま本処理を終了する。
以上で説明した構成テーブル更新処理によれば、ファイルサーバFSは、ファイル保存システム10内に保存されているファイルの冗長度の低下を検知することができる。
(D−5)ファイルサーバにおける冗長度回復処理:
図12は、上記冗長度回復処理のフローチャートである。まず、CPU203は、自分がファイルの冗長度を回復させる主体になるか否かを判定するため、主体判定処理を行う(ステップS60)。かかる処理については後述する。主体判定処理の結果、主体にならないと判定した場合には(ステップS61:No)、本処理を終了する。
主体になると判定した場合には(ステップS61:Yes)、CPU203は、ロケーションテーブルLTと構成テーブルCTを参照して、障害発生サーバに保存されていたファイルと同一のファイルを保存していないファイルサーバFSのうち、最もディスク残容量の大きいファイルサーバFSを検索して、ファイルのコピー先サーバとして設定する(ステップS62)。
次に、CPU203は、ロケーションテーブルLTと構成テーブルCTを参照して、障害発生サーバに保存されていたファイルと同一のファイルを保存しており、かつ、コピー先サーバとして設定したファイルサーバFSから最もネットワーク距離の近いファイルサーバFSをファイルのコピー元サーバとして設定する(ステップS63)。コピー先サーバから、コピー元サーバの候補となるファイルサーバFSまでのネットワーク距離は、例えば、コピー先サーバに問い合わせて取得することができる。
次に、CPU203は、上記設定に基づき、コピー元サーバに対してコピー先サーバにファイルをコピーするよう指示を与える(ステップS64)。コピー元サーバは、この指示に従い、冗長度の低下したファイルをコピー先サーバにコピーする。
CPU203は、前記コピーが失敗した場合には(ステップS65:No)、再度ステップS62に戻って、他のコピー先サーバとコピー元サーバを選択する。コピーが成功した場合には(ステップS65:Yes)、ディスク装置201内のロケーションテーブルLTを更新して(ステップS66)、更新したロケーションテーブルLTをファイル保存システム10内の全ファイルサーバFSに送信する(ステップS67)。CPU203は、障害発生サーバ内に保存されていたすべてのファイルについて上記冗長度回復処理を行う。
以上で説明した冗長度回復処理によれば、各ファイルサーバFSは、障害発生サーバに保存されていたファイルの保存先を変更することができるため、冗長度の低下したファイルの冗長度を回復させることができる。従って、ファイル保存システム10は、自立的にファイルの冗長度を維持することが可能となる。
(D−6)ファイルサーバにおける主体判定処理:
図13は、上記主体判定処理のフローチャートである。まず、CPU203は、ロケーションテーブルLTを参照することにより、障害発生サーバに保存されていたファイルと同一のファイルが自分自身に保存されているかを検索する(ステップS601)。かかる検索は、ロケーションテーブルLTではなくファイル記憶領域FAを参照して行うものとしてもよい。
検索の結果、同一のファイルを保存してしない場合には(ステップS602:No)、CPU203は、主体にならないと判定する(ステップS602)。こうすることにより、同一のファイルを保存する他のいずれかのファイルサーバFSが冗長度回復処理を行うこととなる。
同一のファイルが検索された場合には(ステップS601:Yes)、CPU203は、更に、ロケーションテーブルLTを参照してそのファイルのオリジナルサーバが自分自身であるかを判定する(ステップS603)。オリジナルサーバであると判定されれば(ステップS603:Yes)、主体になると判定する(ステップS604)。つまり、冗長度の低下したファイルのオリジナルサーバが基本的に冗長度回復処理を行うこととなる。
しかし、冗長度の低下したファイルのオリジナルサーバが障害発生サーバである場合には、オリジナルサーバ以外の他のファイルサーバFSが主体となって冗長度を回復させる必要がある。そのため、CPU203は、自分がオリジナルサーバでない場合(ステップS603:No)であっても、以下に説明する処理を実行する。
まず、CPU203は、ロケーションテーブルLTを参照して、障害発生サーバが、冗長度を回復させるファイルのオリジナルサーバであるかを判定する(ステップS605)。障害発生サーバがオリジナルサーバではない場合には(ステップS605:No)、そのオリジナルサーバが冗長度回復処理の主体となるため、CPU203は、自分は主体にならないと判定する(ステップS602)。
障害発生サーバがオリジナルサーバである場合には(ステップS605:Yes)、まず、自分の優先順位がオリジナルサーバを除いて最も高いか否かをロケーションテーブルLTを参照して判定する(ステップS606)。優先順位とは、ロケーションテーブルLTに記録された「所在」の順序をいう。すなわち、図7で示した「所在3」、「所在2」、「所在1」の順に優先順位が高くなることとなる。所在1はオリジナルサーバを表すため、上記ステップS606では、自分自身が「所在2」に登録されたファイルサーバFSであるかを判定すればよい。
CPU203は、優先順位がオリジナルサーバを除いて最も高ければ(ステップS606:Yes)、冗長度を回復させる主体になると判定する(ステップS604)。優先順位が低ければ(ステップS606:No)、優先順位の高い他のファイルサーバが冗長度回復処理を行うこととなるため、主体にならないと判定する(ステップS602)。
以上で説明した主体判定処理によれば、各ファイルサーバFSがそれぞれ冗長度回復処理を実行する主体になるか否かを判定することができる。
(D−7)監視サーバにおけるディスク均衡化処理:
図14は、監視サーバWSのCPU103が実行するディスク均衡化処理のフローチャートである。新規のファイルサーバFSがドメイン内に追加されたなどの理由で、ファイルサーバFS間のディスク残容量に不均衡が生じた場合に実行される処理である。
まず、CPU103は、構成テーブルCTを参照して同じドメイン内に存在するファイルサーバFS間のディスク残容量が不均衡であるか否かを判定する(ステップS70)。これは、所定の時間間隔で判定するものとしてもよいし、構成テーブルCTの更新を契機として判定するものとしてもよい。不均衡か否かは、ファイルサーバFS間のディスク残容量の差が所定の基準(例えば、300Gバイト等)を超えた場合等に不均衡であると判定することができる。
CPU103は、不均衡ではないと判定した場合には(ステップS70:No)、本処理を終了し、不均衡であると判定した場合には(ステップS70:Yes)、各ファイルサーバFSの目標ディスク残容量を計算する(ステップS71)。目標ディスク残容量は、例えば、同じドメインND内に存在する全ファイルサーバFSのディスク残容量の平均値とすることができる。
次に、CPU103は、構成テーブルCTを参照して同じドメインND内のファイルサーバFSの中からファイルの移動元サーバと移動先サーバを選択する(ステップS72)。移動元サーバには、ディスク残容量の少ないファイルサーバFSを選択し、移動先サーバには、ディスク残容量の多いファイルサーバFSを選択する。そして、選択した移動元サーバに対してファイルを移動させる旨の移動指示メッセージと、目標ディスク残容量および移動先サーバを通知する(ステップS73)。
(D−8)ファイルサーバにおけるファイル移動処理:
図15は、ファイルサーバFSのCPU203が実行するファイル移動処理のフローチャートである。監視サーバWSからファイルの移動指示があった場合に実行する処理である。
まず、CPU203は、同じドメインND内の監視サーバWSからファイルの移動指示メッセージとともに目標ディスク残容量と移動先サーバを受信すると(ステップS80)、目標ディスク残容量の達成に必要な数の移動させるべきファイルを、ファイルサイズ等を考慮しつつ選択する(ステップS81)。移動させるべきファイルは、当該ファイルサーバFSに最初に作成されたオリジナルファイルでなく、他のファイルサーバによって作成されたレプリカファイルを選択するものとする。そして、CPU203は、選択したレプリカを移動先サーバにコピーする(ステップS82)。
次に、CPU203は、レプリカの所在が変更されたため、ロケーションテーブルLTを更新する(ステップS83)。そして、ロケーションテーブルLTを参照し、移動させた各レプリカのオリジナルサーバに対して、レプリカを移動させたことと移動先のファイルサーバFSの所在を通知する(ステップS84)。
オリジナルサーバは、この通知を受けると、自分自身のロケーションテーブルLTを更新して(ステップS85)、ファイル保存システム10内の全ファイルサーバFSに対して更新したロケーションテーブルLTを配信する(ステップS86)。CPU203は、オリジナルサーバから、ロケーションテーブルLTの更新が完了した旨の更新完了通知を受信すると(ステップS87)、上記ステップS82によってコピーを行ったレプリカをディスク装置201から消去する(ステップS88)。
以上で説明したファイル移動処理によれば、同じNDドメインに属するファイルサーバFS間のディスク残容量の均衡化を図ることが可能となる。
なお、上述した監視サーバWSにおけるディスク均衡化処理と本処理では、ファイルサーバFS間のディスク残容量を均衡化するものとしたが、ディスク使用量を均衡化するものとしてもよい。
E.変形例:
上記実施例では、各ファイルサーバFSは、同じドメイン内に属する監視サーバWSを用いることによって間接的に他のファイルサーバFSの構成情報を検知するものとした。しかし、各ファイルサーバFSは、監視サーバWSを用いることなく直接他のファイルサーバFSの構成情報を問い合わせるものとしてもよい。
また、上記実施例では、各ファイルサーバFSが、構成テーブルCTを参照することにより他のファイルサーバFSの障害を検知するものとした。しかし、例えば、他のファイルサーバFSに対して直接「Ping」コマンドを発行し、そのファイルサーバFSから応答がなかった場合に、そのファイルサーバFSに障害が発生したと判定するものとしてもよい。
以上、本発明の実施例について説明した。本実施例によれば、ファイル保存システム10は、システム内に保存されたファイルの冗長度を中央集権的な制御装置を用いることなく自立的に維持することが可能となる。また、ファイルサーバFS間のディスク残容量に不均衡が生じた場合に、それを均衡化することが可能となる。なお、本発明はこのような実施例に限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができることはいうまでもない。例えば、ソフトウェアによって実現した機能は、ハードウェアによって実現するものとしてもよい。また、上記実施例ではデータの単位としてファイルを用いて説明したが、データの単位はファイルに限られることなく任意である。
実施例としてのファイル保存システムの概略構成を示す説明図である。 監視サーバの概略構成を示す説明図である。 構成テーブルの一例を示す説明図である。 ドメインテーブルの一例を示す説明図である。 構成変更メッセージの構造を示す説明図である。 ファイルサーバの概略構成を示す説明図である。 ロケーションテーブルの一例を示す説明図である。 ファイル作成処理のフローチャートである。 ファイルサーバ監視処理のフローチャートである。 監視サーバにおける構成テーブル更新処理のフローチャートである。 ファイルサーバにおける構成テーブル更新処理のフローチャートである。 冗長度回復処理のフローチャートである。 主体判定処理のフローチャートである。 ディスク均衡化処理のフローチャートである。 ファイル移動処理のフローチャートである。
符号の説明
10...ファイル保存システム
100,200...ネットワークインタフェースコントローラ
101,201...ディスク装置
102,202...ROM
103,203...CPU
104,204...RAM
150...ファイルサーバ監視部
151...構成変更メッセージ処理部
152...ネットワーク距離計測部
153...ファイル移動制御部
154...目標値決定部
250...利用状態検知部
251...ドメイン検知部
252...冗長度低下検知部
253...主体判定部
254...冗長度回復処理部
255...ファイル移動処理部
ND...ネットワークドメイン
WS...監視サーバ
FS...ファイルサーバ
CL...クライアント
CT...構成テーブル
DT...ドメインテーブル
LT...ロケーションテーブル
FA...ファイル記憶領域

Claims (5)

  1. ネットワークによって接続された複数のファイルサーバに同一のファイルを保存することで、前記ファイルの所定の冗長度を確保するシステムに用いられるファイルサーバであって、
    前記複数のファイルサーバのID、該複数のファイルサーバのディスク残容量、該複数のファイルサーバが格納するファイルのID、前記複数のファイルサーバの稼動状態を示す状態情報を取得する取得部と、
    他のファイルサーバとのネットワーク距離を計測し、ネットワーク距離情報を取得するネットワーク距離計測部と、
    前記複数のファイルサーバのID、該複数のファイルサーバのディスク残容量、該複数のファイルサーバが格納するファイルのID、前記状態情報、前記ネットワーク距離情報、前記所定の冗長度及び前記所定の冗長度に応じて前記ファイルを格納する複数のファイルサーバ毎に設定された優先度を夫々対応付けて保持する保持部と、
    前記他のファイルサーバと所定の間隔で通信し、該通信に応答のないファイルサーバがある場合に前記システム内に保存されているファイルの冗長度の低下を検知する冗長度低下検知部と、
    前記冗長度低下検知部がファイルの冗長度の低下を検知した場合、前記保持部の情報を参照することで、前記応答のないファイルサーバに格納されたファイルと同じファイルを自ファイルサーバが格納していると判断する場合に、前記優先度に基づいて、自ファイルサーバが前記ファイルの冗長度回復させるか否かを判定する判定部と、
    前記判定部によって、自ファイルサーバが前記ファイルの冗長度回復させると判定された場合、前記保持部の情報を参照し、前記応答のないファイルサーバに格納されていたファイルと同一のファイルを保存していないファイルサーバのうち、最もディスク残容量の大きいファイルサーバをコピー先サーバとして選択するとともに、前記応答のないファイルサーバに格納されていたファイルと同一のファイルを格納しており、かつ、前記コピー先サーバから最もネットワーク距離の近いファイルサーバをコピー元サーバとして選択し、前記選択されたコピー元サーバから前記選択されたコピー先サーバに、前記応答のないファイルサーバに格納されていたファイルと同一のファイルをコピーさせる冗長度回復処理部と、
    を有することを特徴とするファイルサーバ。
  2. 請求項1に記載のファイルサーバであって、
    前記判定部は、当該ファイルサーバの前記優先度が、最も高い場合又は前記応答のないサーバの優先度がもっとも高い場合には次に優先度がもっとも高い場合に、自ファイルサーバが前記ファイルの冗長度回復させる主体になると判定することを特徴とするファイルサーバ。
  3. ネットワークによって接続された複数のファイルサーバに同一のファイルを保存することで、前記ファイルの所定の冗長度を確保するシステムに用いられるファイルサーバが、前記ファイルの冗長度を回復する冗長度回復方法であって、
    前記複数のファイルサーバのID、該複数のファイルサーバのディスク残容量、該複数のファイルサーバが格納するファイルのID、前記複数のファイルサーバの稼動状態を示す状態情報を取得するステップと、
    他のファイルサーバとのネットワーク距離を計測し、ネットワーク距離情報を取得するステップと、
    前記複数のファイルサーバのID、該複数のファイルサーバのディスク残容量、該複数のファイルサーバが格納するファイルのID、前記状態情報、前記ネットワーク距離情報、前記所定の冗長度及び前記所定の冗長度に応じて前記ファイルを格納する複数のファイルサーバ毎に設定された優先度を夫々対応付けて保持するステップと、
    前記他のファイルサーバと所定の間隔で通信し、該通信に応答のないファイルサーバを検出することで、前記システム内に保存されているファイルの冗長度の低下を検知するステップと、
    ファイルの冗長度の低下を検知した場合、前記保持した情報を参照することで、前記応答のないファイルサーバに格納されたファイルと同じファイルを自ファイルサーバが格納していると判断する場合に、前記優先度に基づいて、自ファイルサーバが前記ファイルの冗長度回復させるか否かを判定するステップと、
    前記判定によって、自ファイルサーバが前記ファイルの冗長度回復させると判定された場合、前記保持した情報を参照し、前記応答のないファイルサーバに格納されていたファイルと同一のファイルを保存していないファイルサーバのうち、最もディスク残容量の大きいファイルサーバをコピー先サーバとして選択するとともに、前記応答のないファイルサーバに格納されていたファイルと同一のファイルを格納しており、かつ、前記コピー先サーバから最もネットワーク距離の近いファイルサーバをコピー元サーバとして選択し、前記選択されたコピー元サーバから前記選択されたコピー先サーバに、前記応答のないファイルサーバに格納されていたファイルと同一のファイルをコピーさせるステップと、
    を含むことを特徴とする冗長度回復方法。
  4. ネットワークによって接続された複数のファイルサーバに同一のファイルを保存することで、前記ファイルの所定の冗長度を確保するシステムに用いられるファイルサーバに実行させるプログラムであって、
    前記複数のファイルサーバのID、該複数のファイルサーバのディスク残容量、該複数のファイルサーバが格納するファイルのID、前記複数のファイルサーバの稼動状態を示す状態情報を取得する機能と、
    他のファイルサーバとのネットワーク距離を計測し、ネットワーク距離情報を取得する機能と、
    前記複数のファイルサーバのID、該複数のファイルサーバのディスク残容量、該複数のファイルサーバが格納するファイルのID、前記状態情報、前記ネットワーク距離情報、前記所定の冗長度及び前記所定の冗長度に応じて前記ファイルを格納する複数のファイルサーバ毎に設定された優先度を夫々対応付けて保持する機能と、
    前記他のファイルサーバと所定の間隔で通信し、該通信に応答のないファイルサーバを検出することで、前記システム内に保存されているファイルの冗長度の低下を検知する機能と、
    システム内に保存されているファイルの冗長度の低下を検知した場合、前記保持した情報を参照することで、前記応答のないファイルサーバに格納されたファイルと同じファイルを自ファイルサーバが格納していると判断する場合に、前記優先度に基づいて、自ファイルサーバが前記ファイルの冗長度回復させるか否かを判定する機能と、
    前記判定によって、自ファイルサーバが前記ファイルの冗長度回復させると判定された場合、前記保持した情報を参照し、前記応答のないファイルサーバに格納されていたファイルと同一のファイルを保存していないファイルサーバのうち、最もディスク残容量の大きいファイルサーバをコピー先サーバとして選択するとともに、前記応答のないファイルサーバに格納されていたファイルと同一のファイルを格納しており、かつ、前記コピー先サーバから最もネットワーク距離の近いファイルサーバをコピー元サーバとして選択し、前記選択されたコピー元サーバから前記選択されたコピー先サーバに、前記応答のないファイルサーバに格納されていたファイルと同一のファイルをコピーさせる機能と、
    を実行させることを特徴とするプログラム。
  5. 請求項に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2003377819A 2003-11-07 2003-11-07 ファイルサーバ、冗長度回復方法、プログラム及び記録媒体 Expired - Fee Related JP4313650B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003377819A JP4313650B2 (ja) 2003-11-07 2003-11-07 ファイルサーバ、冗長度回復方法、プログラム及び記録媒体
US10/785,950 US7146368B2 (en) 2003-11-07 2004-02-26 File server and file server controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003377819A JP4313650B2 (ja) 2003-11-07 2003-11-07 ファイルサーバ、冗長度回復方法、プログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JP2005141528A JP2005141528A (ja) 2005-06-02
JP4313650B2 true JP4313650B2 (ja) 2009-08-12

Family

ID=34544439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003377819A Expired - Fee Related JP4313650B2 (ja) 2003-11-07 2003-11-07 ファイルサーバ、冗長度回復方法、プログラム及び記録媒体

Country Status (2)

Country Link
US (1) US7146368B2 (ja)
JP (1) JP4313650B2 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040143733A1 (en) * 2003-01-16 2004-07-22 Cloverleaf Communication Co. Secure network data storage mediator
WO2005003951A1 (ja) * 2003-07-02 2005-01-13 Satoshi Yamatake データベースシステム
US7293039B1 (en) 2004-03-12 2007-11-06 Network Appliance, Inc. Storage resource management across multiple paths
US7844646B1 (en) * 2004-03-12 2010-11-30 Netapp, Inc. Method and apparatus for representing file system metadata within a database for efficient queries
US7539702B2 (en) * 2004-03-12 2009-05-26 Netapp, Inc. Pre-summarization and analysis of results generated by an agent
US7630994B1 (en) 2004-03-12 2009-12-08 Netapp, Inc. On the fly summarization of file walk data
US7496611B2 (en) * 2005-04-18 2009-02-24 Microsoft Corporation Disambiguating globally unique identifiers after duplication
US7702640B1 (en) 2005-12-29 2010-04-20 Amazon Technologies, Inc. Stratified unbalanced trees for indexing of data items within a computer system
US7716180B2 (en) 2005-12-29 2010-05-11 Amazon Technologies, Inc. Distributed storage system with web services client interface
US7739239B1 (en) 2005-12-29 2010-06-15 Amazon Technologies, Inc. Distributed storage system with support for distinct storage classes
US7571349B2 (en) * 2006-08-18 2009-08-04 Microsoft Corporation Configuration replication for system recovery and migration
US7970903B2 (en) 2007-08-20 2011-06-28 Hitachi, Ltd. Storage and server provisioning for virtualized and geographically dispersed data centers
US20090080010A1 (en) * 2007-09-21 2009-03-26 Canon Kabushiki Kaisha Image forming apparatus, image forming method, and program
JP5303935B2 (ja) * 2008-01-08 2013-10-02 日本電気株式会社 データ多重化システムおよびデータ多重化方法
JP5136162B2 (ja) * 2008-03-31 2013-02-06 日本電気株式会社 バックアップ管理システム、方法、及び、プログラム
JP2009251791A (ja) * 2008-04-03 2009-10-29 Nec Corp 分散ファイルシステム、データ書き込み方法、及びプログラム
JP5412826B2 (ja) * 2008-12-24 2014-02-12 富士ゼロックス株式会社 電子ファイル管理システム、情報処理装置、管理装置及びプログラム
JP4789021B2 (ja) * 2009-02-06 2011-10-05 日本電気株式会社 データ処理装置及びデータ処理方法
US20100235409A1 (en) * 2009-03-10 2010-09-16 Global Relay Communications Inc. System and method for managing data stored in a data network
US20100274966A1 (en) * 2009-04-24 2010-10-28 Hitachi, Ltd. High availabilty large scale it systems with self recovery functions
US9323758B1 (en) * 2009-12-22 2016-04-26 Emc Corporation Efficient migration of replicated files from a file server having a file de-duplication facility
US8600944B2 (en) * 2010-09-24 2013-12-03 Hitachi Data Systems Corporation System and method for managing integrity in a distributed database
US8484505B1 (en) 2010-09-30 2013-07-09 Emc Corporation Self recovery
US8949661B1 (en) 2010-09-30 2015-02-03 Emc Corporation Federation of indices
US8504870B2 (en) 2010-09-30 2013-08-06 Emc Corporation Optimized recovery
US8549350B1 (en) 2010-09-30 2013-10-01 Emc Corporation Multi-tier recovery
US8943356B1 (en) 2010-09-30 2015-01-27 Emc Corporation Post backup catalogs
US9195549B1 (en) * 2010-09-30 2015-11-24 Emc Corporation Unified recovery
US8725696B2 (en) * 2011-01-04 2014-05-13 Adobe Systems Incorporated Providing access to media content in multiple locations
US8538920B2 (en) * 2011-08-08 2013-09-17 Hewlett-Packard Development Company, L.P. System and method for storage service
JP5900096B2 (ja) * 2012-03-28 2016-04-06 富士通株式会社 レプリケーションシステム、レプリケーションプログラム及びレプリケーション構成の再構築方法
JP2014044677A (ja) * 2012-08-28 2014-03-13 Fujitsu Ltd 送信制御プログラム、通信ノード、および送信制御方法
JP6142599B2 (ja) * 2013-03-18 2017-06-07 富士通株式会社 ストレージシステム、ストレージ装置および制御プログラム
JP6229385B2 (ja) * 2013-09-10 2017-11-15 富士通株式会社 ストレージ制御装置、制御方法およびストレージ制御プログラム
JP6520448B2 (ja) * 2015-06-18 2019-05-29 富士通株式会社 情報処理システム、情報処理装置及び情報処理装置制御方法
US11157361B2 (en) * 2018-06-29 2021-10-26 International Business Machines Corporation Efficient utilization of storage space in arrays of storage drives
US11748196B2 (en) 2018-06-29 2023-09-05 International Business Machines Corporation Adaptive parity rotation for redundant arrays of independent disks

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3213799B2 (ja) 1996-06-12 2001-10-02 株式会社日立製作所 記憶制御装置
US5831913A (en) * 1997-03-31 1998-11-03 International Business Machines Corporation Method of making a memory fault-tolerant using a variable size redundancy replacement configuration
US6445717B1 (en) 1998-05-01 2002-09-03 Niwot Networks, Inc. System for recovering lost information in a data stream
US6438100B1 (en) * 1998-08-07 2002-08-20 Alcatel Canada Inc. Method and apparatus for routing server redundancy in a network having carrier scale internetworking
US6148414A (en) * 1998-09-24 2000-11-14 Seek Systems, Inc. Methods and systems for implementing shared disk array management functions
US6694450B1 (en) 2000-05-20 2004-02-17 Equipe Communications Corporation Distributed process redundancy
US6775230B1 (en) * 2000-07-18 2004-08-10 Hitachi, Ltd. Apparatus and method for transmitting frames via a switch in a storage area network
US6970939B2 (en) * 2000-10-26 2005-11-29 Intel Corporation Method and apparatus for large payload distribution in a network
US6961868B2 (en) * 2001-02-16 2005-11-01 Swsoft Holdings, Ltd. Fault tolerant storage system and method using a network of servers
US6802023B2 (en) 2001-03-15 2004-10-05 Hewlett-Packard Development Company, L.P. Redundant controller data storage system having hot insertion system and method
US20020194427A1 (en) 2001-06-18 2002-12-19 Ebrahim Hashemi System and method for storing data and redundancy information in independent slices of a storage device
JP2004213064A (ja) 2002-12-26 2004-07-29 Fujitsu Ltd Raid装置及びその論理デバイス拡張方法
JP3778171B2 (ja) 2003-02-20 2006-05-24 日本電気株式会社 ディスクアレイ装置

Also Published As

Publication number Publication date
JP2005141528A (ja) 2005-06-02
US7146368B2 (en) 2006-12-05
US20050102289A1 (en) 2005-05-12

Similar Documents

Publication Publication Date Title
JP4313650B2 (ja) ファイルサーバ、冗長度回復方法、プログラム及び記録媒体
CN110169040B (zh) 基于多层一致性哈希的分布式数据存储方法与系统
EP3518110B1 (en) Designation of a standby node
CN108509153B (zh) Osd选择方法、数据写入和读取方法、监控器和服务器集群
US9405590B2 (en) Method, apparatus, and system for issuing partition balancing subtask
KR101635238B1 (ko) 분산형 데이터 스토리지
US7191198B2 (en) Storage operation management program and method and a storage management computer
CN107391294B (zh) 一种ipsan容灾系统的建立方法及装置
JP4402992B2 (ja) バックアップシステム及び方法並びにプログラム
US7603581B2 (en) Remote copying of updates to primary and secondary storage locations subject to a copy relationship
CN106062717A (zh) 一种分布式存储复制系统和方法
CN104036043B (zh) 一种mysql高可用的方法及管理节点
JP2007520760A (ja) ネットワーク環境でのコンテンツ同期化システム及び同期化方法
CN109194753B (zh) 一种服务网格中事件处理的方法
JP6850771B2 (ja) 情報処理システム、情報処理システムの管理方法及びプログラム
US8949653B1 (en) Evaluating high-availability configuration
US20120331084A1 (en) Method and System for Operation of Memory System Having Multiple Storage Devices
JP5617304B2 (ja) スイッチング装置、情報処理装置および障害通知制御プログラム
CN101763321A (zh) 数据容灾的方法、装置及系统
JP2002149459A (ja) 冗長化データベース管理・検索システム
JP2008276281A (ja) データ同期システム、方法、及び、プログラム
CN115248720A (zh) 存储系统、存储节点虚拟机恢复方法和记录介质
JP2005056347A (ja) サーバ機能引継方法およびサーバ機能引継プログラム
JP5594668B2 (ja) ノード、クラスタリングシステム、クラスタリングシステムの制御方法、およびプログラム
JP2009163664A (ja) 障害耐性を備えた情報検索装置、障害耐性を備えた情報検索方法、障害耐性を備えた情報検索プログラムおよびそのプログラムを記録した記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090421

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090515

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130522

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130522

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees