JP2010113617A - クラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法 - Google Patents

クラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法 Download PDF

Info

Publication number
JP2010113617A
JP2010113617A JP2008287083A JP2008287083A JP2010113617A JP 2010113617 A JP2010113617 A JP 2010113617A JP 2008287083 A JP2008287083 A JP 2008287083A JP 2008287083 A JP2008287083 A JP 2008287083A JP 2010113617 A JP2010113617 A JP 2010113617A
Authority
JP
Japan
Prior art keywords
request
information
cluster system
response information
request response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008287083A
Other languages
English (en)
Other versions
JP4659872B2 (ja
Inventor
Kensuke Shiozawa
賢輔 塩沢
Yoshitake Shinkai
慶武 新開
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008287083A priority Critical patent/JP4659872B2/ja
Priority to US12/610,645 priority patent/US8676766B2/en
Publication of JP2010113617A publication Critical patent/JP2010113617A/ja
Application granted granted Critical
Publication of JP4659872B2 publication Critical patent/JP4659872B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2046Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/1443Transmit or communication errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2028Failover techniques eliminating a faulty processor or activating a spare
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2038Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Hardware Redundancy (AREA)

Abstract

【課題】開発に要するコストを増大させることなくDRC情報を退避させる機能を実現することができるクラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法を提供すること。
【解決手段】クライアントから要求を受け付けた場合に、かかる要求の処理結果と、かかる要求に対応するDRC情報とを、ジャーナルファイルシステムにアトミックに記憶させ、フェールオーバ時に、ジャーナルファイルシステムに退避させたDRCをクラスタノード間で引き継ぐ処理を行う。
【選択図】 図1

Description

本発明は、クラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法に関する。
近年、膨大な電子データを生産する情報社会において、多種多様なクライアントに対して電子データを共有させるNAS(Network Attached Storage)などのファイルサーバが、重要な技術となっている。クライアントがNASへアクセスするために利用するファイルアクセスプロトコルとしては、UNIX(登録商標)系クライアント用のNFS(Network File System)と、Windows(登録商標)系クライアント用のCIFS(Common Internet File System)の二種類が主流となっている。
このようなファイルサーバは、電子データを集中管理しているため、可用性(Availability)の向上が求められている。可用性を向上させる技術の一つとして、複数のノードによってファイルサーバを構築するクラスタがある。ここで、図6を用いて、NASクラスタシステムについて説明する。図6は、従来のNASクラスタシステム9の構成例を示す図である。
図6に示すように、NASクラスタシステム9は、クラスタノード90aおよび90bと、共有ディスク91とを有し、クライアント群10と接続されている。クライアント群10は、NASクラスタシステム9に対してデータ書き込み等の要求を送信する情報処理装置であり、例えば、パーソナルコンピュータに相当する。なお、図6において、クライアント群10は、一台以上の情報処理装置であることを示している。また、本明細書において、単に「要求」と表記する場合、クライアント群10から送信されるデータ書き込みや、データ読み出し、データ削除等の要求を示すものとする。共有ディスク91は、ユーザデータや、システムデータ等を記憶する記憶デバイスであり、クラスタノード90aおよび90bと接続されている。
図6において、クラスタノード90aは、クライアントへサービスを提供する運用系ノードである。クラスタノード90bは、クラスタノード90aが障害や運用管理等によって停止した場合に、代行してサービスを提供する待機系ノードである。また、クラスタノード90aおよび90bは、クラスタ制御部92を有する。クラスタ制御部92は、クラスタノード90aおよび90bのうち、いずれをアクティブに動作させるかを制御する。例えば、クラスタ制御部92は、クラスタノード90aが動作している場合には、クラスタノード90bを停止させる。一方、クラスタ制御部92は、クラスタノード90aが停止している場合には、クラスタノード90bをアクティブに動作させる。アクティブに動作するように制御されたクラスタノード90aまたは90bは、クライアント群10へサービスを提供する。
ところで、上述したクライアント群10からNASクラスタシステム9へ送信される要求は、「idempotentな要求」と、「非idempotent(non-idempotentとも呼ばれる)な要求」との二種類に分けられる。idempotentな要求とは、同一の要求を重複して処理した場合に、処理結果が同一になる要求を示す。例えば、UNIX(登録商標)系コマンドにおけるls(list segments)や、pwd(print working directory)などは、idempotentな要求に該当する。
一方、非idempotentな要求とは、同一の要求を重複して処理した場合に、処理結果が同一にならない要求を示す。例えば、UNIX(登録商標)系コマンドにおけるrmdir(remove directory)や、mkdir(make directory)などは、非idempotentな要求に該当する。rmdirを例に挙げて説明すると、クラスタノード90aは、一回目にrmdirを実行してディレクトリの削除処理に成功した場合、二回目以降にrmdirを実行しても、処理結果がENOENT(No such file or directory)といったエラーになる。
ここで、クライアント群10は、送信した要求が消失したことを検知した場合、かかる要求を再送する。このとき、NASクラスタシステム9は、かかる再送処理によって要求を重複して受け付ける場合がある。かかる場合、NASクラスタシステム9が、仮に要求を重複して処理したこととする。このことは、NASクラスタシステム9が非idempotentな要求を重複して受け付けた場合に、要求に対する2回目以降の処理結果がエラー(上記例では、ENOENTエラー)になってしまうという問題を招く。
そこで、NASクラスタシステム9は、非idempotentな要求を重複して受け付けた場合における対策を取っている。具体的には、NASクラスタシステム9は、クライアントから要求を受け付けた場合に、かかる要求を識別するための識別番号(xid)と、かかる要求の応答データとの組合せを含む情報を、DRC(duplicate reply cache、または、duplicate request cache)と呼ばれるキャッシュに記憶させる。ここで言う「要求の応答データ」とは、NASクラスタシステム9からクライアント群10へ応答されるデータを示す。なお、本明細書では、DRCに記憶される「xid」と「応答データ」との組合せを含む情報を、「DRC情報」と呼ぶこととする。
そして、NASクラスタシステム9は、クライアント群10から要求を受け付けた場合に、DRCに記憶されているDRC情報群から、受け付けた要求のxidと同一のxidを含むDRC情報を検索する。そして、NASクラスタシステム9は、同一のxidを含むDRC情報が存在する場合に、検索されたDRC情報に含まれる応答データをクライアントへ送信して処理を終了する。これにより、NASクラスタシステムは、非idempotentな要求を重複して受け付けた場合であっても、重複実行によって発生するエラーを防止している。
なお、一般的に、NASクラスタシステム9は、DRCに記憶させたDRC情報を、クラスタノード90aまたは90bの双方がアクセスできるNVRAM(Non Volatile Random Access Memory)に退避させる。これは、フェールオーバが発生した場合に、DRC情報をクラスタノード90aから、クラスタノード90bへ引き継げるようにするためである。
B.Callaghan、NFS Illustrated、ISBN 0-201-32570-5、Addision-Wesley、2000 S.Lawler、Active/Active Controller Configuration Overview and Best Practice Guidelines、TR3450-0107、Network Appliance Inc.、January 2007、[online]、[平成20年10月14日検索]、インターネット<http://www.netapp.com/library/tr/3450.pdf>
しかしながら、上記従来のNASクラスタシステムには、DRC情報を退避させる機能を実装するためには、開発に要するハードコストが増大してしまうという問題があった。具体的には、従来のサーバクラスタシステムは、上述したように、DRC情報をNVRAMに退避させる。一般的なサーバクラスタシステムは、NVRAMを有していないため、DRC情報を退避させる機能を実装するためには、高価なハードであるNVRAMを新たに設けることになる。このことは、サーバクラスタシステムにかかるコストが増大するという問題を招く。
開示の技術は、上述した従来技術による問題点を解消するためになされたものであり、開発に要するコストを増大させることなくDRC情報を退避させる機能を実現することができるクラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本願に開示するクラスタシステム制御プログラムは、ジャーナルファイルシステムを有する共有ディスクと接続されるノードがクラスタ化されたクラスタシステムを制御するクラスタシステム制御プログラムであって、クライアントから要求を受け付けた場合に、該要求を識別するための識別番号と、該要求に対して前記クライアントへ応答する応答データとを含む情報である要求応答情報を生成する要求応答情報生成手順と、前記要求応答情報生成手順によって生成された要求応答情報を、前記ジャーナルファイルシステムに退避する退避手順とをコンピュータに実行させることを要件とする。
なお、本願に開示するクラスタシステム制御プログラムの構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも、他の態様として有効である。
本願に開示したクラスタシステム制御プログラムによれば、開発に要するコストを増大させることなくDRC情報を退避させる機能を実現することができるという効果を奏する。
以下に、本願に開示するクラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法の実施例を図面に基づいて詳細に説明する。なお、この実施例により本願に開示するクラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法が限定されるものではない。なお、以下の実施例では、本願に開示するクラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法を、NFSを用いたNASクラスタシステムに適用する場合を例に挙げて説明する。しかし、本願に開示するクラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法は、CIFSを用いたNASクラスタシステム等にも適用することができる。
まず、本実施例に係るNASクラスタシステム1の概要について説明する。本実施例に係るNASクラスタシステム1は、共有ディスクにジャーナルファイルシステムを有する。そして、NASクラスタシステム1は、クライアントから要求を受け付けた場合に、かかる要求の処理結果と、かかる要求に対応するDRC情報とを、ジャーナルファイルシステムに記憶させる。
すなわち、NASクラスタシステム1は、従来のNASクラスタシステム9のようにNVRAMにDRC情報を退避させるのではなく、共有ディスク内のジャーナルファイルシステムにDRC情報を退避させる。そして、NASクラスタシステム1は、フェールオーバが発生した場合に、ジャーナルファイルシステムに記憶されているDRC情報を、クラスタノード間で引き継ぐ。
このように、本実施例に係るNASクラスタシステム1は、新たなハードが設けられなくても、DRC情報を共有ディスクに退避させるので、開発に要するハードコストを増大させることなく、DRC情報を退避させる機能を実現することができる。なお、一般的に、NASクラスタシステムに接続される共有ディスクは、ジャーナルファイルシステムを有する。したがって、本実施例に係るNASクラスタシステム1は、新たにジャーナルファイルシステムを設けることなく実現することができる。
次に、本実施例に係るNASクラスタシステム1の構成について説明する。図1は、本実施例に係るNASクラスタシステム1の構成例を示す図である。図1に示すように、NASクラスタシステム1は、クラスタノード10aおよび10bと、共有ディスク20とを有し、クライアント群10と接続されている。
共有ディスク20は、ユーザデータや、システムデータ等を記憶する記憶デバイスであり、クラスタノード10aおよび10bからアクセスされる。ここで、本実施例における共有ディスク20は、少なくともジャーナルファイルシステムを有する。ジャーナルファイルシステムとは、ファイルシステムとして整合性のある更新処理の単位(トランザクション)を、ジャーナルという個別デバイス(または専用ファイル)を用いてアトミック(不可分)に処理する機能を有するファイルシステムである(詳細は、参考文献「S.Tweedie、EXT3 Journaling Filesystem、Ottawa Linux Symposium、Ottawa Congress Centre、Ottawa、Ontario、Canada、2000/7/20.」を参照)。例えば、ext3(third extended file system)と、そのジャーナルデータを制御するjbd(journaling block device)の組み合わせなどが有名である。
図1に示した共有ディスク20は、ユーザデータや、システムデータ等を記憶する領域であるext3用パーティション21を有するとともに、そのジャーナルデータを管理する領域としてjbd用パーティション22を有する。
図1において、クラスタノード10aは、運用系ノードであり、クラスタノード10bは、待機系ノードである。なお、クラスタノード10aおよび10bの構成要素は、互いに同等の機能を有するため、以下では、クラスタノード10aについてのみ構成要素の説明をする。
クラスタノード10aは、RPC(Remote Procedure Call)+TCP/IP(Transmission Control Protocol/Internet Protocol)11aと、nfsd(Network File System Daemon)12aと、VFS(Virtual File System)13aと、ext3/jbd14aとを有する。
RPC+TCP/IP11aは、RPCおよびTCP/IPのレイヤにおける処理を担う。具体的には、RPC+TCP/IP11aは、クライアント群10から送信される要求を受け取り、受け取った要求に対して、RPCおよびTCP/IPのレイヤにおける解析を行う。
nfsd12aは、クラスタノード10aに常駐するNFSのプログラム(カーネルデーモン)であり、インコアなDRCの制御体であるDRC15aを有する。具体的には、nfsd12aは、後述するVFS13aとext3/jbd14aとを介して、RPC+TCP/IP11aによって解析された要求を実行する。続いて、nfsd12aは、実行済みの要求に対応するDRC情報を生成し、生成したDRC情報をDRC15aに格納する。
そして、nfsd12aは、正常終了した非idempotentな要求についてのみDRC情報をext3/jbd14aへ送信する。これは、本実施例に係るNASクラスタシステム1は、要求に対する重複処理によって発生するエラーを回避することを目的として、DRC情報をjbd用パーティション22に退避するからである。
具体的には、idempotentな要求は、重複処理された場合であっても処理結果がエラーにならない。したがって、クラスタノード10aは、idempotentな要求に対応するDRC情報をjbd用パーティション22に退避して、クラスタノード10bに引き継げるようにしておく必要がない。また、異常終了した非idempotentな要求は、重複処理に関係なく処理結果がエラーになる。したがって、クラスタノード10aは、異常終了した非idempotentな要求に対応するDRC情報をjbd用パーティション22に退避して、クラスタノード10bに引き継げるようにしておく必要がない。このようなことから、nfsd12aは、正常終了した非idempotentな要求についてのみDRC情報をext3/jbd14aへ送信する。
VFS13aは、ファイルシステムの上位に位置する抽象化層であり、クライアント群10が様々なアプリケーションを用いてファイルシステムにアクセスできるようにする。具体的には、VFS13aは、要求を受け付けた場合に、かかる要求に関連するファイルシステムを選択する。図1に示した例では、共有ディスク20のファイルシステムがext3であるため、VFS13aは、nfsd12aから要求を受け付けた場合に、ext3をファイルシステムとして選択する。
ext3/jbd14aは、OS(Operating System)が持つコンピュータの資源を操作するためのデータ、デバイス、プロセスやカーネルを備え、データの操作を実施する。なお、ここで言う「ext3/jbd」とは、ファイルシステムであるext3と、jbdとの組合せを示す。ここで、ext3はjbdと連携して動作するジャーナルファイルシステムである。
jbdは、元来、ext3ファイルシステムを形成するブロックの更新をジャーナル化するためのデバイスドライバである。しかし、本実施例におけるjbdは、nfsd12aによって生成されたDRC情報をも、jbd用パーティション22に格納する。
このとき、jbdは、正常終了した非idempotentな要求の処理結果と、かかる要求に対応するDRC情報とを、1つのトランザクション内において、jbd用パーティション22に格納する。このことを実現するために、nfsd12aは、ext3/jbd14aにおけるジャーナルセッションをオーバラップするように、ジャーナルセッションを開始および終了する。これにより、jbdは、要求の処理結果と、かかる要求のDRC情報とをアトミックにjbd用パーティション22に格納することができる。
次に、図2を用いて、図1に示したクラスタノード10aによるDRC退避処理について説明する。図2は、図1に示したクラスタノード10aによるDRC退避処理手順を示すシーケンス図である。図2では、クラスタノード10aは、クライアント群10から要求「rmdir」を受け付けた場合を例に挙げて説明する。なお、図2に示したext3は、図1に示したext3/jbd14aにおけるext3であり、図2に示したjbdは、図1に示したext3/jbd14aにおけるjbdである。
図2に示すように、nfsd12aは、クライアント群10から要求「rmdir」を受け付けた場合に(ステップS101)、jbdに対して、トランザクション内における更新セッション(ジャーナルセッション)を開始する旨のコマンド「journal_start」を発行する(ステップS102およびS103)。なお、本明細書において、トランザクションとは、ext3用パーティション21をアトミックに更新する処理単位を示す。
ここで、活性のトランザクションが不在であれば、新規にトランザクションを作成する。なお、ステップS102およびS103において開始されたジャーナルセッションは、図2に示したJ1である。
続いて、nfsd12aは、図示しないVFS13aを介して、コマンド「ext3_rmdir」をext3に発行する(ステップS104)。かかるコマンドを受け付けたext3は、jbdに対して、ジャーナルセッションを開始する旨のコマンド「journal_start」を発行する(ステップS105およびS106)。なお、ステップS105およびS106において開始されたジャーナルセッションは、図2に示したJ2である。
続いて、ext3は、コマンド「ext3_rmdir」を実行した後、jbdに対して、ジャーナルセッションJ2を終了する旨のコマンド「journal_stop」を発行する(ステップS107)。かかるコマンドを受け付けたjbdは、rmdirの処理結果をjbd用パーティション22に格納するためのジャーナルデータを生成する(ステップS108)。
続いて、nfsd12aは、ジャーナルセッションJ2が終了したことをjbdおよびext3を介して受け取る(ステップS109およびS110)。続いて、nfsd12aは、DRC情報を生成する(ステップS111)。続いて、nfsd12aは、ext3によって実行された「ext3_rmdir」が正常終了していた場合に、jbdに対して、生成したDRC情報をjbd用パーティション22に格納する旨のコマンド(図2に示した例では、「nfsd_set_drc_to_journal」)を発行する(ステップS112およびS113)。
続いて、nfsd12aは、jbdに対して、ジャーナルセッションJ1を終了する旨のコマンド「journal_stop」を発行する(ステップS114)。かかるコマンドを受け付けたjbdは、ステップS111において生成されたDRC情報をjbd用パーティション22に格納するためのジャーナルデータを生成する(ステップS115)。そして、nfsd12aは、ジャーナルセッションJ1が終了したことをjbdおよびext3を介して受け取る(ステップS116)。
続いて、nfsd12aは、所定のタイミングになった場合に、ext3に対して、トランザクションを強制フラッシュさせるコマンド「ext3_sync_file」を発行する(ステップS117)。かかるコマンドを受け付けたext3は、jbdに対してコマンド「journal_force_commit」を発行する(ステップS118)。かかるコマンドを受け付けたjbdは、強制フラッシュを実行する(ステップS119)。具体的には、jbdは、ステップS108およびステップS115において生成したジャーナルデータ等を含むトランザクション情報を、jbd用パーティション22へ格納する。ここで言う「トランザクション情報」とは、1個のトランザクション内で生成される全てのジャーナルデータや、その他の制御データを含む情報を示す。
なお、NFSプロトコルの仕様上、非idempotent要求に対しては、その成功応答メッセージを送信する前に、必ず処理結果を恒久化するルールとなっている。すなわち、上述の強制フラッシュ処理を行う所定のタイミングとは、ステップS116直後に他ならない。
そして、jbd用パーティション22へ格納されたファイルシステムを形成する更新ブロックデータは、図2に示されたシークエンスの後で、非同期にext3用パーティション21へ反映される。jbdは、ext3用パーティション21へ反映が完了しているブロックに対応するジャーナルデータを、適宜jbd用パーティション22から削除する。ここで、jbdは、有効期間が経過していないDRC情報が削除されないようにデータの削除処理を行う。かかるデータ削除処理(後述する「DRC再利用処理」に相当する)については、図4および図5を用いて後に詳述する。
このように、クラスタノード10aは、ステップS102およびS103で開始されるジャーナルセッションJ1において生成されたジャーナルデータと、ステップS105およびS106で開始されるジャーナルセッションJ2において生成されたジャーナルデータとを、単一のトランザクション内でjbd用パーティション22に格納する。これにより、クラスタノード10aは、ステップS108における処理(要求実行処理)と、ステップS115における処理(DRC格納処理)とのアトミック性を保証することができる。
次に、図1に示したjbd用パーティション22の構成について説明する。図3は、jbd用パーティション22の構成例を示す図である。図3の上段に、jbd用パーティション22に格納されるデータの一部分を示す。なお、ここでは、jbd用パーティション22に格納されるデータを、トランザクション単位で区切って図示している。具体的には、図3の上段に示したjbd用パーティション22は、トランザクションT1と、トランザクションT2とにおいて格納されたデータを記憶している。
jbd用パーティション22は、図3に示すように、各トランザクションにおいて、ディスクリプタブロックとブロックデータとの組合せ、および、コミットブロックとが格納される。
図3に示した例では、トランザクションT1は、ディスクリプタブロックD1と、ブロックデータB11およびB12との組合せと、ディスクリプタブロックD2と、ブロックデータB21およびB22との組合せ、更にコミットブロックC1およびC2を有する。
ディスクリプタブロックD1およびD2は、自身(ディスクリプタブロック)の後に格納されているデータブロックのタイプ等を示す情報が格納される領域である。例えば、ディスクリプタブロックD1は、ブロックデータB11およびB12のタイプ等を示す情報が格納される。また、例えば、ディスクリプタブロックD2は、ブロックデータB21およびB22のタイプ等を示す情報が格納される。
ブロックデータB11、B12、B21およびB22は、更新されたデータが格納される領域である。ここで言う「更新されたデータ」とは、図2におけるステップS108において格納される情報に相当する。コミットブロックC1およびC2は、トランザクションの終端を示す情報が格納される領域である。
コミットブロックC1は、図3に示すように、コミットブロック情報と、DRCヘッダと、DRC情報とを有する。なお、図3では、コミットブロックC1の構成を示しているが、コミットブロックC2の構成は、コミットブロックC1の構成と同様である。コミットブロック情報は、トランザクションの終端を示す情報が格納される領域である。
DRCヘッダは、DRCフラグと、DRC終端オフセットとを有する。DRCフラグは、コミットブロックC1の後に、他のコミットブロックが存在するか否かを示す。本明細書では、DRCフラグ「1」は、コミットブロックの後に、他のコミットブロックが存在することを示し、DRCフラグ「2」は、コミットブロックの後に、他のコミットブロックが存在しないことを示すものとする。
図3に示した例では、コミットブロックC1の後に、コミットブロックC2が存在する。したがって、コミットブロックC1のDRCフラグには、「1」が格納される。また、図3に示した例では、コミットブロックC2の後に、他のコミットブロックが存在しない。したがって、コミットブロックC2のDRCフラグには、「2」が格納される。
DRC情報は、図3に示すように、sockaddrと、xidと、procと、protと、versと、timevalと、プロシジャ固有データとを有する。sockaddrは、要求を送信したクライアントが保持するソケットアドレスが格納される領域である。xidは、要求のxidが格納される領域である。
procは、プロシジャが格納される領域である。図2に示した例の場合、procには、「rmdir」が格納される。protは、プロトコルの種類が格納される領域である。本実施例の場合、protには、「nfs」が格納される。versは、プロトコルのバージョンが格納される領域である。例えば、プロトコルが「nfs2」の場合、versには、「2」が格納される。
timevalは、DRC情報の有効期間が格納される領域である。なお、有効期間とは、DRC情報をjbd用パーティション22に退避しておく制限時刻であり、例えば、かかるDRC情報の生成された時刻に120秒を加算した時刻などに設定される。プロシジャ固有データは、要求に対する「応答データ」が格納される領域である。
なお、図3では、コミットブロックC1に複数のDRC情報が格納されている例を示したが、コミットブロックには、1個のDRC情報が格納される場合もある。ここで、コミットブロックに複数のDRC情報が格納されるケースについて説明する。nfsd12aは、マルチスレッドに動作するデーモンであるので、複数の要求を並行して処理することがある。しかし、jbdは、シングルスレッドで動作する。したがって、nfsd12aが複数の要求を並行して処理する場合、jbdは、nfsd12aによって作成される1個のトランザクションにおいて、複数の要求を処理することになる。かかる場合に、コミットブロックには、複数のDRC情報が格納されることになる。
このように、DRC情報は、従来のジャーナルファイルシステムから存在するコミットブロックに格納される。従来のコミットブロックは、コミットブロック情報のみしか格納されておらず、その他の領域は未使用領域であった。一般的に、各ブロックサイズは512バイトであり、コミットブロック情報のサイズは16バイト程度である。そのため、従来のコミットブロックは、大半が未使用領域であった。本実施例に係るNASクラスタシステム1は、コミットブロックの未使用領域にDRC情報を格納するので、jbd用パーティション22の容量を圧迫することなくDRC情報を退避することができる。
次に、図1に示したext3/jbd14aによるDRC再利用処理について説明する。まず、図4を用いて、DRC再利用処理を行う理由について説明する。図4は、DRC再利用処理を行う理由を説明するための図である。
図4の左側は、jbd用パーティション22に格納されているデータの一例を示す。なお、図4では、jbd用パーティション22に格納されているデータをトランザクション単位に区切って示している。また、図4の右側は、インコア制御表(「トランザクションの制御表」または「トランザクションリスト」とも呼ばれる)の一例を示す。
図4に示すように、jbd用パーティション22は、トランザクションt15において、DRC情報15が格納されている。また、jbd用パーティション22は、トランザクションt19において、DRC情報19が格納されている。一方、インコア制御表は、トランザクションt15においてDRC情報15が格納され、トランザクションt19においてDRC情報19が格納されたことを示す情報を保持する。
ところで、従来のext3/jbd14では、jbd用パーティション22に格納されている各更新ブロックデータは、チェックポイントと呼ばれる所定のタイミングが訪れるまでに、ext3用パーティション21へ反映される。そして、全ての更新ブロックデータを反映し終えたトランザクション情報は、チェックポイント時に解放(破棄)される。すなわち、トランザクションt15が開放された場合、トランザクションt15において格納されたDRC情報15も解放されてしまう。同様に、トランザクションt19が解放された場合、トランザクションt19において格納されたDRC情報15も解放されてしまう。このことは、DRC情報15または19の有効期間が経過する前に、DRC情報15または19が解放されてしまうという問題を招く。
そこで、本実施例におけるext3/jbd14aは、有効期間が経過するよりも前に解放されるDRC情報が存在する場合、かかるDRC情報を、まだ破棄されないトランザクション情報内のコミットブロックに退避させる処理(DRC再利用処理)を行う。これにより、有効期間が経過するよりも前にDRC情報を解放してしまうことを防止することができる。
図5を用いて、DRC再利用処理について具体的に説明する。図5は、ext3/jbd14aによるDRC再利用処理を説明するための図である。図5の上段に、図4に示したjbd用パーティション22に格納されているデータと、インコア制御表とを示す。
図5の上段に示した状態において、所定のチェックポイントにより、トランザクションt15およびt16が解放されるものとする。かかる場合、上述したように、DRC情報15は、解放されてしまう。そこで、ext3/jbd14aは、DRC情報15の有効期間がまだ経過していない場合、図5の下段左側に示すように、DRC情報15を、トランザクションt21において生成されたコミットブロックに退避している。
このように、ext3/jbd14aは、有効期間が経過していないDRC情報を、適宜解放されないように新しいトランザクション情報として再退避するので、有効期間中、DRC情報をjbd用パーティション22に退避させておくことができる。
次に、フェールオーバ発生時におけるNASクラスタシステム1によるリカバリ処理について説明する。ここでは、フェールオーバが発生して、クライアント群10からの要求を処理するノードが、クラスタノード10aからクラスタノード10bへ引き継がれるものとする。かかる場合、クラスタノード10bは、jbd用パーティション22に格納されている各種情報を用いてリカバリ処理を行う。このとき、クラスタノード10bは、リカバリ処理が終了した場合であっても、有効期間が経過していないDRC情報を含むトランザクション情報を破棄しないように制御する。
具体的には、クラスタノード10bは、jbd用パーティション22に退避されたトランザクション情報を元に、ext3用パーティション21の更新リカバリ処理を行った後、リカバリ処理に用いたトランザクション情報のうち、有効期間が経過していないDRC情報を破棄しないように制御する。
図4に示した例を用いて説明する。例えば、フェールオーバ発生時におけるjbd用パーティション22に格納されている情報が、図4の左側に示した状態であるものとする。また、DRC情報15および19は、有効期間が経過していないものとする。このような状態において、クラスタノード10bは、トランザクションt15〜t20に対応するトランザクション情報を用いて、ext3用パーティションの更新リカバリ処理を行う。なお、以下では、トランザクションt15〜t20に対応するトランザクション情報を、それぞれトランザクション情報ti15〜ti20と表記することとする。
ここで、従来のクラスタノードは、ext3用パーティションの更新リカバリ処理が終了した後に、トランザクション情報を削除していた。しかし、本実施例におけるクラスタノード10bは、ext3用パーティション21の更新リカバリ処理が終了した後、リカバリに用いたトランザクション情報ti15〜ti20を破棄せずに、トランザクション情報ti15〜ti20に対応するインコア制御表(図4の右側参照)を再構築する。すなわち、クラスタノード10bは、フェールオーバ発生前におけるクラスタノード10aが有するトランザクション情報およびインコア制御表の状態を再現する。
なお、クラスタノード10bは、クライアント群10へのサービスを開始するとともに、jbd用パーティション22に格納されているDRC情報のうち、有効期間が経過していないDRC情報を、nfsd12bが有するDRC15bへ取り込む。すなわち、NASクラスタシステム1は、自装置の都合のよいタイミングでDRC情報を復旧することができる。このため、本実施例に係るNASクラスタシステム1は、NFSサーバや、下位のファイルシステムの起動ロジックを変更することなく、DRC復旧処理を行うことができる。
上述してきたように、本実施例に係るNASクラスタシステム1は、DRCに記憶させたDRC情報を、共有ディスク内のジャーナルファイルシステムに退避させる。したがって、本実施例に係るNASクラスタシステム1は、DRC情報を退避させる機能を実装する場合であっても、開発に要するハードコストを抑えることができる。
また、本実施例に係るNASクラスタシステム1は、正常終了した非idempotentな要求についてのみDRC情報をjbd用パーティション22に退避する。非idempotentな要求は、NFSのプロトコル仕様によって、正常応答をクライアントへ送信する前に、処理結果の恒久化(処理結果をext3用パーティション21に反映すること)が定められている。したがって、NASクラスタシステム1は、正常終了した非idempotentな要求については、ext3用パーティション21にアクセスすることになる。本実施例に係るNASクラスタシステム1は、従来から行われている処理結果の恒久化処理に、DRC退避処理を荷負わせる(piggy−bag)ので、従来のNASクラスタシステム9のようにNVRAMを用いた場合と比較しても、性能劣化を招くことはない。したがって、本実施例に係るNASクラスタシステム1は、DRC情報を退避させる機能を実装する場合であっても、開発に要するハードコストを抑えることができるとともに、性能劣化を招くことを防止することができる。
なお、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報(例えば、図3など)については、特記する場合を除いて任意に変更することができる。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)ジャーナルファイルシステムを有する共有ディスクと接続されるノードがクラスタ化されたクラスタシステムを制御するクラスタシステム制御プログラムであって、
クライアントから要求を受け付けた場合に、該要求を識別するための識別番号と、該要求に対して前記クライアントへ応答する応答データとを含む情報である要求応答情報を生成する要求応答情報生成手順と、
前記要求応答情報生成手順によって生成された要求応答情報を、前記ジャーナルファイルシステムに退避する退避手順と
をコンピュータに実行させることを特徴とするクラスタシステム制御プログラム。
(付記2)前記要求応答情報生成手順は、前記クライアントから受け付けた要求が、重複して処理された場合に同一の処理結果にならない要求であり、かつ、該要求の処理結果が正常終了した場合に、前記要求応答情報を生成することを特徴とする付記1に記載のクラスタシステム制御プログラム。
(付記3)前記退避手順は、前記ジャーナルファイルシステムにトランザクション単位で格納されている情報であるトランザクション情報が有するコミットブロック内に、前記要求応答情報を退避することを特徴とする付記1または2に記載のクラスタシステム制御プログラム。
(付記4)前記要求応答情報生成手順は、前記要求応答情報を前記ジャーナルファイルシステムに退避する期間を示す有効期間情報を該要求応答情報に付与し、
前記退避手順は、前記要求応答情報生成手順によって生成された要求応答情報を含むトランザクション情報が破棄対象になり、かつ、該要求応答情報の有効期間が経過していない場合に、該要求応答情報を他のトランザクション情報に退避することを特徴とする付記3に記載のクラスタシステム制御プログラム。
(付記5)フェールオーバが発生して、トランザクション情報を用いて復旧処理を行った後にトランザクション情報を破棄する場合に、前記要求応答情報生成手順によって付与された有効期間が経過していない要求応答情報を含むトランザクション情報以外のトランザクション情報を破棄する復旧手順をさらにコンピュータに実行させることを特徴とする付記4に記載のクラスタシステム制御プログラム。
(付記6)前記クライアントから要求を受け付けた場合に、該要求の応答データを該クライアントへ送信する応答手順をさらにコンピュータに実行させ、
前記復旧手順は、フェールオーバが発生した場合に、前記退避手順によって退避された要求応答情報を取得し、
前記応答手順は、前記クライアントから要求を受け付けた場合に、前記復旧手順によって取得された要求応答情報のうち、識別番号が該要求の識別番号と同一の要求応答情報に含まれる応答データを、前記クライアントに送信することを特徴とする付記5に記載のクラスタシステム制御プログラム。
(付記7)ジャーナルファイルシステムを有する共有ディスクと接続されるノードがクラスタ化されたクラスタシステムであって、
クライアントから要求を受け付けた場合に、該要求を識別するための識別番号と、該要求に対して前記クライアントへ応答する応答データとを含む情報である要求応答情報を生成する要求応答情報生成手段と、
前記要求応答情報生成手段によって生成された要求応答情報を、前記ジャーナルファイルシステムに退避する退避手段と
を備えたことを特徴とするクラスタシステム。
(付記8)ジャーナルファイルシステムを有する共有ディスクと接続されるノードがクラスタ化されたクラスタシステムを制御するクラスタシステム制御方法であって、
前記クラスタシステムが、
クライアントから要求を受け付けた場合に、該要求を識別するための識別番号と、該要求に対して前記クライアントへ応答する応答データとを含む情報である要求応答情報を生成する要求応答情報生成工程と、
前記要求応答情報生成工程によって生成された要求応答情報を、前記ジャーナルファイルシステムに退避する退避工程と
を含んだことを特徴とするクラスタシステム制御方法。
NASクラスタシステムの構成例を示す図である。 図1に示したクラスタノードによるDRC退避処理手順を示すシーケンス図である。 jbd用パーティションの構成例を示す図である。 DRC再利用処理を行う理由を説明するための図である。 ext3/jbdによるDRC再利用処理を説明するための図である。 従来のNASクラスタシステムの構成例を示す図である。
符号の説明
1、9 NASクラスタシステム
10 クライアント群
10a、10b、90a、90b クラスタノード
11a、11b RPC+TCP/IP
12a、12b nfsd
13a、13b VFS
14a、14b ext3/jbd
15a、15b DRC
20、91 共有ディスク
21 ext3用パーティション
22 jbd用パーティション
92 クラスタ制御部

Claims (7)

  1. ジャーナルファイルシステムを有する共有ディスクと接続されるノードがクラスタ化されたクラスタシステムを制御するクラスタシステム制御プログラムであって、
    クライアントから要求を受け付けた場合に、該要求を識別するための識別番号と、該要求に対して前記クライアントへ応答する応答データとを含む情報である要求応答情報を生成する要求応答情報生成手順と、
    前記要求応答情報生成手順によって生成された要求応答情報を、前記ジャーナルファイルシステムに退避する退避手順と
    をコンピュータに実行させることを特徴とするクラスタシステム制御プログラム。
  2. 前記要求応答情報生成手順は、前記クライアントから受け付けた要求が、重複して処理された場合に同一の処理結果にならない要求であり、かつ、該要求の処理結果が正常終了した場合に、前記要求応答情報を生成することを特徴とする請求項1に記載のクラスタシステム制御プログラム。
  3. 前記退避手順は、前記ジャーナルファイルシステムにトランザクション単位で格納されている情報であるトランザクション情報が有するコミットブロック内に、前記要求応答情報を退避することを特徴とする請求項1または2に記載のクラスタシステム制御プログラム。
  4. 前記要求応答情報生成手順は、前記要求応答情報を前記ジャーナルファイルシステムに退避する期間を示す有効期間情報を該要求応答情報に付与し、
    前記退避手順は、前記要求応答情報生成手順によって生成された要求応答情報を含むトランザクション情報が破棄対象になり、かつ、該要求応答情報の有効期間が経過していない場合に、該要求応答情報を他のトランザクション情報に退避することを特徴とする請求項3に記載のクラスタシステム制御プログラム。
  5. フェールオーバが発生して、トランザクション情報を用いて復旧処理を行った後にトランザクション情報を破棄する場合に、前記要求応答情報生成手順によって付与された有効期間が経過していない要求応答情報を含むトランザクション情報以外のトランザクション情報を破棄する復旧手順をさらにコンピュータに実行させることを特徴とする請求項4に記載のクラスタシステム制御プログラム。
  6. ジャーナルファイルシステムを有する共有ディスクと接続されるノードがクラスタ化されたクラスタシステムであって、
    クライアントから要求を受け付けた場合に、該要求を識別するための識別番号と、該要求に対して前記クライアントへ応答する応答データとを含む情報である要求応答情報を生成する要求応答情報生成手段と、
    前記要求応答情報生成手段によって生成された要求応答情報を、前記ジャーナルファイルシステムに退避する退避手段と
    を備えたことを特徴とするクラスタシステム。
  7. ジャーナルファイルシステムを有する共有ディスクと接続されるノードがクラスタ化されたクラスタシステムを制御するクラスタシステム制御方法であって、
    前記クラスタシステムが、
    クライアントから要求を受け付けた場合に、該要求を識別するための識別番号と、該要求に対して前記クライアントへ応答する応答データとを含む情報である要求応答情報を生成する要求応答情報生成工程と、
    前記要求応答情報生成工程によって生成された要求応答情報を、前記ジャーナルファイルシステムに退避する退避工程と
    を含んだことを特徴とするクラスタシステム制御方法。
JP2008287083A 2008-11-07 2008-11-07 クラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法 Expired - Fee Related JP4659872B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008287083A JP4659872B2 (ja) 2008-11-07 2008-11-07 クラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法
US12/610,645 US8676766B2 (en) 2008-11-07 2009-11-02 Computer-readable recording medium storing cluster system control program, cluster system, and cluster system control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008287083A JP4659872B2 (ja) 2008-11-07 2008-11-07 クラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法

Publications (2)

Publication Number Publication Date
JP2010113617A true JP2010113617A (ja) 2010-05-20
JP4659872B2 JP4659872B2 (ja) 2011-03-30

Family

ID=42166128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008287083A Expired - Fee Related JP4659872B2 (ja) 2008-11-07 2008-11-07 クラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法

Country Status (2)

Country Link
US (1) US8676766B2 (ja)
JP (1) JP4659872B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009218A (ja) * 2014-06-20 2016-01-18 富士通株式会社 冗長システム、冗長化方法および冗長化プログラム
JP2018147242A (ja) * 2017-03-06 2018-09-20 日本電気株式会社 データ管理装置、情報処理システム、データ管理方法、および、プログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4659872B2 (ja) * 2008-11-07 2011-03-30 富士通株式会社 クラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法
US9734034B2 (en) * 2010-04-09 2017-08-15 Hewlett Packard Enterprise Development Lp System and method for processing data
US20120079474A1 (en) * 2010-09-24 2012-03-29 Stephen Gold Reimaging a multi-node storage system
US9596297B2 (en) 2013-05-16 2017-03-14 Toshiba Global Commerce Solutions Holdings Corporation Managing communications in a multi-client, multi-server environment
CN113660331A (zh) * 2021-08-16 2021-11-16 杭州安恒信息技术股份有限公司 一种数据中添加来源信息的方法及相关装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0523650A (ja) * 1991-07-23 1993-02-02 Showa Rubber Kk 鋼管の清掃体
JPH07319828A (ja) * 1994-05-24 1995-12-08 Nec Corp 共有ディスク装置システム運用方式
JPH08106426A (ja) * 1994-10-07 1996-04-23 Hitachi Ltd クライアントサーバシステム及びその処理方法
JPH10222388A (ja) * 1997-02-04 1998-08-21 Hitachi Ltd 並列計算機のホットスタンバイ方法
JP2007336360A (ja) * 2006-06-16 2007-12-27 Mitsubishi Electric Corp 管理装置及び通信端末装置及び通信システム及び通信管理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4807118A (en) * 1987-01-14 1989-02-21 Hewlett-Packard Company Method for handling slot requests over a network
US7676628B1 (en) * 2006-03-31 2010-03-09 Emc Corporation Methods, systems, and computer program products for providing access to shared storage by computing grids and clusters with large numbers of nodes
JP4659872B2 (ja) * 2008-11-07 2011-03-30 富士通株式会社 クラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0523650A (ja) * 1991-07-23 1993-02-02 Showa Rubber Kk 鋼管の清掃体
JPH07319828A (ja) * 1994-05-24 1995-12-08 Nec Corp 共有ディスク装置システム運用方式
JPH08106426A (ja) * 1994-10-07 1996-04-23 Hitachi Ltd クライアントサーバシステム及びその処理方法
JPH10222388A (ja) * 1997-02-04 1998-08-21 Hitachi Ltd 並列計算機のホットスタンバイ方法
JP2007336360A (ja) * 2006-06-16 2007-12-27 Mitsubishi Electric Corp 管理装置及び通信端末装置及び通信システム及び通信管理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009218A (ja) * 2014-06-20 2016-01-18 富士通株式会社 冗長システム、冗長化方法および冗長化プログラム
US9921927B2 (en) 2014-06-20 2018-03-20 Fujitsu Limited Redundant system, redundancy method, and computer-readable recording medium
JP2018147242A (ja) * 2017-03-06 2018-09-20 日本電気株式会社 データ管理装置、情報処理システム、データ管理方法、および、プログラム

Also Published As

Publication number Publication date
US20100121823A1 (en) 2010-05-13
JP4659872B2 (ja) 2011-03-30
US8676766B2 (en) 2014-03-18

Similar Documents

Publication Publication Date Title
US10289338B2 (en) Multi-class heterogeneous clients in a filesystem
JP4659872B2 (ja) クラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法
US10803015B2 (en) Caching system and method
US9880753B2 (en) Write requests in a distributed storage system
Wang et al. Hadoop high availability through metadata replication
EP3127018B1 (en) Geographically-distributed file system using coordinated namespace replication
US7406523B1 (en) Client-server communications system and method using a semi-connectionless protocol
KR101150146B1 (ko) 클라이언트가 서버와 상호작용하는 컴퓨터 구현 방법, 서버가 클라이언트와 상호작용하는 컴퓨터 구현 방법, 오브젝트를 공유하는 분산 파일 시스템 및 컴퓨터 판독가능 기록 매체
US10831741B2 (en) Log-shipping data replication with early log record fetching
TWI344090B (en) Management of a scalable computer system
US20030078946A1 (en) Clustered filesystem
US11275599B1 (en) Hypervisor remote offload for VM data migration between storage devices
KR20170002441A (ko) Sfa-rest 인터페이스를 이용하는 파일 서비스 기법
US10419572B2 (en) Caching system and method
WO2016078362A1 (zh) 一种双主控隔离的逐板升级的方法及装置
US20120117131A1 (en) Information processing device, file management method, and recording medium for file management program
JP4801196B2 (ja) ウェブファームへのデータ配布における二相コミットのための方法および装置
CN106325768B (zh) 一种双机存储系统及方法
CN114461593B (zh) 日志写入方法及其装置、电子设备及存储介质
CN113746641B (zh) 一种基于分布式存储的odx协议处理方法
US8201017B2 (en) Method for queuing message and program recording medium thereof
US20080270480A1 (en) Method and system of deleting files from a remote server
CN112035062A (zh) 云计算的本地存储的迁移方法、计算机设备及存储介质
KR20210044281A (ko) 클라우드 저하 모드에서 지속적인 디바이스 동작 안정성을 보장하기 위한 방법 및 장치
US8089987B2 (en) Synchronizing in-memory caches while being updated by a high rate data stream

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees