JP3909062B2 - Nasの制御装置及びバックアップ方法並びにプログラム - Google Patents

Nasの制御装置及びバックアップ方法並びにプログラム Download PDF

Info

Publication number
JP3909062B2
JP3909062B2 JP2004089305A JP2004089305A JP3909062B2 JP 3909062 B2 JP3909062 B2 JP 3909062B2 JP 2004089305 A JP2004089305 A JP 2004089305A JP 2004089305 A JP2004089305 A JP 2004089305A JP 3909062 B2 JP3909062 B2 JP 3909062B2
Authority
JP
Japan
Prior art keywords
nas
backup
file
failure
files
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004089305A
Other languages
English (en)
Other versions
JP2005275893A (ja
Inventor
信之 雑賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004089305A priority Critical patent/JP3909062B2/ja
Priority to US10/892,293 priority patent/US7100077B2/en
Publication of JP2005275893A publication Critical patent/JP2005275893A/ja
Application granted granted Critical
Publication of JP3909062B2 publication Critical patent/JP3909062B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1461Backup scheduling policy

Description

本発明は、NASに格納されたファイルをバックアップする技術の改良に関する。
複数のコンピュータを用いてバックアップを行う場合、一方のコンピュータに障害が発生したときには、他方のコンピュータでバックアップを再開するものが知られている(例えば、特許文献1)。
また、この例では、一方のコンピュータに障害が生じると、テープ装置を巻き戻してから、他のコンピュータでバックアップを再開している。
特開2000−353104号
しかし、上記従来の技術では、バックアップの際に複数のコンピュータを用いてはいるものの、他方のコンピュータは一方のコンピュータに障害が発生しない限りバックアップは行わないので、バックアップに要する時間は単一のコンピュータで行う場合と同様である。このため、バックアップ速度の向上を図ることができないという問題があった。
さらに、一方のコンピュータに障害が発生すると、テープ装置を巻き戻してから再開するため、さらにバックアップに要する時間が長くなってしまうという問題があった。
そこで本発明は、上記問題点に鑑みてなされたもので、バックアップ速度を向上させながらも、障害が生じた場合には確実なバックアップを行うことを目的とする。
本発明は、クライアントコンピュータからのバックアップ要求に応じて、複数のNASのうち所定のNASに格納されたファイルを、バックアップ装置に対してバックアップの要求を行うバックアップ方法であって、前記複数のNASのうちクライアントコンピュータからのバックアップ要求を受信したNASが、当該バックアップ要求に基づいて、バックアップ対象のファイルを選択し、前記バックアップ要求を受信したNASが、前記選択したバックアップ対象のファイルを、複数のNASにそれぞれ割り当て、前記割り当てられたファイルについて、各NASがバックアップ装置に対して並列的にバックアップを要求する。
また、いずれかのNASに障害が発生したときには、他のNASが障害発生時点以降のファイルについてバックアップを引き継ぐ。
したがって、本発明は、複数のNASにより並列的にバックアップを行うことができるので、バックアップ速度を大幅に向上させることができる。
また、障害が発生した場合でも、他のNASが障害発生時点以降についてバックアップを引き継ぐので、信頼性を確保しながらバックアップ速度の向上を図ることができる。
以下、本発明の一実施形態を添付図面に基づいて説明する。
図1は、本発明をNAS(Network Attached Storage)装置に適用した場合のシステムの全体的な構成を示すブロック図で、図2はNAS1及びNAS2のソフトウェア構成を示すブロック図である。
図1において、NASクラスタ100は複数のNAS1、NAS2から構成され、ネットワーク30を介して接続された管理用クライアントコンピュータ8やクライアントコンピュータ80からは単一のNAS1として認識される。この例では、正常時にはNAS1が主であり、NAS2がNAS1のクライアントとなる場合を示す。
NAS1は、ディスク装置3、4と、これらディスク装置3、4を制御するコントローラ10を含んで構成されている。また、NAS1は、ネットワーク30を介してNAS1にバックアップを要求する管理用クライアントコンピュータ8や、バックアップを行うバックアップ装置9、NAS1に対してデータの書き込み(更新)や読み出し(参照)を要求するクライアントコンピュータ80に接続されている。
NAS2は、ディスク装置5、6と、これらディスク装置5、6を制御するコントローラ20を含んで構成されている。そして、上記NAS1と同様にNAS2は、ネットワーク30を介して管理用クライアントコンピュータ8や、バックアップ装置9、クライアントコンピュータ80に接続されている。
管理用クライアントコンピュータ8は、NAS1に対して予め設定したファイルをバックアップ装置9へバックアップするよう要求する。
なお、ディスク装置3〜6には、それぞれ予め設定したファイルシステムが構築されている。
また、管理用クライアントコンピュータ8及びクライアントコンピュータ80には、図示はしないがCPU、メモリ、ネットワーク30に接続されるインターフェース、表示装置や入力装置が備えられる。
NASクラスタ100を構成するNAS1とNAS2は、相互に接続されており、バックアップを並列的に行うとともに、NAS1に障害が発生するとフェイルオーバ処理を行ってNAS2へバックアップを引き継ぐものである。
まず、NAS1のコントローラ10には、CPU11、メモリ12、データ転送コントローラ13、ネットワークインターフェース14及びストレージ用のインターフェース15が設けられている。なお、メモリ12にデータキャッシュ(図示省略)を設けても良く、あるいは、データキャッシュをデータ転送コントローラ13側に設けても良い。
メモリ12には制御プログラム(図2参照)がロードされており、CPU11が制御プログラムを呼び出して実行することによって後述する各種処理が行われる。
データ転送コントローラ13は、CPU11、ネットワークインターフェース14、ストレージインターフェース15及びメモリ12の間でデータを転送する。
NAS2もNAS1と同様に構成され、NAS2のコントローラ20には、CPU21、メモリ22、データ転送コントローラ23、ネットワークインターフェース24及びストレージ用のインターフェース25が設けられている。なお、メモリ22にデータキャッシュ(図示省略)を設けても良く、あるいは、データキャッシュをデータ転送コントローラ23側に設けても良い。
メモリ22には制御プログラム(図2参照)がロードされており、CPU21が制御プログラムを呼び出して実行することによって後述する各種処理が行われる。
データ転送コントローラ23は、CPU21、ネットワークインターフェース24、ストレージインターフェース25及びメモリ22の間でデータを転送する。
また、NAS1のディスクインターフェース15は、NAS1のディスク装置3、4に加えて、NAS2のディスク装置5、6にも接続され、NAS2のディスク装置5、6をマウントすることが可能となっている。
同様に、NAS2のディスクインターフェース25は、NAS2のディスク装置5、6に加えて、NAS1のディスク装置3、4にも接続され、NAS1のディスク装置3、4をマウントすることが可能となっている。
そして、NASクラスタ100には、NAS1とNAS2で相互に参照及び更新可能な共有論理ディスク7が設けられる。この共有論理ディスク7は、上記物理的なディスク装置3〜6のいずれかの領域に設定される。
図2は、NAS1のコントローラ10とNAS2のコントローラ20でそれぞれ実行される制御プログラムの機能ブロックを示す。
まず、NAS1のNAS_OS101は、各制御プログラムの実行管理を行い、後述するファイル共有処理103、バックアップ要求受付処理102、バックアップ進捗監視処理104、フェイルオーバ処理105の各制御プログラムを監視し、これらのソフトウェアはNAS_OS101の管理下で稼動する。
NAS2のコントローラ20も同様であり、NAS_OS201は、各制御プログラムの実行管理を行い、後述するファイル共有処理203、バックアップ要求受付処理202、バックアップ進捗監視処理204、フェイルオーバ監視処理205の各制御プログラムを監視し、これらのソフトウェアはNAS_OS201の管理下で稼動する。
以下、NAS1、2のコントローラ10、20で実行される制御の概要について説明し、その後、各制御詳細について説明する。
なお、本実施形態では、図2で示すように、NAS1のディスク装置3に格納されたファイル31をバックアップ装置9にバックアップする場合を示す。
<ファイル共有処理>
NAS1のファイル共有処理103は、ネットワーク30側に対して、管理用クライアントコンピュータ8やクライアントコンピュータ80からのアクセス要求(参照または更新)に応じて要求されたファイルの読み出しや書き込みを実行する。また、ファイル共有処理103は、NAS2に対してディスク装置3、4のファイルを参照または更新可能にするとともに、NAS2のディスク装置5、6のファイルを参照または更新可能にするものである。また、共有論理ディスク7のファイルについても相互に参照更新可能とする。
NAS2のファイル共有処理203も、ネットワーク30側に対してNAS1のファイル共有処理103と同様であり、管理用クライアントコンピュータ8やクライアントコンピュータ80からのアクセス要求に応じて要求されたファイルの読み出しや書き込みを実行し、また、NAS1に対してディスク装置5、6のファイルを参照または更新可能にするとともに、NAS1のディスク装置3、4のファイルを参照または更新可能にするものである。また、共有論理ディスク7のファイルについても相互に参照更新可能とする。
<バックアップ要求受付処理>
NAS1のバックアップ要求受付処理102は、管理用クライアントコンピュータ8からバックアップ要求を受け付けて、後述するように、バックアップ要求のあったファイルをNAS1とNAS2で按分し、それぞれがバックアップを実行するファイルのリストをリストL1、L2としてNAS2へ送信する。さらにファイルリストL1のファイル数に対応したカウンタAを設定するとともに、ファイルリストL2のファイル数に応じたカウンタBを設定する。
NAS2のバックアップ要求受付処理202は、NAS1のバックアップ要求受付処理102からバックアップ要求を受け付ける点が異なる。
NAS1のバックアップ要求受付処理102は、ファイルリストL1に基づいてバックアップを実行し、NAS2のバックアップ要求受付処理202はファイルリストL2に基づいてバックアップを実行する。そして、バックアップ要求受付処理102は、1ファイルのバックアップを完了すると、共有論理ディスク7のカウンタAをデクリメントし、同様に、NAS2のバックアップ要求受付処理202は、1ファイルのバックアップを完了すると、共有論理ディスク7のカウンタBをデクリメントする。
また、NAS1は、バックアップが完了すると、後述するログ情報LogAを共有論理ディスク7に書き込み、同様にNAS2もバックアップが完了すると、共有論理ディスク7にログ情報LogBを書き込む。
なお、バックアップの実行時には、周知のスナップショット技術やミラーリングのスプリット等を用い、バックアップ対象ファイルが更新されるのを防止する。
<バックアップ進捗監視処理>
NAS1のバックアップ進捗監視処理104は、共有論理ディスク7のカウンタBを監視して、一定時間カウンタBの更新がなければ、NAS2に障害が発生したと判定する。
そして、NAS2の障害を検知したときには、後述のように、当初NAS2が行う予定だったファイルリストL2のバックアップをカウンタBに基づいてNAS1で実行する。
同様に、NAS2のバックアップ進捗監視処理204は、共有論理ディスク7のカウンタAを監視して、一定時間カウンタAの更新がなければ、NAS1に障害が発生したと判定する。
そして、NAS1の障害を検知したときには、後述のように、NAS1のフェイルオーバ処理が終了した後に、当初NAS1が行う予定だったファイルリストL1のバックアップをNAS2で実行する。
NAS1とNAS2のバックアップ要求受付処理102、202は、共にファイルリストL1、L2を保持しており、上記のように、一方のコントローラに障害が発生したときに、他方はリストL1、L2と共有論理ディスク7上のカウンタA、Bに基づいてバックアップを再開することができる。これにより、管理用クライアントコンピュータ8からのバックアップ要求を確実に処理することができるのである。
<フェイルオーバ処理及びフェイルオーバ完了監視処理>
NAS1のフェイルオーバ処理105は、NAS1に障害が発生したとき、アドレス(IPアドレス等)をNAS2へ引き継ぐとともに、NAS1のNAS_OS101がマウントしていたディスク装置3を開放する。
NAS2はNAS1のクライアントであり、バックアップ対象のファイル31はNAS1が管理するディスク装置3に格納されているので、NAS2に障害が発生したときにはNAS1のバックアップ進捗監視処理104が、NAS2のフェイルオーバを待たずにファイルリストL2のバックアップを引き継ぐことができる。
これに対して、NAS1に障害が発生したときには、NAS2のバックアップ進捗監視処理204が、NAS1のフェイルオーバ処理105の完了を待ってから、NAS1で管理していたディスク装置3をNAS2にマウントし、その後、ファイルリストL1とカウンタAに基づいてNAS2で実行することになる。
このため、NAS2のフェイルオーバ完了監視処理205は、NAS1に問い合わせ(ハートビートの検出等)るか、ログ情報などを参照してNAS1のフェイルオーバ処理105が完了したか否かを検出する。
本実施形態では、NAS2のフェイルオーバ完了監視処理205は、共有論理ディスク7のカウンタAが更新されなくなってから所定の時間を経過したときに、NAS1のフェイルオーバ処理105が完了したと判定する場合を示す。
次に、上記図2に示したNAS1、NAS2のコントローラ10、20で実行される各制御の詳細について、以下に説明する。
<NAS1のバックアップ要求受付処理102>
図3は、NAS1のコントローラ10で実行されるバックアップ要求受付処理102の一例を示すフローチャートで、コントローラ10が管理用クライアントコンピュータ8からバックアップ要求を受けたときに実行されるものである。
S1では、管理用クライアントコンピュータ8から受け付けたバックアップ要求より、バックアップ対象のディレクトリパスを取得する。なお、ここでは、NAS1が管理するディスク装置3のファイル31のディレクトリパスをバックアップ対象とする。
S2では、取得したディレクトリパスからバックアップ対象となるファイル名を取得する。
S3では、後述するように、NAS1、NAS2の性能に応じて、NAS1がバックアップするファイルリストL1と、NAS2がバックアップするファイルリストL2を生成する。NAS1は、メモリ12またはディスク装置3、4に設けた所定の記憶域にファイルリストL1、L2を格納する。これらバックアップ対象のファイルリストL1、L2は、それぞれ、ファイル名、ディレクトリパス及びファイルサイズを含むレコードから構成されている。
S4では、ファイルリストL1に記載されたファイル数をカウントするとともに、このファイル数を共有論理ディスク7のカウンタAにセットする。同様に、ファイルリストL2に記載されたファイル数をカウントするとともに、このファイル数を共有論理ディスク7のカウンタBにセットする。
S5では、上記S3で生成したファイルリストL1、L2をNAS2へ送信するとともに、S6ではNAS2に対して、ファイルリストL2に基づくバックアップの開始要求と、バックアップを行うバックアップ装置9のアドレスを指令する。
S7では、NAS2の障害を検知するバックアップ進捗監視処理104、を新たなスレッドとして起動する。
S8以降ではNAS1のバックアップを開始する。
S8において、まず、NAS1の性能を測定するためにバックアップの開始時点である現在時刻T1を取得して記憶する。
次に、S9では、上記S3で作成したファイルリストL1から、1レコードを読み込んで、バックアップ対象のファイル名、ディレクトリパス及びファイルサイズを取得する。
次に、S10でファイルリストL1がEOF(END OF FILE)でなければ、S11に進んで、バックアップ装置9に対して取得したディレクトリパスのファイル名を転送し、バックアップを要求する。
S12では、S11で転送を終了したファイルサイズをメモリ12の所定の領域に加算する。
次に、S13では、共有論理ディスク7のカウンタAを減算する。つまり、S11でバックアップを要求したファイル数を減算しておく。後述するように、NAS2は共有論理ディスク7のカウンタAを参照することで、NAS1のバックアップの進捗状況を把握でき、NAS2が保持するファイルリストL1、L2とカウンタAから、NAS1がバックアップするべきファイルを特定することができる。
以上のS9〜S13を、ファイルリストL1の最後まで行ってバックアップが完了すると、S10からS14に進み、バックアップが完了した現在の時刻T2を取得する。
S15では、上記S8とS14で取得したバックアップの開始時刻T1と、バックアップの完了時刻T2の差からバックアップに要した処理時間ΔT1を求めるととともに、上記S12で積算した総ファイルサイズ及び、バックアップが完了した日時を含むログ情報LogAを共有論理ディスク7に出力してNAS1のバックアップを終了する。同時に、上記S7で起動したNAS2を監視するスレッド(バックアップ進捗監視処理104)を終了させる。また、所定の領域に格納したファイルサイズをリセットし、次回の処理に備える。
なお、ログ情報LogAは、例えば、図8で示すように、バックアップ完了日時、処理時間ΔT1、ファイルサイズを1レコードとするファイルで構成される。
<NAS2のバックアップ要求受付処理202>
図4は、NAS2のコントローラ20で実行されるバックアップ要求受付処理202の一例を示すフローチャートで、コントローラ20がNAS1からバックアップ要求を受けたときに実行されるものである。
NAS2のコントローラ20は、NAS1のコントローラ10からファイルリストL1、L2とバックアップ要求を受け付けると、ファイルリストL1、L2をメモリ22またはディスク装置5、6の所定の領域に格納する。
まず、S21では、NAS1の障害を検知するバックアップ進捗監視処理204(後述)、を新たなスレッドとして起動する。
次に、S22において、NAS2の性能を測定するためにバックアップ開始時点である現在時刻T1を取得して記憶する。
S23では、NAS1から受信したファイルリストL2から、1レコードを読み込んで、バックアップ対象のファイル名、ディレクトリパス及びファイルサイズを取得する。
次に、S24でファイルリストL2がEOF(END OF FILE)でなければ、S25に進んで、S23で取得したファイル名及びディレクトリパスに基づいて、NAS1のディスク装置3から該当するファイルを読み込む。
S26では、バックアップ装置9に対して読み込んだファイルを転送し、バックアップを要求する。
S27では、S26で転送を終了したファイルサイズをメモリ22の所定の領域に加算する。
次に、S283では、共有論理ディスク7のカウンタBを減算する。つまり、S26でバックアップを要求したファイル数を減算しておく。後述するように、NAS1は共有論理ディスク7のカウンタBを参照することで、NAS2のバックアップの進捗状況を把握でき、NAS1が保持するファイルリストL1、L2とカウンタBから、NAS2がバックアップするべきファイルを特定することができる。
以上のS23〜S28を、ファイルリストL2の最後まで行ってバックアップが完了すると、S24からS29に進み、バックアップが完了した現在の時刻T2を取得する。
S30では、上記S22とS29で取得したバックアップの開始時刻T1と、バックアップの完了時刻T2の差からバックアップに要した処理時間ΔT2を求めるととともに、上記S27で積算した総ファイルサイズ及び、バックアップが完了した日時を含むログ情報LogBを共有論理ディスク7に出力してNAS2のバックアップを終了する。同時に、上記S21で起動したNAS1を監視するスレッド(バックアップ進捗監視処理204)を終了させる。また、所定の領域に格納したファイルサイズをリセットし、次回の処理に備える。
なお、ログ情報LogBは、上記ログ情報LogAと同様に、例えば、図8で示すように、バックアップ完了日時、処理時間ΔT2、ファイルサイズを1レコードとするファイルで構成される。
<バックアップ対象リスト出力処理>
次に、上記図3のS3で行われるバックアップ対象リスト出力処理について、図5のサブルーチンを参照しながら説明する。
S41では、NAS1のコントローラ10が共有論理ディスク7から前回のログ情報LogAとログ情報LogBを取得する。
S42では、ログ情報LogA、BからNAS1、2がバックアップに要した処理時間ΔT1、ΔT2と総ファイルサイズから単位時間あたりのバックアップ速度(MB/secまたはGB/min)をそれぞれ算出し、NAS1のバックアップ速度をV1として出力し、NAS2のバックアップ速度をV2として出力する。
次に、S43では、NAS1、2のバックアップ速度V1、V2から、NAS1がバックアップするファイルサイズの按分比r1を、
按分比r1=V1/(V1+V2)
より算出する。
次に、S44では、NAS2がバックアップするファイルサイズの按分比r2を、
按分比r2=1−r1
または
按分比r1=V1/(V1+V2)
より算出する。
S45では、管理用クライアントコンピュータ8から受け付けたバックアップ要求のディレクトリパスまたはファイルを取得し、ディスク装置3のディレクトリパス下の全ファイルを検索し、各ファイルのファイルサイズからバックアップする全ファイル容量を算出する。
S46では、バックアップ対象のディレクトリパスで取得したファイルリストについて、ファイル容量の大きい順でソートを行い、S47にてテンポラリファイルリストLtを作成する。ここで、テンポラリファイルリストLtは図9(A)のようになる。
次に、S48では、作成したテンポラリファイルリストLtの容量の上位から、全容量×NAS1の按分比r1に達するまで、ファイルを抽出して、S49では抽出したファイル名及びサイズを、図9(B)で示すように、NAS1のバックアップ対象であるファイルリストL1として作成する。
次に、S50ではテンポラリファイルリストLtからS48で抽出したファイルを差し引いたものを、図9(C)で示すように、NAS2のバックアップ対象であるファイルリストL2として作成する。
以上のサブルーチンにより、前回のバックアップ処理におけるログ情報(バックアップ処理にかかった時間、バックアップ容量)から各NAS1、2の性能情報(バックアップ速度)を算出し、この性能情報を用いて各NASのバックアップ処理時間が均等になるようにバックアップ対象ファイルを按分することで、NAS1とNAS2のバックアップに要する時間が極端にかけ離れるのを防ぎ、全体のバックアップ時間が短くなるようにNAS1とNAS2に割り当てるバックアップ容量を設定できる。なお、本発明では、複数のNASが並列的にバックアップを実行するので、全体のバックアップ時間は、最も処理時間の長いNASの処理時間となる。
また、直近のNASの性能情報を取得することで、各NASのディスク装置の状態(フラグメンテーションの発生状態など)に応じた按分比を決定することができ、全体のバックアップ時間を最短にすることができる。
<NAS1のバックアップ進捗監視処理104>
次に、上記図3のS7で起動されるNAS2に対するバックアップ進捗監視の処理について図6のフローチャートを参照しながら詳述する。
まず、S51では共有論理ディスク7からカウンタBの値を変数CNT1に読み込んで、NAS2がバックアップすべき残りのファイル数を取得する。
次に、S52では、カウンタBの変化を監視するため現在時刻をTime1として取り込む。
S53では、共有論理ディスク7からカウンタBの値を変数CNT2に読み込み、S54では現在時刻をTime2として取り込む。
S55では、上記S53でセットした変数CNT2の値が0であるかを判定し、0であればNAS2のカウンタBは0となって、バックアップすべきファイル数=0であるので、S61に進んでNAS2のバックアップが完了したことを判定して処理を終了する。
一方、変数CNT2の値が0でない場合には、S56に進んで変数CNT1と変数CNT2が同値であるかを判定する。同値でなければNAS2のバックアップの進行に応じてカウンタBが減算されているので、NAS2は正常に稼動していると判定してS51に戻る。
一方、変数CNT1=変数CNT2の場合は、NAS2のバックアップが進行していない可能性があるので、S57に進んで、S54で取得した時刻Time2とS51で取得した時刻Time1の差分Time3を求め、S58にて差分Time3が予め設定した時間Tdawnを超えたか否かを判定する。
このS58の判定で、差分Time1が所定時間Tdawnを超えていなければ、NAS2は正常にi稼動している可能性(処理が重いなど)があるので、S53へ戻って再度カウンタBと時刻Time2の取得を行う。
一方、S58の判定でカウンタBに変化がない時間Time3が所定時間Tdawnを越えた場合には、S59に進んでNAS2に障害が発生したと判定する。
そして、S60に進んでNAS2に代わってNAS1がファイルリストL2の内容を、カウンタBの値からバックアップするように設定して処理を終了する。なお、この設定は、フラグなどをセットしておき、上記図3のバックアップ要求受付処理が終了した時点等で、このフラグをチェックして、フラグがONであればコントローラ10が保持しているファイルリストL2についてカウンタBの値からバックアップを再開すればよい。
上記図6の処理により、NAS1のコントローラ10は、共有論理ディスク7のカウンタBの変化を監視することで、NAS2のバックアップが完了するまで障害発生を検知できる。そして、バックアップ対象のファイルがNAS1の制御下にあるディスク装置3の場合、NAS2に障害が発生しても、NAS1はNAS2のフェイルオーバを待つことなく、自らの制御下にあるディスク装置3の内容をバックアップすることができる。
<NAS2のバックアップ進捗監視処理204>
次に、上記図4のS21で起動されるNAS1に対するバックアップ進捗監視の処理について図7のフローチャートを参照しながら詳述する。
まず、S71では共有論理ディスク7からカウンタAの値を変数CNT1に読み込んで、NAS1がバックアップすべき残りのファイル数を取得する。
次に、S72では、カウンタAの変化を監視するため現在時刻をTime1として取り込む。
S73では、共有論理ディスク7からカウンタAの値を変数CNT2に読み込み、S74では現在時刻をTime2として取り込む。
S75では、上記S73でセットした変数CNT2の値が0であるかを判定し、0であればNAS1のカウンタAは0となって、バックアップすべきファイル数=0であるので、S82に進んでNAS1のバックアップが完了したことを判定して処理を終了する。
一方、変数CNT2の値が0でない場合には、S76に進んで変数CNT1と変数CNT2が同値であるかを判定する。同値でなければNAS1のバックアップの進行に応じてカウンタAが減算されているので、NAS1は正常に稼動していると判定してS71に戻る。
一方、変数CNT1=変数CNT2の場合は、NAS1のバックアップが進行していない可能性があるので、S77に進んで、S74で取得した時刻Time2とS71で取得した時刻Time1の差分Time3を求め、S78にて差分Time3が予め設定した時間Tdawnを超えたか否かを判定する。
このS78の判定で、差分Time1が所定時間Tdawnを超えていなければ、NAS1が正常に稼動している可能性(処理が重いなど)があるので、S73へ戻って再度カウンタAと時刻Time2の取得を行う。
一方、S78の判定でカウンタAに変化がない時間Time3が所定時間Tdawnを越えた場合には、S79に進んでNAS1に障害が発生したと判定する。
そして、S80に進んでNAS1のフェイルオーバ処理が終了するのを監視して、この処理が完了した後にS81へ進む。
NAS2はNAS1のクライアントとしてNAS1のディスク装置3にアクセスしているため、NAS1のフェイルオーバ処理が終了するまでは、ディスク装置3をNAS2にマウントすることができない。このため、NAS1のフェイルオーバ処理が終了するのを待つ必要がある。なお、フェイルオーバ処理の監視は、上記したようにハートビートの検出などによりコントローラ20がNAS1に問い合わせるか、ログ情報などを参照してNAS1のフェイルオーバ処理105が完了したか否かを検出する。
S81では、NAS1のディスク装置3をNAS2にマウントするとともに、NAS1に代わってNAS2がファイルリストL1の内容を、カウンタAの値からバックアップするように設定して処理を終了する。なお、この設定は、フラグなどをセットしておき、上記図4のバックアップ要求受付処理が終了した時点等で、このフラグをチェックして、フラグがONであればコントローラ20が保持しているNAS1のファイルリストL1について、カウンタAの値からバックアップを再開すればよい。
上記図7の処理により、NAS2のコントローラ20は、NAS1のバックアップが完了するまで監視を継続して、共有論理ディスク7のカウンタBに変化がなくなって所定時間Tdawnを経過すると、NAS1に障害が発生したと判定し、NAS1に代わってNAS2でファイルリストL1のバックアップを継続することができる。
上記NAS1とNAS2による並列的なバックアップの全体的な作用について、図10を参照しながら説明する。
管理用クライアントコンピュータ8からNASクラスタ1Aに対してバックアップ要求があると、NASクラスタ1AのホストであるNAS1が要求を受け付ける(S100)。
NAS1は、上記図5に示した手順で、NAS1とNAS2の性能に応じて、NAS1がバックアップするファイルリストL1と、NAS2がバックアップするファイルリストL2を作成し、NAS2にも送信する(S101)。そして、各ファイルリストL1、L2のファイル数に対応したカウンタA、Bを共有論理ディスク7にセットする(S102)。
NAS1は、ファイルリストL1に従ってバックアップ装置9へバックアップを行い(S103)、バックアップしたファイル数を順次カウンタAから減算する(S103’)。以降、NAS1は、S103とS103’を繰り返してバックアップを行う。
NAS2は、ファイルリストL2に従ってバックアップ装置9へバックアップを行い(S104)、バックアップしたファイル数を順次カウンタBから減算する(S104’)。以降、NAS2は、S104とS104’を繰り返してバックアップを行う。
したがって、バックアップ対象のディスク装置3のファイルは、2つのNAS1、2によって並列的にバックアップが行われるので、極めて高速にバックアップを実行することが可能となる。
この間、NAS1は、共有論理ディスク7のカウンタBを参照し、NAS2の障害を検知する(S105)。同様にNAS2は共有論理ディスク7のカウンタAを参照して、NAS1の障害を検知する(S106)。
ここで、NAS2がNAS1の障害を検知した場合(S107)、NAS2はフェイルオーバ処理が完了するのを待って、NAS1のバックアップ作業を引き継ぐ。
すなわち、S101で指定されたファイルリストL2のバックアップ処理が完了すると(S108)、NAS2は、NAS1のディスク装置3をマウントして、ファイルリストL1のファイルから、カウンタAの値に対応するファイルよりバックアップを再開する(S109)。こうして、NAS1に障害が発生した場合には、フェイルオーバ処理の後にNAS2がNAS1のバックアップ処理を引き継ぐことができ、この処理が完了すると(S110)、NAS2はNAS1に代わって管理用クライアントコンピュータ8にバックアップが完了したことを通知する(S111)。なお、この通知にNAS1の障害発生を含めても良い。
以上のように、本発明ではNAS1のディスク装置3の内容を、NAS1とNAS2が並列的にバックアップを行うことで、NAS1単体のバックアップに比して高速なバックアップ処理を行うことが可能になる。そして、いずれか一方に障害が発生しても、共有論理ディスク7のカウンタA、Bを相互に参照することで、一方の障害発生を確実に検知することができる。
そして、NAS1、2はともにバックアップに必要なファイルリストL1、L2を保持し、実行した結果は共有論理ディスク7のカウンタに書き込んであるので、一方に障害が発生したとしても、他方が確実にバックアップ作業を引き継ぐことが可能となって、信頼性を確保しながらバックアップ速度の大幅な向上を図ることができるのである。
また、NAS1とNAS2のバックアップ対象ファイルの割り当ては、NAS1とNAS2の性能(バックアップ速度)に応じて決定するようにしたので、2つのNASのバックアップに要する時間をほぼ等しくすることが可能となり、全体のバックアップ時間を最短にすることが可能となるのである。
<第2の実施形態>
図11は、第2の実施形態を示し、前記第1実施形態のNASクラスタ1Aを、NAS1、NAS2及びNAS30の3つから構成した場合のタイムチャートを示す。
NAS30の構成はNAS2と同様であり、共有論理ディスク7には、NAS30のカウンタCとログ情報LogCが前記第1実施形態と同様に格納される。
NAS1は管理用クライアントコンピュータ8からバックアップ要求を受けると、共有論理ディスク7上のログ情報LogA〜Cを読み込んで、NAS1、NAS2及びNAS30の性能に応じてバックアップ速度のファイルリストL1、L2、L3を作成し、NAS2とNAS30に配布する(S101’)。これに伴って、各ファイルリストL1、L2、L3のファイル数に応じて、共有論理ディスク7にカウンタA〜Cをセットする(S102’)。
NAS1は、ファイルリストL1に従ってバックアップ装置9へバックアップを行い(S103)、バックアップしたファイル数を順次カウンタAから減算する(S103’)。以降、NAS1は、S103とS103’を繰り返してバックアップを行う。
NAS2は、ファイルリストL2に従ってバックアップ装置9へバックアップを行い(S104)、バックアップしたファイル数を順次カウンタBから減算する(S104’)。以降、NAS2は、S104とS104’を繰り返してバックアップを行う。
NAS30は、ファイルリストL3に従ってバックアップ装置9へバックアップを行い(S123)、バックアップしたファイル数を順次カウンタCから減算する(S123’)。以降、NAS30は、S123とS123’を繰り返してバックアップを行う。
したがって、バックアップ対象のディスク装置3のファイルは、3つのNAS1、2、30によって並列的にバックアップが行われるので、さらに高速にバックアップを実行することが可能となる。
この間、NAS1は、共有論理ディスク7のカウンタB、Cを参照し、NAS2、NAS30の障害を検知する(S105’)。同様にNAS2は共有論理ディスク7のカウンタA、Cを参照して、NAS1とNAS30の障害を検知する(S106’)。同様にNAS30は共有論理ディスク7のカウンタA、Bを参照して、NAS1とNAS2の障害を検知する(S124)。
ここで、NAS2がNAS1の障害を検知した場合(S107)、NAS2はフェイルオーバ処理が完了するのを待って、NAS1のバックアップ作業を引き継ぐ。ここでは、NAS1に代わって、NAS2がホストとなり、NAS30がNAS2のクライアントに変更されたものとする。
このとき、障害が発生したNAS1のバックアップ作業を、NAS2とNAS30で引き継ぐため、カウンタAとファイルリストL1に基づいて、NAS2は残りのファイルリストL1を、NAS2とNAS30の性能に応じて上記図5と同様の処理にて再配分し、ファイルリストL1aをNAS2の処理として生成し、ファイルリストL1bをNAS30の処理として生成し、これら新たなファイルリストL1a、L1bをNAS30に配布する(S125)。このとき、新たなファイルリストL1a、L1bに対応するカウンタA1、A2を共有論理ディスク7に設定し、NAS2とNAS30は新たなカウンタによりファイルリストL1a、L1bのバックアップ処理中の障害検出を行う(S125’)。
すなわち、NAS2は、S101で指定されたファイルリストL2のバックアップ処理が完了すると(S108)、NAS2は、ファイルリストL1aのファイルからバックアップを再開する(S109)。
同様に、NAS30は、S101で指定されたファイルリストL3のバックアップ処理が完了すると(S126)、NAS30は、ファイルリストL1bのファイルからバックアップを再開する(S127)。
この処理においても、上記と同様にバックアップ装置9へバックアップ要求を行う度に、NAS2はカウンタA1をバックアップしたファイル数ずつ減算し、NAS30はカウンタA2をバックアップしたファイル数ずつ減算していく。
NAS1の残りのバックアップを処理している期間は、NAS2は共有論理ディスク7のカウンタA2を参照してNAS30の障害を監視し(S125’)、NAS30は共有論理ディスク7のカウンタA1を参照してNAS2の障害を監視し(S126’)。
S110でNAS2がファイルリストL1aに関するバックアップが完了し、カウンタA1を減算して0にする。同様に、S128では、NAS30がファイルリストL1bに関するバックアップが完了し、カウンタA2を減算して0にする。
NAS2はカウンタA2を監視しているので、カウンタA2が0になったことからNAS30のバックアップが完了したことを検知し(S129)、管理用クライアントコンピュータ8にバックアップが完了したことをNAS1に代わって通知する(S111)。
こうして、一つのNASのディスク装置3のファイルを、多数のNASで並列的にバックアップを行うことで、全体的なバックアップ速度を飛躍的に向上させることができる。加えて、各NASは共有論理ディスク7のカウンタを相互に参照して、互いの障害を検知し、障害が発生した場合には残りのファイルについて再配分するので、一つのNASに障害が発生した場合であっても、単一のNASでバックアップを行う場合に比して高速にバックアップを実行することが可能となるのである。
このように、NASクラスタ1Aを多数のNASで構成した場合には、一つのNASに障害が発生しても、残りの複数のNASで並列的にバックアップを行うことができるので、速度の向上と信頼性の確保を両立できる。
<変形例>
上記各実施形態において、バックアップ装置9をランダムアクセス可能な光ディスク装置で構成することにより、複数のNASからの書き込み要求に応答することができ、テープ装置などのシーケンシャルに格納する装置に比して、バックアップ速度を向上させることが可能となる。
上記実施形態においては、管理用クライアントコンピュータ8から要求のあったバックアップ対象のファイルをNAS1とNAS2に振り分けるのに際し、ファイルサイズの大きい順にソートを行って、NAS1の按分比r1×全ファイル容量になるまでのファイルを、NAS1がバックアップすべきファイルリストL1に抽出したが、テンポラリファイルリストLtの容量の上位から、NAS1とNAS2へ交互に振り分けるようにしても良い。あるいは、NASが3つの場合では、NAS1、NAS2、NAS30の順で、順番に振り分けるようにしても良い。
また、上記実施形態においては、共有論理ディスク7にファイルシステムを構築し、カウンタA〜C及びログ情報LogA〜Cをファイルとして格納しても良いし、ブロック単位のアクセスとして、カウンタA〜C及びログ情報LogA〜Cを所定のブロックに格納しても良い。
また、上記実施形態においては、相互に障害発生を監視する際に、周期的にカウンタA〜Cにアクセスする例を示したが、各NASのバックアップ速度とバックアップ対象の総ファイルサイズから、バックアップ完了予定時刻を推定し、この推定した時刻にカウンタA〜Cを参照するようにしても良い。この場合、複数のNASが頻繁に共有論理ディスク7にアクセスするのを防いで、各NASの処理負荷を低減することができ、負荷を低減した分だけバックアップ速度の向上を図ることができる。
また、上記実施形態においては、前回のログ情報LogA〜C相に基づいて各NASのバックアップ速度(性能情報)を求めたが、NASに接続された各ディスク装置の性能及びコントローラの処理速度などに基づいて、各NASの性能情報を予め設定しておき、この性能情報に基づいてバックアップ対象のファイルを按分しても良い。
また、上記実施形態においては、各NASがバックアップすべきファイルを指示するファイルリストL1、L2を保持する一例を示したが、共有論理ディスク7にこれらファイルリストL1、L2を格納し、各NASが共有論理ディスク7から該当するファイルリストを読み込むようにしても良い。
システムの全体的な構成を示すブロック図。 各NASのコントローラで実行されるソフトウェア構成を示すロック図。 NAS1のコントローラで実行されるバックアップ要求処理の一例を示すフローチャート。 NAS2のコントローラで実行されるバックアップ要求処理の一例を示すフローチャート。 NAS1のバックアップ要求処理で実行されるバックアップ対象リスト生成処理のサブルーチンを示すフローチャート。 NAS1のコントローラで実行されるNAS2の進捗監視処理の一例を示すフローチャート。 NAS2のコントローラで実行されるNAS1の進捗監視処理の一例を示すフローチャート。 ログ情報の一例を示す説明図。 テンポラリファイルリストからバックアップ対象リストを生成する説明図で、(A)はテンポラリファイルリストを、(B)はNAS1のファイルリストL1を、(C)はNAS2のファイルリストL2を示す。 並列バックアップとNAS1に障害が発生した場合の引き継ぎ処理を示すタイムチャート。 第2の実施形態を示し、3つのNASによる並列バックアップとNAS1に障害が発生した場合の引き継ぎ処理を示すタイムチャート。
符号の説明
1、2 NAS
3、4、5、6 ディスク装置
7 共有論理ディスク
8 管理用クライアントコンピュータ
9 バックアップ装置
10、20 コントローラ

Claims (20)

  1. クライアントコンピュータからのバックアップ要求に応じて、複数のNASのうち所定のNASに格納されたファイルを、バックアップ装置に対してバックアップの要求を行うバックアップ方法であって、
    前記複数のNASのうち前記クライアントコンピュータからのバックアップ要求を受信したNASが、当該バックアップ要求に基づいて、バックアップ対象のファイルを選択する手順と、
    前記バックアップ要求を受信したNASが、前記選択したバックアップ対象のファイルを、前記複数のNASにそれぞれ割り当てる手順と、
    前記割り当てられたファイルについて、各NASが前記バックアップ装置に対して並列的にバックアップを要求する手順と、
    を含むことを特徴とするバックアップ方法。
  2. 前記バックアップ対象のファイルを前記複数のNASにそれぞれ割り当てる手順は、
    前記各NASのバックアップ開始から完了までの時間が等しくなるように、前記選択したバックアップ対象のファイルを、各NASに割り当てる手順と、
    を含むことを特徴とする請求項1に記載のバックアップ方法。
  3. 前記バックアップ対象のファイルを前記複数のNASにそれぞれ割り当てる手順は、
    前記NASの性能情報をそれぞれ取得する手順と、
    前記取得した性能情報に基づいて各NASの按分比を決定する手順と、
    前記選択したバックアップ対象のファイルから前記按分比に応じて、各NASのバックアップ対象のファイルを振り分ける手順と、
    を含むことを特徴とする請求項2に記載のバックアップ方法。
  4. 前記複数のNASを相互に監視して、障害の発生を検知する手順と、
    前記障害発生を検知したときには、障害が発生したNASのバックアップ対象のファイルのうち、障害発生時点以降のバックアップ対象ファイルについて他のNASへ引き継ぐ手順と、
    前記引き継いだバックアップ対象のファイルについて、前記他のNASからバックアップ装置に対してバックアップ要求を行う手順と、
    を含むことを特徴とする請求項1に記載のバックアップ方法。
  5. 前記複数のNASを相互に監視して、障害の発生を検知する手順は、
    前記NASにそれぞれ対応するカウンタを設定する手順と、
    前記バックアップ装置に対してバックアップを要求するたびに、バックアップ要求を行ったファイルの数に応じて前記カウンタを更新する手順と、
    前記カウンタの値の変化を検出する手順と、
    前記カウンタが所定時間を超えて変化がないときには、このカウンタに対応するNASに障害が発生したと判定する手順と、
    を含むことを特徴とする請求項4に記載のバックアップ方法。
  6. 前記カウンタは、前記複数のNASで相互に参照または更新可能な共有領域に設定されたことを特徴とする請求項5に記載のバックアップ方法。
  7. 前記複数のNASはNASクラスタを構成し、
    前記選択したバックアップ対象のファイルを、前記複数のNASにそれぞれ割り当てたファイルリストを生成する手順と、
    前記各NASのファイルリストを、NASクラスタ内の全てのNASに通知する手順を含み、
    前記障害が発生したNASのバックアップ対象のファイルを、他のNASに引き継ぐ手順は、前記障害が発生したNASのファイルリストを、他のNASに送付してバックアップさせることを特徴とする請求項4に記載のバックアップ方法。
  8. 前記障害が発生したNASのバックアップ対象ファイルを引き継ぐNASが複数あるときには、これらNASの性能情報を取得する手順と、
    前記性能情報に基づいて、障害が発生したNASを除く各NASの按分比を決定する手順と、
    前記障害が発生したNASのバックアップ対象のファイルリストから前記按分比に応じて、障害発生時点以降のファイルについて各NASに割り当てた新たなファイルリストを生成する手順と、
    前記障害が発生したNASを除く各NASに、前記新たなファイルリストを送付する手順と、
    を含むことを特徴とする請求項7に記載のバックアップ方法。
  9. ファイルを格納する複数のNASと、
    クライアントコンピュータからのバックアップ要求を受け付けるバックアップ要求受付部と、
    前記バックアップ要求に応じて、前記NASからファイルを選択するバックアップ対象選択部と、
    前記選択したファイルについて、バックアップ装置に対してバックアップの要求を行うバックアップ実行部と、
    を備えたNASの制御装置であって、
    前記選択したバックアップ対象のファイルを、前記複数のNASにそれぞれ割り当てるバックアップ対象分割部と、
    前記割り当てられたファイルに基づいて、各NASが前記バックアップ装置に対して並列的にバックアップを行うように指令するバックアップ司令部と、
    を備えたことを特徴とするNASの制御装置。
  10. 前記バックアップ対象分割部は、
    前記各NASのバックアップ開始から完了までの時間が等しくなるように、前記選択したバックアップ対象のファイルを、各NASに割り当てることを特徴とする請求項9に記載のNASの制御装置。
  11. 前記バックアップ対象分割部は、
    前記NASの性能情報をそれぞれ取得する性能情報取得部と、
    前記取得した性能情報に基づいて各NASに割り当てるファイルの按分比を決定する按分比決定部と、を有し、
    前記選択したバックアップ対象のファイルから前記按分比に応じて、各NASのバックアップ対象となるファイルを振り分けることを特徴とする請求項10に記載のNASの制御装置。
  12. 前記他のNASを相互に監視して障害の発生を検知する障害発生検知部と、
    前記障害発生を検知したときには、障害が発生したNASのバックアップ対象ファイルのうち、障害発生時点以降のバックアップ対象ファイルについて他のNASへ引き継ぐ代行バックアップ部と、を備えたことを特徴とする請求項9に記載のNASの制御装置。
  13. 前記障害発生検知部は、
    前記各NAS毎に設定されて、バックアップ要求を行ったファイルの数をNAS毎に更新するカウンタと、
    前記カウンタの値の変化を検出するカウンタ値検出部と、
    前記カウンタの値が所定時間を超えて変化がないときには、このカウンタに対応するNASに障害が発生したと判定することを特徴とする請求項12に記載のNASの制御装置。
  14. 前記複数のNASのいずれかには、前記複数のNASが相互に参照または更新可能な共有領域が設定され、
    前記カウンタは前記共有領域に設定されたことを特徴とする請求項13に記載のNASの制御装置。
  15. 前記複数のNASはNASクラスタを構成し、
    前記代行バックアップ部は、前記選択したバックアップ対象のファイルを、前記複数のNAS毎にそれぞれ割り当てたファイルリストをバックアップ開始時に生成するファイルリスト生成部と、
    前記各NASのファイルリストを、前記NASクラスタ内の全てのNASに通知する通知部と、
    前記障害が発生した時点以降のファイルリストに基づいて、前記他のNASでバックアップを継続するバックアップ継続部と、
    を有することを特徴とする請求項12に記載のNASの制御装置。
  16. 前記代行バックアップ部は、
    前記バックアップを引き継ぐNASの性能情報を取得して、前記性能情報に基づいて障害が発生したNASを除く各NASの按分比を決定する再配分用按分比決定部と、
    前記障害が発生したNASのバックアップ対象のファイルリストから前記按分比に応じて、障害発生時点以降のファイルについて各NASに割り当てた新たなファイルリストを生成する再配分リスト生成部と、
    前記障害が発生したNASを除く各NASに、前記新たなファイルリストを送付する再配分リスト通知部と、
    を含むことを特徴とする請求項15に記載のNASの制御装置。
  17. クライアントコンピュータからのバックアップ要求に応じて、複数のNASのうち所定のNASに格納されたファイルを、バックアップ装置に対してバックアップの要求を行うプログラムであって、
    前記複数のNASのうち前記クライアントコンピュータからのバックアップ要求を受信したNASが、当該バックアップ要求に基づいて、バックアップ対象のファイルを選択する処理と、
    前記バックアップ要求を受信したNASが、前記選択したバックアップ対象のファイルを、前記複数のNASにそれぞれ割り当てる処理と、
    前記割り当てられたファイルについて、各NASが前記バックアップ装置に対して並列的にバックアップを要求する処理と、
    前記バックアップ要求を受信したNASに機能させることを特徴とするプログラム。
  18. 前記バックアップ対象のファイルを前記複数のNASにそれぞれ割り当てる処理は、
    前記NASの性能情報をそれぞれ取得する処理と、
    前記取得した性能情報に基づいて各NASの按分比を決定する処理と、
    前記選択したバックアップ対象のファイルから前記按分比に応じて、各NASのバックアップ対象のファイルを振り分ける処理と、
    を含むことを特徴とする請求項17に記載のプログラム。
  19. 前記複数のNASを相互に監視して、障害の発生を検知する処理と、
    前記障害発生を検知したときには、障害が発生したNASのバックアップ対象のファイルのうち、障害発生時点以降のバックアップ対象ファイルについて他のNASへ引き継ぐ処理と、
    前記引き継いだバックアップ対象のファイルについて、前記他のNASからバックアップ装置に対してバックアップ要求を行う処理と、
    を含むことを特徴とする請求項17に記載のプログラム
  20. ファイルを格納する第1及び第2のNASと、
    前記第1のNASに配設されてクライアントコンピュータからのバックアップ要求を受け付けるバックアップ要求受付部と、
    前記バックアップ要求に応じて、前記第1のNASまたは第2のNASからファイルを選択するバックアップ対象選択部と、
    前記選択したバックアップ対象のファイルを、前記第1及び第2のNASにそれぞれ割り当てるバックアップ対象分割部と、
    前記割り当てられたファイルに基づいて、第1及び第2のNASから前記バックアップ装置に対して並列的にバックアップを行うバックアップ実行部と、
    を備えたことを特徴とするNASシステム。
JP2004089305A 2004-03-25 2004-03-25 Nasの制御装置及びバックアップ方法並びにプログラム Expired - Lifetime JP3909062B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004089305A JP3909062B2 (ja) 2004-03-25 2004-03-25 Nasの制御装置及びバックアップ方法並びにプログラム
US10/892,293 US7100077B2 (en) 2004-03-25 2004-07-16 Control system of NAS, backup method, and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004089305A JP3909062B2 (ja) 2004-03-25 2004-03-25 Nasの制御装置及びバックアップ方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2005275893A JP2005275893A (ja) 2005-10-06
JP3909062B2 true JP3909062B2 (ja) 2007-04-25

Family

ID=35055776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004089305A Expired - Lifetime JP3909062B2 (ja) 2004-03-25 2004-03-25 Nasの制御装置及びバックアップ方法並びにプログラム

Country Status (2)

Country Link
US (1) US7100077B2 (ja)
JP (1) JP3909062B2 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3778171B2 (ja) * 2003-02-20 2006-05-24 日本電気株式会社 ディスクアレイ装置
US7328366B2 (en) * 2003-06-06 2008-02-05 Cascade Basic Research Corp. Method and system for reciprocal data backup
CN100426248C (zh) * 2005-06-03 2008-10-15 鸿富锦精密工业(深圳)有限公司 网络附加存储设备测试系统及方法
US8326990B1 (en) * 2005-07-15 2012-12-04 Symantec Operating Corporation Automated optimal workload balancing during failover in share-nothing database systems
US20070214384A1 (en) * 2006-03-07 2007-09-13 Manabu Kitamura Method for backing up data in a clustered file system
US7526668B2 (en) * 2006-06-08 2009-04-28 Hitachi, Ltd. Failover method of remotely-mirrored clustered file servers
JP2007334764A (ja) * 2006-06-16 2007-12-27 Hitachi Ltd Nasシステムおよびnasシステムの情報処理方法
US7913105B1 (en) * 2006-09-29 2011-03-22 Symantec Operating Corporation High availability cluster with notification of resource state changes
JP4985033B2 (ja) * 2007-03-29 2012-07-25 富士通株式会社 バックアッププログラム、バックアップ方法およびバックアップ装置
US7793140B2 (en) * 2007-10-15 2010-09-07 International Business Machines Corporation Method and system for handling failover in a distributed environment that uses session affinity
JP4764472B2 (ja) * 2008-12-02 2011-09-07 株式会社日立製作所 データベース管理方法、データベース管理プログラム、および、データベース管理装置
US9454444B1 (en) 2009-03-19 2016-09-27 Veritas Technologies Llc Using location tracking of cluster nodes to avoid single points of failure
US8458515B1 (en) 2009-11-16 2013-06-04 Symantec Corporation Raid5 recovery in a high availability object based file system
US8495323B1 (en) 2010-12-07 2013-07-23 Symantec Corporation Method and system of providing exclusive and secure access to virtual storage objects in a virtual machine cluster
JP5935439B2 (ja) * 2012-03-28 2016-06-15 日本電気株式会社 フォールトトレラントサーバにおけるバックアップ方法
US9009525B1 (en) 2012-06-07 2015-04-14 Western Digital Technologies, Inc. Methods and systems for NAS device pairing and mirroring
JP6187053B2 (ja) * 2012-09-18 2017-08-30 株式会社リコー 情報処理システム、情報処理装置およびプログラム
JP6273903B2 (ja) * 2013-03-15 2018-02-07 株式会社リコー 情報処理システム、情報処理方法およびプログラム
US10574745B2 (en) 2015-03-31 2020-02-25 Western Digital Technologies, Inc. Syncing with a local paired device to obtain data from a remote server using point-to-point communication
US11663086B2 (en) * 2020-10-15 2023-05-30 EMC IP Holding Company LLC File system slicing in network attached storage for data protection
US11886751B2 (en) 2020-10-15 2024-01-30 EMC IP Holding Company LLC Intelligent block slicing in network attached storage for data protection
US11809281B2 (en) * 2021-04-20 2023-11-07 EMC IP Holding Company LLC Metadata management for scaled and high density backup environments
CN113986621B (zh) * 2021-12-29 2022-03-25 深圳市科力锐科技有限公司 数据备份性能的优化方法、装置、设备及存储介质
US11836350B1 (en) 2022-07-25 2023-12-05 Dell Products L.P. Method and system for grouping data slices based on data file quantities for data slice backup generation

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6154852A (en) 1998-06-10 2000-11-28 International Business Machines Corporation Method and apparatus for data backup and recovery
JP2000353104A (ja) 1999-06-10 2000-12-19 Nec Soft Ltd データバックアップ方式及びその方法
US6658589B1 (en) 1999-12-20 2003-12-02 Emc Corporation System and method for backup a parallel server data storage system
US6834326B1 (en) * 2000-02-04 2004-12-21 3Com Corporation RAID method and device with network protocol between controller and storage devices
US7062648B2 (en) * 2000-02-18 2006-06-13 Avamar Technologies, Inc. System and method for redundant array network storage
US6957291B2 (en) * 2001-03-29 2005-10-18 Quantum Corporation Removable disk storage array emulating tape library having backup and archive capability
US6728848B2 (en) 2001-06-11 2004-04-27 Hitachi, Ltd. Method and system for backing up storage system data
US20030079018A1 (en) * 2001-09-28 2003-04-24 Lolayekar Santosh C. Load balancing in a storage network
JP3964212B2 (ja) * 2002-01-16 2007-08-22 株式会社日立製作所 記憶装置システム
JP2004046435A (ja) * 2002-07-10 2004-02-12 Hitachi Ltd バックアップ方法、その方法に用いた記憶制御装置
US7117324B2 (en) 2002-10-18 2006-10-03 International Business Machines Corporation Simultaneous data backup in a computer system
JP4252301B2 (ja) 2002-12-26 2009-04-08 株式会社日立製作所 記憶システム及びそのデータバックアップ方法
JP2004213435A (ja) * 2003-01-07 2004-07-29 Hitachi Ltd 記憶装置システム
JP2004348193A (ja) 2003-05-20 2004-12-09 Hitachi Ltd 情報処理システムおよびそのバックアップ方法
US7225208B2 (en) * 2003-09-30 2007-05-29 Iron Mountain Incorporated Systems and methods for backing up data files
US7188273B2 (en) * 2003-11-24 2007-03-06 Tsx Inc. System and method for failover

Also Published As

Publication number Publication date
JP2005275893A (ja) 2005-10-06
US7100077B2 (en) 2006-08-29
US20050223278A1 (en) 2005-10-06

Similar Documents

Publication Publication Date Title
JP3909062B2 (ja) Nasの制御装置及びバックアップ方法並びにプログラム
US9251190B2 (en) System and method for sharing media in a computer network
JP4462969B2 (ja) フェイルオーバクラスタシステム及びフェイルオーバ方法
KR100987746B1 (ko) 작업 관리 장치, 클러스터 시스템 및 작업 관리 프로그램을기록한 컴퓨터 판독 가능한 기록 매체
JP6963168B2 (ja) 情報処理装置、メモリ制御方法およびメモリ制御プログラム
JP6434131B2 (ja) 分散処理システム、タスク処理方法、記憶媒体
JP2007279890A (ja) バックアップシステム及びバックアップ方法
US20080147836A1 (en) Systems and methods for facilitating storage operations using network attached storage devices
US20090172142A1 (en) System and method for adding a standby computer into clustered computer system
JP5948933B2 (ja) ジョブ継続管理装置、ジョブ継続管理方法、及び、ジョブ継続管理プログラム
KR101938501B1 (ko) 동적 부하 기반 병합
JP4920248B2 (ja) サーバの障害回復方法及びデータベースシステム
JP2007226400A (ja) 計算機管理方法、計算機管理プログラム、実行サーバの構成を管理する待機サーバ及び計算機システム
US11579992B2 (en) Methods and systems for rapid failure recovery for a distributed storage system
US10642697B2 (en) Implementing containers for a stateful application in a distributed computing system
WO2014080492A1 (ja) 計算機システム、クラスタ管理方法、及び管理計算機
US7849264B2 (en) Storage area management method for a storage system
JP2015001754A (ja) プログラム、情報処理システムおよびデータ更新制御方法
JP4813975B2 (ja) 無共有型データベースシステムの構成変更方法、管理サーバ及び無共有型データベースシステム
US10169157B2 (en) Efficient state tracking for clusters
JP2016071768A (ja) ストレージ制御装置およびストレージシステム
JP6277069B2 (ja) 仮想機器管理装置、仮想機器管理方法及び仮想機器管理プログラム
JP4520899B2 (ja) クラスタ制御方法、クラスタ制御プログラム、クラスタシステムおよび待機サーバ
US20060047686A1 (en) Apparatus, system, and method for suspending a request during file server serialization reinitialization
US20190212923A1 (en) Implementing An Interface To A High-Availability Storage System In A Distributed Computing System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061012

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20061012

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20061101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070119

R150 Certificate of patent or registration of utility model

Ref document number: 3909062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100126

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120126

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130126

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250