JP2012033169A - バックアップシステムにおける符号化を使用して、ライブチェックポインティング、同期、及び/又は復旧をサポートするための方法及び装置 - Google Patents
バックアップシステムにおける符号化を使用して、ライブチェックポインティング、同期、及び/又は復旧をサポートするための方法及び装置 Download PDFInfo
- Publication number
- JP2012033169A JP2012033169A JP2011167387A JP2011167387A JP2012033169A JP 2012033169 A JP2012033169 A JP 2012033169A JP 2011167387 A JP2011167387 A JP 2011167387A JP 2011167387 A JP2011167387 A JP 2011167387A JP 2012033169 A JP2012033169 A JP 2012033169A
- Authority
- JP
- Japan
- Prior art keywords
- encoded
- machines
- memory state
- memory
- backup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【解決手段】一実施形態では、複数のマシンのメモリ状態を1組の1つ又は複数のバックアップノード上に同期させるための方法は、事前に符号化された変更を1つ又は複数のバックアップノードの各々において受信するステップであって、事前に符号化された変更が、複数のマシンの各1つ又は複数についてのメモリ状態に対する変更を事前に符号化することによって生成されるステップと、複数のマシンの2つ以上にわたって、事前に符号化された変更を符号化することによって、符号化されたメモリ状態を生成するステップとを含む。
【選択図】図13
Description
[0001]本特許出願は、対応する、2010年7月29日に出願された「A Method to Provide Live Check−Pointing for Computer Systems Using Linear Coding」と題する特許仮出願第61/369028号、及び2010年7月29日に出願された「A Method to Minimize the Synchronization and Recovery Bandwidth of a Virtual Machine Back−Up System」と題する特許仮出願第61/369030号の優先権を主張し、これらの特許仮出願を参照することにより組み込む。
[0002]本発明は、物理マシン及び/又は仮想マシンを含む、バックアップストレージを使用するデータセンタ及びシステムの信頼性、並びにそれらの同期の分野に関し、より詳細には、本発明は、仮想ネットワーク、分散システムにおけるフォールトトレランス、及びインフラストラクチャ仮想化に関する。
[0003]信頼性は、今日のデータセンタの重要な特徴である。必要な信頼性を獲得するため、これらのデータセンタは、しばしばバックアップを使用する。既存の技術は、各サーバ専用のバックアップを有することによって、又はいくつかのバックアップをバックアップノードのより大量のメモリ上に多重化することによって、信頼性を提供する(例えば、REMUSは、各VMのレプリカのために十分なメモリを含むバックアップノード上の、いくつかのVMの信頼性を提供する)。
[0010]本発明の実施形態は、複数のライブ(すなわち実際に動作中の)マシンを1組のバックアップノード上に同期させる方法を含み、その結果、バックアップノードの数が削減される。一実施形態では、これは、ライブマシンにわたってメモリ状態を符号化し、線形独立な符号化を各バックアップノードに記憶することによって達成される。一般性を失うことなく、本開示の残りの部分は、もっぱら仮想マシンの観点から本発明を開示するが、本明細書で説明される技法は、仮想マシン及び物理マシンの両方に適用される。
[0019]本発明の実施形態は、複数のアクティブな物理マシン又は仮想マシン(本明細書ではプライマリノードと呼ばれる)の現在のメモリ状態を、同じ1組のバックアップノード(本明細書ではパリティノードと呼ばれる)上に同期させるための機構を提供する。一実施形態では、この同期は、プライマリノードのメモリ状態に対して実行された変更を複数のバックアップノードにストリーミングすることによって実行される。重要なことに、本発明の実施形態は、バックアップノードにおいて、いくつかのストリームが受信され、一緒に符号化されて、任意の目標信頼性レベル(すなわち故障から復旧する確率)でマシン故障からの復旧を可能にするのに必要なメモリ量を圧縮するという点で、ライブチェックポインティングにおける現在の最先端技術とは対照的である。
ここで、
は、ビット毎のXOR演算を表し、乗算は、線形独立な符号化を保証するために、十分に大きなガロア体、例えばGF(216)上で実行され、また、α値は、ファンデルモンド行列(又はバックアップノードにおけるプライマリイメージの線形結合)の係数である。
を計算し、すなわち、現在の値と新しい値の間のXORを計算する。したがって、VM1は、データを事前に符号化して、符号化されたデータ(メモリページデータ)を生成する。
上記の演算を展開した場合、これは以下の式と等価である。
言い換えると、古いエントリm(1,i)は、新しいエントリm’(1,i)によって置き換えられる。したがって、最終的な書き込みオペレーション
は、VM1においてコミットされた書き込みオペレーションと同期して、符号化値を正常に維持する。
[0026]1つ又は複数のVM故障が検出された場合、システムは、復旧ステージに入る。故障VMの数がKよりも、すなわちパリティノードの数よりも少ない場合、システムは、故障から正常に復旧することができる。故障復旧は、複数の方法で実行することができる。2つのそのような実施形態が、以下で開示される。
であり、ここで、Fは、故障VMの集合である。
[0036]本発明のいくつかの実施形態は、複数のバックアップノードが、複数のプライマリマシン(例えば、仮想マシン上でホストされ、REMUSに類似した機構によって同期が取られるサーバ)の符号化されたバックアップ状態を保持することを仮定する。本発明の実施形態は、バックアップ状態の符号化を、ネットワーク符号化の使用によってネットワークに分散させるための機構を含む。これは、バックアップノードにおける符号化処理を削減し、ネットワークにおける帯域幅利用を削減する。
[0042]以下の式は、バックアップノードにおける符号化方式の一実施形態を記述している。
ここで、s1...snは、それぞれプライマリノードS1...Snのメモリページの列ベクトルであり、b1...bkは、それぞれバックアップノードB1...Bkの符号化されたメモリページの列ベクトルであり、Gは、符号を生成する生成行列であり、
単位行列Iとファンデルモンド行列Vの連結を表す。Gの第(n+j)列は、メモリページs1...snがどのように符号化され、バックアップノードBjに記憶されるかを表す。一実施形態では、復号を効率的に行うことができるので、ファンデルモンド行列がここで選択される。別の実施形態では、コーシー行列を使用することができる。
[0044]プライマリノードSiをノードBj上で復旧する場合、その目標は、符号化されたデータ
を、Si内の元のメモリページであるsiに復号することである。それを行うため、残りのn−1個のプライマリノードは、それらのメモリページを、同期のために設計された同じネットワーク符号を使用して、バックアップノードBjに送信する。その後、ノードBjは、
に等しい符号化されたデータを受信する。
[0047]Sが、故障したVMのインデックス集合を表すとし、Bが、復旧を行うためのそれぞれのバックアップノードのインデックス集合を表すとする。一実施形態では、復旧は、2つのステージにおいて実行される。第1のステージは、上で説明された1つのプライマリノード故障から復旧する際のステージと同じである。正常に動作しているn−|S|個のプライマリノードは、同期のために設計された同じネットワーク符号を使用して、それぞれのメモリページをBに属するバックアップノードに送信し、その後、Bに属するバックアップノードは、受信した符号化されたデータとそれ自体の符号化されたデータとの間のXORを求める。その結果、各バックアップノードBjは、以下のような部分的に復号されたデータb□jを有するようになる。
[0048]上のものは、基本的に、ファンデルモンド行列Vの部分行列である。それは、行列GS,Bによって記述することができ、ここで、各エントリ(i,j)は、以下のようになる。
これは、一般化ファンデルモンド行列としても知られており、逆行列GS,B −1を効率的に計算することができる。
を用いて正規化する。その後、
という形式のすべての「符号化された」データについて、バックアップノードBj□は、別のバックアップノードBjから受信し、XOR演算を実行し、正規化されたデータを上記の「符号化された」データで置き換える。復旧は、Bj□が「符号化された」データの|B|−1個の部分を受信した後に完了する。
であり、これらの符号化は、バックアップノードである物理マシン1(PM1)及び物理マシン2(PM2)上にそれぞれ記憶される。
[0053]図5は、n個のプライマリノードS1...Snを、レートr1、r2、...、rnで、1つのバックアップノードBに同期させるためのアルゴリズムの一実施形態を示している。これは、レートが整数単位であることを仮定する。一実施形態では、仲介ルータでは、XOR演算のみが必要とされる。
である。これらの行列は、逆行列が求められ(図5の17行)、その結果は、バックアップノードBにおいて正しいパリティが受信されるように、プライマリノードにおいて各リンクに対してどのページを符号化すべきであるかを与える。図6のA及び図6のBの例では、S1の逆行列は、
であり、S2の逆行列は、
である。
[0060]上で説明された符号構成アルゴリズムは、すべてのノードにおけるすべてのリンクについて、データのどの部分を符号化せずに転送すべきか、及び、データのどの部分を符号化し、既存の符号化されたストリームと組み合わせて、ツリーの残りに分配するべきか、を決定する。決定は、そのリンクを通過しているレートr1...rnと、ツリーの他方の側のバックアップノードのサイズに依存する。この決定と、したがって最小化された帯域幅とは、以下の最適化によって評価することができる。
ここで、
であり、ここで、Sは、ツリーの一方の側のプライマリノードの集合であり、Bは、ツリーの他方の側のバックアップノードの集合である。最適化から評価された集合Xは、プライマリノードからのどのデータをその仲介ノードにおいて符号化すべきかを示す。最適化手順の一実施形態が、図8にコード形式で示されている。
ここで、Fは、符号化すべきではないが、そのリンク上で転送すべきプライマリノードからのフローを表し、fは、そのリンクについて、その仲介ノードにおいて符号化すべきプライマリノードからのフローを表し、gは、符号化オペレーションの出力であり、行列Mは、符号化手順の係数を与え、gINは、それ以前のノードからのすでに符号化されているフローを表す。g及びgINの第jのエントリは、バックアップノードjに向かう符号化されたデータを表す。
[0076]図13は、複数のマシンのメモリ状態を1組の1つ又は複数のバックアップノード上に同期させるためのプロセスの一実施形態を示している。プロセスは、ハードウェア(回路、専用ロジックなど)、(汎用コンピュータシステム若しくは専用マシン上で実行される)ソフトウェア、又は両方の組み合わせを含み得る、処理ロジックによって実行される。一実施形態では、このプロセスは、1組の1つ又は複数のバックアップノードに通信可能に結合された複数のマシンを有するネットワーク環境において生じる。一実施形態では、マシンは、仮想マシン又は物理マシンである。
Claims (24)
- 複数のマシンのメモリ状態を1組の1つ又は複数のバックアップノード上に同期させるための方法であって、
事前に符号化された変更を前記1つ又は複数のバックアップノードの各々において受信するステップであって、事前に符号化された変更が、前記複数のマシンの各1つ又は複数についての前記メモリ状態に対する変更を事前に符号化することによって生成されるステップと、
前記複数のマシンの2つ以上にわたって、前記事前に符号化された変更を符号化することによって、符号化されたメモリ状態を生成するステップと、
を含む方法。 - 前記複数のマシンの前記1つ又は複数についての前記メモリ状態に対する、前記事前に符号化された変更が、各マシンのメモリ状態に対する更新と、前記各マシンの前記メモリ状態の直前のバージョンとに基づいて計算される、請求項1に記載の方法。
- 各マシンの前記メモリ状態に対する前記更新と、前記各マシンの前記メモリ状態の前記直前のバージョンとの間のビット毎の排他的OR(XOR)演算を実行して、前記事前に符号化された変更を生成するステップと、
前記事前に符号化された変更を前記1つ又は複数のバックアップノードの各々に送信するステップと、
をさらに含む、請求項1に記載の方法。 - 前記事前に符号化された変更を符号化することによって、前記符号化されたメモリ状態を生成するステップが、前記1つ又は複数のバックアップノードの前記各々において行われる、請求項1に記載の方法。
- 前記符号化されたメモリ状態を生成するステップが、
前記複数のマシンのうちの異なるマシンのメモリページにわたって、ビット毎の排他的OR(XOR)演算を実行するサブステップ
を含む、請求項4に記載の方法。 - 1つの物理ロケーションに配置された前記バックアップノードの1つにおいて、前記複数のマシンの1つについてのメモリ状態を、前記1つのマシンが故障した場合に、復旧するステップと、
その後、前記物理ロケーションにおいて、前記復旧されたメモリ状態を用いて、仮想マシンを活動化するステップと、
をさらに含む、請求項5に記載の方法。 - 1つの物理ロケーションに配置された前記バックアップノードの1つにおいて、前記複数のマシンの1つについてのメモリ状態を、前記1つのマシンが故障した場合に、復旧されたメモリ状態のサブセットを復号することによって復旧するステップと、
その後、復旧されたメモリ状態の前記サブセットを用いて、仮想マシンを活動化するステップと、
をさらに含む、請求項1に記載の方法。 - 前記符号化されたメモリ状態を生成するステップが、
前記複数のマシンと前記1つ又は複数のバックアップノードとの間に通信可能に結合された仲介ノードにおいて、ネットワーク符号化を実行するサブステップであって、前記複数のマシンのうちの異なるマシンのメモリページにわたって、ビット毎の排他的OR(XOR)演算を実行することを含むサブステップを含み、
前記方法が、前記符号化されたメモリ状態を前記1つ又は複数のバックアップノードに送信するステップをさらに含む、
請求項1に記載の方法。 - 前記1つ又は複数のバックアップノードの1つにおいて、前記複数のマシンのうちの故障した1つについての1つ又は複数のメモリ状態を、
前記複数のマシンのうちの故障していない異なるマシンのメモリページにわたって、ビット毎の排他的OR(XOR)演算を実行することによって、前記仲介ノードにおいて、ネットワーク符号化を実行して、新しい符号化されたメモリ状態を生成し、
前記新しい符号化されたメモリ状態を前記1つ又は複数のバックアップノードのうちの少なくとも1つに送信し、
前記新しい符号化されたメモリ状態と、前記少なくとも1つのバックアップノードに以前に記憶された符号化されたメモリ状態との間のビット毎の排他的OR(XOR)演算を実行することによって、故障した前記マシンのメモリページを生成する
ことによって復旧するステップをさらに含む、請求項8に記載の方法。 - 前記マシンが、仮想マシン又は物理マシンである、請求項1に記載の方法。
- 1組の1つ又は複数のバックアップノードに通信可能に結合された複数のマシンを備え、
前記複数のマシンが、事前に符号化された変更を生成し、前記1つ又は複数のバックアップノードの各々に送信し、複数のマシンが、前記複数のマシンの各1つ又は複数についての前記メモリ状態に対する変更を事前に符号化することによって、事前に符号化された変更を生成し、
さらに、前記1組のうちの少なくとも1つのバックアップノードが、前記複数のマシンの2つ以上にわたって、前記事前に符号化された変更を符号化することによって、符号化されたメモリ状態を生成する、
ネットワーク環境。 - 少なくとも1つのマシンが、各マシンのメモリ状態に対する更新と、前記各マシンの前記メモリ状態の直前のバージョンとに基づいて、前記複数のマシンの前記1つ又は複数についての前記メモリ状態に対する、前記事前に符号化された変更を計算する、請求項11に記載のネットワーク環境。
- 前記複数のマシンのうちの少なくとも1つのマシンが、前記1つのマシンの前記メモリ状態に対する前記更新と、前記1つのマシンの前記メモリ状態の前記直前のバージョンとの間のビット毎の排他的OR(XOR)演算を実行して、前記事前に符号化された変更を生成し、その後、前記事前に符号化された変更を前記1つ又は複数のバックアップノードの各々に送信する、請求項11に記載のネットワーク環境。
- 前記1組のうちの少なくとも1つのバックアップノードが、前記事前に符号化された変更を符号化することによって、前記符号化されたメモリ状態を生成し、この生成が、前記1つ又は複数のバックアップノードの前記各々において行われる、請求項11に記載のネットワーク環境。
- 前記少なくとも1つのバックアップノードが、前記複数のマシンのうちの異なるマシンのメモリページにわたって、ビット毎の排他的OR(XOR)演算を実行することによって、前記符号化されたメモリ状態を生成する、請求項14に記載のネットワーク環境。
- 前記1組のうちの前記バックアップノードの前記少なくとも1つが、1つの物理ロケーションに配置され、前記複数のマシンの1つについてのメモリ状態を、前記1つのマシンが故障した場合に、復旧し、その後、前記物理ロケーションにおいて、前記復旧されたメモリ状態を用いて、仮想マシンを活動化する、請求項15に記載のネットワーク環境。
- 1つ又は複数の仲介ノードを介して、1組の1つ又は複数のバックアップノードに通信可能に結合された複数のマシンを備え、
前記複数のマシンが、事前に符号化された変更を生成し、前記1つ又は複数のバックアップノードの各々に送信し、複数のマシンが、前記複数のマシンの各1つ又は複数についての前記メモリ状態に対する変更を事前に符号化することによって、事前に符号化された変更を生成し、
さらに、前記仲介ノードの少なくとも1つが、前記複数のマシンのうちの異なるマシンのメモリページにわたって、ビット毎の排他的OR(XOR)演算を実行することを含むネットワーク符号化を実行することによって、符号化されたメモリ状態を生成し、前記符号化されたメモリ状態を前記1つ又は複数のバックアップノードに送信する、
ネットワーク環境。 - 前記1つ又は複数のバックアップノードのうちの1つが、前記複数のマシンのうちの故障した1つのマシンについての1つ又は複数のメモリ状態を、新しい符号化されたメモリデータを使用し、前記新しい符号化されたメモリ状態と、前記少なくとも1つのバックアップノードに以前に記憶された符号化されたメモリ状態との間のビット毎の排他的OR(XOR)演算を実行することによって、故障した前記マシンのメモリページを生成することによって復旧し、さらに、前記新しい符号化されたメモリデータが、前記複数のマシンのうちの故障していない異なるマシンのメモリページにわたって、ビット毎の排他的OR(XOR)演算を実行することによって、新しい符号化されたメモリ状態を生成した前記仲介ノードの1つから受信される、請求項17に記載のネットワーク環境。
- 前記マシンが、仮想マシン又は物理マシンである、請求項17に記載のネットワーク環境。
- システムによって実行された場合に、複数のマシンのメモリ状態を1組の1つ又は複数のバックアップノード上に同期させるための方法を前記システムに実行させる命令が記憶された、1つ又は複数の非一時的なコンピュータ可読記憶媒体を有する製造物品であって、前記方法が、
事前に符号化された変更を前記1つ又は複数のバックアップノードの各々において受信するステップであって、事前に符号化された変更が、前記複数のマシンの各1つ又は複数についての前記メモリ状態に対する変更を事前に符号化することによって生成されるステップと、
前記複数のマシンの2つ以上にわたって、前記事前に符号化された変更を符号化することによって、符号化されたメモリ状態を生成するステップと、
を含む、製造物品。 - 前記方法が、
各マシンの前記メモリ状態に対する更新と、前記各マシンの前記メモリ状態の直前のバージョンとの間のビット毎の排他的OR(XOR)演算を実行して、前記事前に符号化された変更を生成するステップと、
前記事前に符号化された変更を前記1つ又は複数のバックアップノードの各々に送信するステップと、
をさらに含む、請求項20に記載の製造物品。 - 前記符号化されたメモリ状態を生成するステップが、前記複数のマシンのうちの異なるマシンのメモリページにわたって、ビット毎の排他的OR(XOR)演算を実行するサブステップを含む、請求項20に記載の製造物品。
- 前記符号化されたメモリ状態を生成するステップが、前記複数のマシンと前記1つ又は複数のバックアップノードとの間に通信可能に結合された仲介ノードにおいて、ネットワーク符号化を実行するサブステップであって、前記複数のマシンのうちの異なるマシンのメモリページにわたって、ビット毎の排他的OR(XOR)演算を実行することを含むサブステップを含み、
前記方法が、前記符号化されたメモリ状態を前記1つ又は複数のバックアップノードに送信するステップをさらに含む、
請求項20に記載の製造物品。 - 前記方法が、前記1つ又は複数のバックアップノードの1つにおいて、前記複数のマシンのうちの故障した1つについての1つ又は複数のメモリ状態を、
前記複数のマシンのうちの故障していない異なるマシンのメモリページにわたって、ビット毎の排他的OR(XOR)演算を実行することによって、前記仲介ノードにおいて、ネットワーク符号化を実行して、新しい符号化されたメモリ状態を生成し、
前記新しい符号化されたメモリ状態を前記1つ又は複数のバックアップノードのうちの少なくとも1つに送信し、
前記新しい符号化されたメモリ状態と、前記少なくとも1つのバックアップノードに以前に記憶された符号化されたメモリ状態との間のビット毎の排他的OR(XOR)演算を実行することによって、故障した前記マシンのメモリページを生成する
ことによって復旧するステップをさらに含む、請求項23に記載の製造物品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US36902810A | 2010-07-29 | 2010-07-29 | |
US61/369,028 | 2010-07-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012033169A true JP2012033169A (ja) | 2012-02-16 |
Family
ID=45846443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011167387A Pending JP2012033169A (ja) | 2010-07-29 | 2011-07-29 | バックアップシステムにおける符号化を使用して、ライブチェックポインティング、同期、及び/又は復旧をサポートするための方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012033169A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016051512A1 (ja) * | 2014-09-30 | 2016-04-07 | 株式会社日立製作所 | 分散型ストレージシステム |
WO2017081747A1 (ja) * | 2015-11-10 | 2017-05-18 | 株式会社日立製作所 | 分散ストレージシステム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0887424A (ja) * | 1994-09-16 | 1996-04-02 | Toshiba Corp | 電子計算機 |
JP2003099210A (ja) * | 2001-09-25 | 2003-04-04 | Toshiba Corp | 仮想的なraid装置を有するクラスタシステム及び同システム用のコンピュータ |
US20050102548A1 (en) * | 2003-10-30 | 2005-05-12 | Volker Lindenstruth | Method and apparatus for enabling high-reliability storage of distributed data on a plurality of independent storage devices |
JP2008117395A (ja) * | 2006-10-31 | 2008-05-22 | Hewlett-Packard Development Co Lp | フォールトトレラントデータストレージシステムにおけるブロックレベルのデータ破損の検出および訂正 |
US20080320259A1 (en) * | 2007-06-21 | 2008-12-25 | Garg Vijay K | Method for Providing Fault Tolerance to Multiple Servers |
US20090213854A1 (en) * | 2008-02-21 | 2009-08-27 | Telcordia Technologies, Inc. | Efficient, fault-tolerant multicast networks via network coding |
-
2011
- 2011-07-29 JP JP2011167387A patent/JP2012033169A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0887424A (ja) * | 1994-09-16 | 1996-04-02 | Toshiba Corp | 電子計算機 |
JP2003099210A (ja) * | 2001-09-25 | 2003-04-04 | Toshiba Corp | 仮想的なraid装置を有するクラスタシステム及び同システム用のコンピュータ |
US20050102548A1 (en) * | 2003-10-30 | 2005-05-12 | Volker Lindenstruth | Method and apparatus for enabling high-reliability storage of distributed data on a plurality of independent storage devices |
JP2008117395A (ja) * | 2006-10-31 | 2008-05-22 | Hewlett-Packard Development Co Lp | フォールトトレラントデータストレージシステムにおけるブロックレベルのデータ破損の検出および訂正 |
US20080320259A1 (en) * | 2007-06-21 | 2008-12-25 | Garg Vijay K | Method for Providing Fault Tolerance to Multiple Servers |
US20090213854A1 (en) * | 2008-02-21 | 2009-08-27 | Telcordia Technologies, Inc. | Efficient, fault-tolerant multicast networks via network coding |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016051512A1 (ja) * | 2014-09-30 | 2016-04-07 | 株式会社日立製作所 | 分散型ストレージシステム |
WO2016052665A1 (ja) * | 2014-09-30 | 2016-04-07 | 株式会社日立製作所 | 分散型ストレージシステム |
GB2545290A (en) * | 2014-09-30 | 2017-06-14 | Hitachi Ltd | Distributed storage system |
US10185624B2 (en) | 2014-09-30 | 2019-01-22 | Hitachi, Ltd. | Distributed storage system |
US10496479B2 (en) | 2014-09-30 | 2019-12-03 | Hitachi, Ltd. | Distributed storage system |
US11036585B2 (en) | 2014-09-30 | 2021-06-15 | Hitachi, Ltd. | Distributed storage system |
GB2545290B (en) * | 2014-09-30 | 2021-07-07 | Hitachi Ltd | Distributed storage system |
US11487619B2 (en) | 2014-09-30 | 2022-11-01 | Hitachi, Ltd. | Distributed storage system |
US11886294B2 (en) | 2014-09-30 | 2024-01-30 | Hitachi, Ltd. | Distributed storage system |
WO2017081747A1 (ja) * | 2015-11-10 | 2017-05-18 | 株式会社日立製作所 | 分散ストレージシステム |
JPWO2017081747A1 (ja) * | 2015-11-10 | 2018-08-09 | 株式会社日立製作所 | 分散ストレージシステム |
US10740189B2 (en) | 2015-11-10 | 2020-08-11 | Hitachi, Ltd. | Distributed storage system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109643258B (zh) | 使用高速率最小存储再生擦除代码的多节点修复 | |
Rashmi et al. | Explicit construction of optimal exact regenerating codes for distributed storage | |
US8522073B2 (en) | Distributed storage of recoverable data | |
US9722637B2 (en) | Construction of MBR (minimum bandwidth regenerating) codes and a method to repair the storage nodes | |
Cadambe et al. | Optimal repair of MDS codes in distributed storage via subspace interference alignment | |
US20140317222A1 (en) | Data Storage Method, Device and Distributed Network Storage System | |
WO2020047707A1 (zh) | 分布式存储系统的数据编码、解码及修复方法 | |
US9104603B2 (en) | Method of exact repair of pairs of failed storage nodes in a distributed data storage system and corresponding device | |
US11500725B2 (en) | Methods for data recovery of a distributed storage system and storage medium thereof | |
CN111697976B (zh) | 一种基于分布式存储的rs纠删快速解码方法及系统 | |
CN113505019B (zh) | 一种纠删码数据及校验恢复方法、装置、设备及可读介质 | |
CN114153651B (zh) | 一种数据编码方法、装置、设备及介质 | |
KR20180030935A (ko) | 분산 저장 시스템에서 엑스에프 소거 코드를 구현하기 위한 장치 및 방법 | |
Hollmann | Storage codes—Coding rate and repair locality | |
Tebbi et al. | A code design framework for multi-rack distributed storage | |
WO2014012246A1 (zh) | 用于分布式网络存储的自修复码的编码、重构和恢复方法 | |
JP2012033169A (ja) | バックアップシステムにおける符号化を使用して、ライブチェックポインティング、同期、及び/又は復旧をサポートするための方法及び装置 | |
Zorgui et al. | Centralized multi-node repair in distributed storage | |
CN108199720B (zh) | 一种减小存储开销和提高修复效率的节点修复方法及系统 | |
CN108628697B (zh) | 一种基于二进制的节点修复方法及系统 | |
CN113098660B (zh) | 一种基于部分复制技术的不等局部可修复喷泉码构造方法 | |
Mahdaviani et al. | Bandwidth adaptive & error resilient regenerating codes with minimum repair bandwidth | |
Wang | LT codes for efficient and reliable distributed storage systems revisited | |
US9450617B2 (en) | Distribution and replication of erasure codes | |
Yang | Application-driven coding techniques: From cloud storage to quantum communications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150804 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160329 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160511 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161018 |