JP2014164502A - クラスタシステム - Google Patents
クラスタシステム Download PDFInfo
- Publication number
- JP2014164502A JP2014164502A JP2013034760A JP2013034760A JP2014164502A JP 2014164502 A JP2014164502 A JP 2014164502A JP 2013034760 A JP2013034760 A JP 2013034760A JP 2013034760 A JP2013034760 A JP 2013034760A JP 2014164502 A JP2014164502 A JP 2014164502A
- Authority
- JP
- Japan
- Prior art keywords
- data
- cluster
- processor
- area
- storage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】クラスタシステムにおいて、ディスパッチャ202は、ID空間上におけるデータの担当領域を示す情報をプロセッサ毎に記憶する記憶部と、クラスタを構成するプロセッサが離脱した場合に直ちに、記憶された担当領域を示す情報を参照して、ID空間上におけるデータの担当領域を組み替えることでクラスタを再構成し、変更を自身以外のディスパッチャに通知する保存情報管理部と、を備える。プロセッサ203は、クラスタが再構成される度に、ID空間上におけるデータの担当領域を示す情報をローカルのストレージに記録する担当領域更新記録部と、ローカルのストレージに保存するデータが更新される度に、データが更新されたことを示す情報と、担当領域を示す情報と、をローカルのストレージに記録するデータ更新記録部と、を備える。
【選択図】図2
Description
図1に示すように、ネットワーク100上に配置されたクラスタシステム101は、例えばキャッシュデータを格納するものであり、クライアント端末102や外部システム103から、リクエスト(入力情報)104を受け取り、例えばリクエスト104が読み込み(リード)であればレスポンス105としてデータを提供する。また、リクエスト104がデータの書き込み(ライト)であれば、クラスタシステム101は、データの保存や更新を行う。
ただし、本発明はこれに限定されるものではない。つまり、ディスパッチャ202とプロセッサ203とを同一のサーバ筐体、ストレージ204を別筐体のように構成してもよい。さらに、3つとも別々のサーバ筐体に実装してもよい。図3、図5、図6、図8はこのような形式でサーバを示した機能ブロック図である。
このようなリクエストに対して、図2を参照して、矢印で示すデータアクセスの流れ(S1〜S8の動作)と、その一部であるS2〜S6に対応して破線の矢印で示す分岐した流れ(S12〜S16またはS22〜S26の動作)と、S4に対応して分岐した動作(S9またはS10の動作)とについて説明する。
図3は、図2のディスパッチャの構成例を示す機能ブロック図である。
ディスパッチャ202は、ロードバランサ装置201および複数のプロセッサ203と通信可能に接続され、ロードバランサ装置201から取得した入力データ(クエリ)を、プロセッサ203に振り分ける装置であり、図3に示すように、入出力部2と、メモリ部3と、記憶部4と、制御部5とを含んで構成される。
入出力部2は、ロードバランサ装置201や、各プロセッサ203との間の情報の入出力を行う。例えば、入出力部2は、ロードバランサ装置201が送信した入力データ(クエリ)を受信し、各プロセッサ203に対し、その入力データ(クエリ)の送信を行う。また、入出力部2は、ストレージ204に保存されるデータ等の検索結果をプロセッサ203から受信し、ロードバランサ装置201に対して送信する等の処理を行う。また、この入出力部2は、通信回線を介して情報の送受信を行う通信インタフェースと、不図示のキーボード等の入力手段やモニタ等の出力手段等との間で入出力を行う入出力インタフェースとから構成される。
メモリ部3は、RAM(Random Access Memory)等の一次記憶装置からなり、制御部5によるデータ処理に必要な情報を一時的に記憶している。
記憶部4は、ハードディスクやフラッシュメモリ等の記憶装置からなり、例えば、ディスパッチャ202の動作プログラムを記憶する。また、記憶部4は、ロードバランサ装置201や、自身以外の各ディスパッチャ202、各プロセッサ203のアドレス(IPアドレス)等を記憶する。また、記憶部4は、入力情報のIDに対応したID空間上におけるデータの担当領域を示す情報をプロセッサ203毎に記憶する。記憶部4に記憶するこの情報をアドレス表と呼ぶ。アドレス表の一例を図4(b)に示す。
図4(b)に示すように、アドレス表は、データのIDと、マスタデータを格納するサーバのIDとを対応付けた表である。
ここで、データのIDは、クラスタシステム101内において担当領域を特定するための固有な番号である。
マスタデータを格納するサーバのIDは、入力データの振り分け先となるサーバを、クラスタシステム101内において特定するための固有な番号である。
なお、これらのIDは、クラスタシステム101内において、一意に特定されるIDであればよく、図4(b)に示した表記方法に限定されるものではない。
同様に、図4(a)においては、CH環の領域Bとしてダブルハッチングで表示した範囲のIDが付されたデータ(0201〜0400)は、ID空間(CH環)上を時計回りに辿り最初に出合ったメンバ3がマスタデータを格納する担当となっている。
以下同様に、データのIDが0401〜0550の場合、メンバ4がマスタデータを格納する担当であり、データのIDが0551〜0800の場合、メンバ1がマスタデータを格納する担当となっている。
<制御部5>
制御部5は、ディスパッチャ202全体の制御を司り、情報受信部6と、構文解析部7と、振り分け処理部8と、保存情報管理部9と、情報送信部10とを含んで構成される。なお、この制御部5は、例えば、ディスパッチャ202の記憶部4に格納されたプログラムをCPU(Central Processing Unit)がメモリ部3であるRAMに展開し実行することで実現される。
情報受信部6は、入出力部2を介して、ロードバランサ装置201からの入力データ(クエリ)や、プロセッサ203からの出力データを取得する。
構文解析部7は、情報受信部6から入力データ(クエリ)を受け取り、そのクエリの内容を構文解析する。例えば、構文解析部7は、その入力データ(クエリ)が、ストレージ204に格納されたデータに対する検索要求(GET)であり、「keyの完全一致検索」や、「keyの範囲検索」等であるかを解析したり、新規のデータの登録要求(PUT)や、既存データの更新要求(UPDATE)等のクエリの内容を解析したりする。そして、構文解析部7は、その解析結果を振り分け処理部8に引き渡す。
振り分け処理部8は、入力情報に対して予め定められた関数による演算を行い、演算結果からID空間上の担当領域を特定し、記憶部4に記憶された担当領域を示す情報によってクラスタの中から振り分け先となるプロセッサ203を決定し、決定したプロセッサ203に入力情報を送信する。
また、振り分け処理部8は、ハッシュ値計算部11が計算したハッシュ値に基づき、記憶部4に記憶されたアドレス表(図4(b))を参照し、振り分け先となるコンシステントハッシュ環上のクラスタメンバを決定する。そして、振り分け処理部8は、この決定されたクラスタメンバの物理ノードであるサーバを、振り分け先のサーバとして選択する。
保存情報管理部9は、構文解析部7が入力データ(クエリ)を構文解析した結果に応じて、各サーバに保存される情報を管理する全体的な制御を行う機能(リクエスト管理機能)と、コンシステントハッシュ環上のクラスタメンバの配置を決定する機能(クラスタ再構成機能)とを備えている。
保存情報管理部9のリクエスト管理機能は、振り分け処理部8にてデータの取得要求(検索)、保存、変更等を実行するサーバが決定されると、その決定した振り分け先となるサーバに対して、入力データ(クエリ)を、情報送信部10を介して送信する。
また、このリクエスト管理機能は、データの取得要求を示す入力データ(クエリ)の場合に、各サーバから取得したデータを、出力データとしてロードバランサ装置201に送信する制御を行う。
保存情報管理部9のクラスタ再構成機能は、クラスタシステム101内において、各サーバの負荷にばらつきが生じる等したことにより、サーバを追加したり削除したりする場合に、当該サーバの削除に対応した、新たな仮想ノードのコンシステントハッシュ環上の配置を決定する。また、クラスタ再構成機能は、クラスタを構成するクラスタメンバ(プロセッサ203)が故障等によって離脱した場合に直ちに、クラスタを再構成する。
情報送信部10は、振り分け処理部8が決定した振り分け先となるプロセッサ203に対して、入力データ等を送信したり、入力データ(クエリ)の内容に応じた各サーバへの制御情報等を送信したりする。また、プロセッサ203から受信したデータ等を、ロードバランサ装置201へ送信する等の制御を行う。
図5は、図2のプロセッサの構成例を示す機能ブロック図である。
プロセッサ203は、図5に示すように、入出力部22と、メモリ部23と、記憶部24と、制御部25とを含んで構成される。
入出力部22は、ディスパッチャ202やストレージ204との間の情報の入出力を行う。ここで、ディスパッチャ202との間の情報とは、例えば入力データ(クエリ)であり、ディスパッチャ202やストレージ204との間の情報とは、例えばストレージ204に保存されるデータ等の検索結果のことである。この入出力部22は、通信回線を介して情報の送受信を行う通信インタフェースと、不図示のキーボード等の入力手段やモニタ等の出力手段等との間で入出力を行う入出力インタフェースとから構成される。
メモリ部23は、RAM等の一次記憶装置からなり、制御部25によるデータ処理に必要な情報を一時的に記憶している。
記憶部24は、ハードディスクやフラッシュメモリ等の記憶装置からなり、例えば、プロセッサ203の動作プログラムを記憶する。また、記憶部24は、ディスパッチャ202やストレージ204のアドレス(IPアドレス)等を記憶する。
制御部25は、プロセッサ203全体の制御を司り、情報受信部26と、解析処理部27と、担当領域更新記録部28と、データ更新記録部29と、検索処理部30と、復帰処理部31と、情報送信部32とを含んで構成される。なお、この制御部25は、例えば、プロセッサ203の記憶部24に格納されたプログラムをCPUがメモリ部23であるRAMに展開し実行することで実現される。
情報受信部26は、入出力部22を介して、ディスパッチャ202からの入力データ(クエリ)や、ストレージ204からの検索結果データを取得する。
解析処理部27は、入出力部22を介して、ディスパッチャ202から取得した入力データ(リクエスト)のプロトコル解析や、ファイル形式の確認を行う。具体的には、ディスパッチャ202から受信したリクエストに含まれるXMLファイル等について、スキーマ定義が記述されたXSD(XML Schema Definition)ファイルと照合することで、ファイル形式が正しいか等の判定を行った上で、ストレージ204に対して、そのXMLファイル等を書き込む処理を指示する。これにより、ストレージ204では、図6に示すように、プロセッサ203から受信したXMLファイル等のデータ210Aを保存する(ライト)。ここで、データ210Aの記録は、ライトスルー方式とするかライトバック方式とするかは問わない。なお、検索のリクエストの場合、検索処理部30に処理を渡す。
担当領域更新記録部28は、クラスタが再構成される度に、ID空間上におけるデータの担当領域を示す情報を、当該プロセッサ203用のローカルのストレージ204に記録する。これにより、ストレージ204では、図6に示すように、担当領域更新履歴320が保存される。ここで、図6に示すストレージ204は、図4(a)においてCH環の領域Aに対応したID(0000〜0200)が付されたデータをマスタデータとして格納するメンバ2のストレージS2を示している。
本実施形態では、担当領域更新記録部28は、図6に示すように、クラスタが再構成された時刻321と、担当領域322とを記録することとした。
担当領域322は、当該サーバが、これまでどのデータ領域を担当してきたかという情報を示す。クラスタ内に別のサーバが追加されることで担当領域が縮小されたり、故障等により他のサーバが離脱することで担当領域が拡大したりする。これらの内容が時刻321毎に記録されている。また、ここでは、コンシステントハッシュのアルゴリズムを想定しているため、環上のHash空間(CH環)の何処から何処までを担当としたかを記録する様子を示している。
本実施形態では、データ更新記録部29は、データ更新履歴330の内容として、図6に示すように、更新された時刻331と、データのハッシュ値332と、担当領域を示す領域333とをセットで記録することとした。データ更新履歴330は、更新時刻順にソートされている。
検索処理部30は、解析処理部27にてディスパッチャ202から取得した入力データ(クエリ)のXSDファイルとの照合等を行ったリクエストで指定されたXMLデータをストレージ204から検索して取得し(リード)、ディスパッチャ202、ロードバランサ装置201を経由して、そのXMLデータをクライアント端末102に送信する。
復帰処理部31は、ローカルのストレージ204に記録されている、担当領域を示す情報をディスパッチャ202に通知し、復帰するプロセッサ203とその代理を務めていたプロセッサ203との間における通信処理を行う。
復帰処理部31は、ローカルのストレージ204に記録されている、クラスタが再構成された時刻と、データが更新された時刻と、に基づいて、データ要求またはその応答としてのデータ送信を行う。復帰処理部31は、応答側の場合、除外されたプロセッサ203が以前の担当に復帰するまでの期間において代理として保存したデータの分だけ、復帰するプロセッサ203に送信する。
情報送信部32は、リクエストを送信してきたディスパッチャ202に対して、ストレージ204からの検索結果データを送信したり、ローカルのストレージ204に対する保存データ(マスタデータ)の複製データをリモートのストレージ204に対して送信したりする。
ここでは、図4,6,7,8を参照して、サーバ離脱時の記憶構造の例について説明する。図7は、図4に示すメンバ2が離脱した後の状態を示す点が図4と相違している。また、図6は、クラスタから離脱したメンバ2のローカルのストレージ204を示し、図8は、再構成後のクラスタに残ったメンバ3のローカルのストレージ204を示している。
さらに、これまでメンバ3で格納していた複製データ(データbのコピー:図4(a)参照)については、例えばID空間上でメンバ3の右隣にあたるメンバ4で格納することとなる(図7(a)参照)。
図6に示すストレージS2には、担当領域更新履歴320に示すように、時刻「500」を開始時刻として領域Aを担当していたことが記録されている。また、データ更新履歴330によれば、時刻が600、900、および1800のときに、いずれも領域Aのデータ更新アクセスがあったことが記録されている。なお、領域Aのデータとして保存または更新されたデータをデータ210Aと表記した。メンバ2は、例えば時刻「2000」には停止していたものとする。
また、データ更新履歴330によれば、時刻が2000になる以前には、いずれも領域Bのデータ更新アクセスがあったことが記録されており、時刻が2000以降には、領域Aと領域Bのデータ更新アクセスがあったことが記録されている。なお、領域Bのデータとして保存または更新されたデータをデータ210Bと表記した。
図9は、本発明の実施形態に係るクラスタシステムにおける動作例の模式図である。
まず、通常時において、クラスタ内の各サーバにおいて、プロセッサ203は、自身の担当領域が何処であるかを示す情報を、自分のストレージ204に、担当領域更新履歴320(図6および図8参照)として記録し、保存しておく(ステップS31)。
また、当然、データ更新アクセスも存在するため、この更新情報もデータ更新履歴330(図6および図8参照)の方に更新時刻と共に記録し、かつ更新データも記録しておく(ステップS32)。
一部のサーバ集合が停止をしたら、残されたサーバ集合のディスパッチャ202は、直ちに減設処理を実行する。これにより、残されたサーバ集合は、クラスタ構成を再構築して冗長化数を回復する(ステップS33)。それと同時に、残されたサーバ集合は、担当領域更新履歴320(図8参照)に、停止したサーバの分だけ増えた領域を記録する。つまり、担当領域を更新する(ステップS34)。
また、この後もデータ更新アクセスは存在するので、残されたサーバ集合は、通常通り、データ更新履歴330(図8参照)に記録しておく。
101 クラスタシステム
102 クライアント端末
103 外部システム
104 リクエスト
105 レスポンス
201 ロードバランサ装置
202 ディスパッチャ
203 プロセッサ
204 ストレージ
211,212,213 サーバ
2 入出力部
3 メモリ部
4 記憶部
5 制御部
6 情報受信部
7 構文解析部
8 振り分け処理部
9 保存情報管理部
10 情報送信部
11 ハッシュ値計算部
22 入出力部
23 メモリ部
24 記憶部
25 制御部
26 情報受信部
27 解析処理部
28 担当領域更新記録部
29 データ更新記録部
30 検索処理部
31 復帰処理部
32 情報送信部
Claims (4)
- 入力情報に基づき、ストレージに対してデータの保存を含む処理を実行する複数のプロセッサと、前記複数のプロセッサ毎に設けられた複数の前記ストレージと、前記入力情報を前記複数のプロセッサのいずれかに振り分ける複数のディスパッチャとを備え、前記入力情報に対して1つのクラスタとして分散処理を行うと共に、前記複数のプロセッサそれぞれが当該プロセッサ用のローカルのストレージおよび前記クラスタ内のリモートのストレージにデータを冗長化して記憶するクラスタシステムであって、
前記ディスパッチャは、
前記入力情報のIDに対応したID空間上におけるデータの担当領域を示す情報を前記複数のプロセッサ毎に記憶する記憶部と、
前記クラスタを構成する前記複数のプロセッサのいずれかが離脱した場合に直ちに、前記記憶部に記憶された前記担当領域を示す情報を参照して、前記ID空間上におけるデータの担当領域を組み替えることで前記クラスタを再構成し、変更を自身以外の前記ディスパッチャに通知する保存情報管理部と、を備え、
前記プロセッサは、
前記クラスタが再構成される度に、前記ID空間上におけるデータの担当領域を示す情報を、当該プロセッサ用のローカルのストレージに記録する担当領域更新記録部と、
前記ローカルのストレージに保存するデータが更新される度に、データが更新されたことを示す情報と、前記担当領域を示す情報と、を前記ローカルのストレージに記録するデータ更新記録部と、を備えることを特徴とするクラスタシステム。 - 前記プロセッサにおいて、
前記担当領域更新記録部は、前記クラスタが再構成された時刻を前記ローカルのストレージにさらに記録し、
前記データ更新記録部は、前記ローカルのストレージに保存するデータが更新された時刻を前記ローカルのストレージにさらに記録することを特徴とする請求項1に記載のクラスタシステム。 - 前記プロセッサは、前記ローカルのストレージに記録されている、前記担当領域を示す情報を前記ディスパッチャに通知し、前記離脱したプロセッサであって復帰する前記プロセッサとその代理を務めていたプロセッサとの間における通信処理を行う復帰処理部をさらに備えることを特徴とする請求項2に記載のクラスタシステム。
- 前記復帰処理部は、前記ローカルのストレージに記録されている、前記クラスタが再構成された時刻と、データが更新された時刻と、に基づいて、データ要求またはその応答としてのデータ送信を行い、応答側の場合、前記離脱したプロセッサが以前の担当に復帰するまでの期間において代理として保存したデータの分だけ、復帰する前記プロセッサに送信することを特徴とする請求項3に記載のクラスタシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013034760A JP5956364B2 (ja) | 2013-02-25 | 2013-02-25 | クラスタシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013034760A JP5956364B2 (ja) | 2013-02-25 | 2013-02-25 | クラスタシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014164502A true JP2014164502A (ja) | 2014-09-08 |
JP5956364B2 JP5956364B2 (ja) | 2016-07-27 |
Family
ID=51615054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013034760A Expired - Fee Related JP5956364B2 (ja) | 2013-02-25 | 2013-02-25 | クラスタシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5956364B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017010237A (ja) * | 2015-06-22 | 2017-01-12 | 日本電信電話株式会社 | ノード、データ救済方法およびプログラム |
JP2017220141A (ja) * | 2016-06-10 | 2017-12-14 | 富士通株式会社 | 情報管理プログラム、情報管理方法、及び情報管理装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004094681A (ja) * | 2002-08-30 | 2004-03-25 | Ntt Comware Corp | 分散データベース制御装置および制御方法並びに制御プログラム |
JP2006268531A (ja) * | 2005-03-24 | 2006-10-05 | Hitachi Ltd | データ処理システム及びデータベースの管理方法 |
JP2009122935A (ja) * | 2007-11-14 | 2009-06-04 | Oki Electric Ind Co Ltd | データベース提供装置、データベースクライアント端末、データベースシステム、データベース提供プログラム及びデータベースクライアントプログラム |
JP2013004000A (ja) * | 2011-06-21 | 2013-01-07 | Nippon Telegr & Teleph Corp <Ntt> | 負荷調整方法、負荷調整サーバ、負荷調整用サーバ装置、および、負荷調整プログラム |
-
2013
- 2013-02-25 JP JP2013034760A patent/JP5956364B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004094681A (ja) * | 2002-08-30 | 2004-03-25 | Ntt Comware Corp | 分散データベース制御装置および制御方法並びに制御プログラム |
JP2006268531A (ja) * | 2005-03-24 | 2006-10-05 | Hitachi Ltd | データ処理システム及びデータベースの管理方法 |
JP2009122935A (ja) * | 2007-11-14 | 2009-06-04 | Oki Electric Ind Co Ltd | データベース提供装置、データベースクライアント端末、データベースシステム、データベース提供プログラム及びデータベースクライアントプログラム |
JP2013004000A (ja) * | 2011-06-21 | 2013-01-07 | Nippon Telegr & Teleph Corp <Ntt> | 負荷調整方法、負荷調整サーバ、負荷調整用サーバ装置、および、負荷調整プログラム |
Non-Patent Citations (2)
Title |
---|
JPN6015052649; 入江道生,西村豪生,金子雅志,別所寿一,飯尾政美: 'スケールアウト型セッション制御サーバにおける動的構成変更に関する一検討' 電子情報通信学会技術研究報告 Vol:110,No:448,(NS2010-163〜295), 20110224, Pages:407〜410, 社団法人電子情報通信学会 * |
JPN6015052650; 岩佐絵里子,入江道生,金子雅志,福元健,飯尾政美,上田清志: 'スケールアウト型セッション制御サーバにおける動的構成変更負荷軽減方式' 電子情報通信学会技術研究報告 第111巻, 20120119, Vol:111,No:408,(NS2011-145〜178), 社団法人電子情報通信学会 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017010237A (ja) * | 2015-06-22 | 2017-01-12 | 日本電信電話株式会社 | ノード、データ救済方法およびプログラム |
JP2017220141A (ja) * | 2016-06-10 | 2017-12-14 | 富士通株式会社 | 情報管理プログラム、情報管理方法、及び情報管理装置 |
Also Published As
Publication number | Publication date |
---|---|
JP5956364B2 (ja) | 2016-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3598877B1 (en) | Automated self-healing database system and method for implementing the same | |
US9984140B1 (en) | Lease based leader election system | |
US9378258B2 (en) | Method and system for transparently replacing nodes of a clustered storage system | |
US20190205220A1 (en) | System and method for live migration of a virtual machine | |
CN112099918A (zh) | 容器化环境中的集群的实时迁移 | |
US20220019372A1 (en) | Distributed data storage system using erasure coding on storage nodes fewer than data plus parity fragments | |
US9817721B1 (en) | High availability management techniques for cluster resources | |
US11734248B2 (en) | Metadata routing in a distributed system | |
US9367261B2 (en) | Computer system, data management method and data management program | |
WO2007039535A1 (en) | System and method to maintain coherence of cache contents in a multi-tier software system aimed at interfacing large databases | |
KR101527634B1 (ko) | 샤딩 서비스를 제공하는 방법 및 장치 | |
US20230418716A1 (en) | Anti-entropy-based metadata recovery in a strongly consistent distributed data storage system | |
JP2013065120A (ja) | 負荷分散システム、データアクセス装置、及び負荷分散方法 | |
JP5956364B2 (ja) | クラスタシステム | |
JP2012008934A (ja) | 分散ファイルシステム及び分散ファイルシステムにおける冗長化方法 | |
WO2015196692A1 (zh) | 一种云计算系统以及云计算系统的处理方法和装置 | |
KR20130038517A (ko) | 분산된 컨테이너들을 사용하여 데이터를 관리하는 시스템 및 방법 | |
US11079960B2 (en) | Object storage system with priority meta object replication | |
CN111752892B (zh) | 分布式文件系统及其实现方法、管理系统、设备及介质 | |
CN116389233A (zh) | 容器云管理平台主备切换系统、方法、装置和计算机设备 | |
JP2013065104A (ja) | 負荷分散システム、データアクセス装置、及び負荷分散方法 | |
US11586592B2 (en) | Methods, devices and systems for writer pre-selection in distributed data systems | |
US11093465B2 (en) | Object storage system with versioned meta objects | |
JP2024514467A (ja) | 地理的に分散されたハイブリッドクラウドクラスタ | |
JP2019509579A (ja) | 情報処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140529 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160229 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160616 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5956364 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |