JP2011095976A - Device, method and program for distributed data management - Google Patents
Device, method and program for distributed data management Download PDFInfo
- Publication number
- JP2011095976A JP2011095976A JP2009248873A JP2009248873A JP2011095976A JP 2011095976 A JP2011095976 A JP 2011095976A JP 2009248873 A JP2009248873 A JP 2009248873A JP 2009248873 A JP2009248873 A JP 2009248873A JP 2011095976 A JP2011095976 A JP 2011095976A
- Authority
- JP
- Japan
- Prior art keywords
- node
- data
- value
- distributed
- hash function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、分散データ管理装置及び方法及びプログラムに係り、特に、ネットワーク上の複数のノード(サーバなど)上に分散しているデータを管理するための分散データ管理装置及び方法及びプログラムに関する。 The present invention relates to a distributed data management apparatus, method, and program, and more particularly, to a distributed data management apparatus, method, and program for managing data distributed on a plurality of nodes (such as servers) on a network.
本発明の対象である分散データ管理プログラムは、インターネットに代表されるIP等を用いた各種ネットワークにおいて、複数のノード(計算機等)に跨ってデータを管理することに用いられる。これは計算機科学においてハッシュ表と呼ばれる、あるデータについて、その目印となるキー情報とデータの内容とを対にして保持するデータ管理技術を複数のノードによる分散環境に適用し、分割したハッシュ表を各ノードで分散して管理するものである。これにより実際の処理は各ノードに分散させつつ、ノード間で共通に用いるデータについては分散データ管理プログラムによって共有することができる。そのため、その適用分野は並列・分散処理等の分散コンピューティング全域に亘っている。 The distributed data management program that is the subject of the present invention is used to manage data across a plurality of nodes (computers, etc.) in various networks using IPs typified by the Internet. This is called a hash table in computer science. For some data, data management technology that holds key information and data contents as a pair is retained in a distributed environment with multiple nodes. It is distributed and managed at each node. As a result, while the actual processing is distributed to each node, the data commonly used among the nodes can be shared by the distributed data management program. Therefore, the field of application covers the entire distributed computing such as parallel / distributed processing.
本明細書において用いる分散データ管理プログラムという用語は、計算機科学においては、コンシステント・ハッシング(例えば、非特許文献1参照)、分散ハッシュテーブル(例えば、非特許文献2参照)、分散キー・バリュー・ストア(例えば、非特許文献3参照)と呼ばれる方式及びその方式を実装したプログラム類を総称したものである。これらに共通した特徴として、ハッシュ表と呼ばれるデータ管理方式を物理的に分散した複数のノード上で分割して管理するという点が挙げられる。 In the computer science, the term distributed data management program used in this specification is consistent hashing (see, for example, Non-Patent Document 1), distributed hash table (see, for example, Non-Patent Document 2), distributed key, value, This is a general term for a method called a store (see, for example, Non-Patent Document 3) and programs that implement the method. A feature common to these is that a data management method called a hash table is divided and managed on a plurality of physically distributed nodes.
ハッシュ表とは、あるデータとそのデータを識別するキーという情報を対として持ち、このキーをハッシュ関数と呼ばれる関数に与えて得られた値(ハッシュ値)を索引として利用するものである。ハッシュ関数は入力に対して法則性のない出力を返す関数である。これにより、似たようなキーが連続する場合も、キーの索引として使われるハッシュ値はキューの連続性とは無関係な値となり、特定の領域にデータが集中することを防ぐ。 A hash table has information called a key for identifying certain data and a key as a pair, and uses a value (hash value) obtained by giving this key to a function called a hash function as an index. A hash function is a function that returns an output with no law for the input. As a result, even when similar keys are consecutive, the hash value used as the key index becomes a value irrelevant to the continuity of the queue, preventing data from being concentrated in a specific area.
コンシステント・ハッシングにおいては、このハッシュ表を1つの物理的なノード(計算機等の単位)で保持するのではなく、複数のノードで分割して持つ。どのノードが分割されたハッシュ表のどの領域を担当するかは、ノードに設定されたID(本明細書ではノードIDと記述する)とデータキーをハッシュ関数にかけて得られたハッシュ値(本明細書では「データID」と記述する)との距離等によって決定される。 In consistent hashing, this hash table is not held by one physical node (unit such as a computer) but is divided and held by a plurality of nodes. Which node is responsible for which area of the divided hash table is determined by the hash value (this specification) obtained by applying the ID (set as node ID in this specification) set to the node and the data key to the hash function. In this case, it is determined by the distance to “data ID”.
代表的な例では、あるIDを持つノードは、自身のIDと、自身のIDよりも小さいIDを持つノードのうち直近のノードのIDとの間の領域に位置するデータIDを持つデータを担当する仕組みになっている。 In a typical example, a node having a certain ID is responsible for data having a data ID located in an area between its own ID and the ID of the nearest node among nodes having an ID smaller than its own ID. It is a mechanism to do.
分散ハッシュテーブルはコンシステント・ハッシングの考え方を拡張したものである。コンシステント・ハッシングにおいては、あるノードは他のノードと通信を行うために、他の全てのノードのIDとアドレスとを表によって管理する。一方で、このアドレス表の管理は全体のノード数が多くなるにつれてコストが高くなり、困難になる。そこで、分散ハッシュテーブルでは、ハッシュ表だけではなくこのアドレス表についても、その全体ではなく一部だけを管理することで、管理を簡単化することを行う。一方で、データ管理方式についての多くの機能はコンシステント・ハッシングと同様のため、本発明では両者を同様に分散データ管理プログラムとして一語で同一視する。 The distributed hash table is an extension of the consistent hashing concept. In consistent hashing, a node manages the IDs and addresses of all other nodes in a table in order to communicate with other nodes. On the other hand, the management of this address table becomes more expensive and difficult as the total number of nodes increases. Therefore, in the distributed hash table, management is simplified by managing not only the hash table but also a part of the address table, not the whole. On the other hand, since many functions of the data management method are the same as those of consistent hashing, in the present invention, both are similarly identified as a distributed data management program in one word.
分散キー・バリュー・ストアについても、コンシステント・ハッシングと同様の考え方で分散したデータ管理方式に、例えばデータの複製やキャッシュ化、トランザクションの管理といった処理を拡張したものである。やはり根本となるデータ管理方式についてはコンシステント・ハッシングと同様であるため、本発明ではこれら3つの技術を総称して分散データ管理プログラムと呼ぶ。 For the distributed key / value store, for example, data replication, caching, and transaction management are expanded to a data management method distributed in the same way as consistent hashing. Since the fundamental data management method is the same as that of consistent hashing, in the present invention, these three technologies are collectively referred to as a distributed data management program.
分散データ管理プログラムでは、一般にあるデータについてはそのデータIDと近い値のノードIDを持つノードにデータが管理されるため、ノードIDの偏りはそのままノード間のデータ管理量の偏りとなって表れる。ノードIDとデータIDの取りうる値の範囲のことを「ID空間」と呼び、上記の偏りについてはID空間内でのノードIDの偏りといった言い方ができる。 In the distributed data management program, since data is generally managed by a node having a node ID close to the data ID, the deviation of the node ID appears as the deviation of the data management amount between the nodes as it is. The range of values that can be taken by the node ID and the data ID is referred to as “ID space”, and the above-mentioned bias can be expressed as the bias of the node ID in the ID space.
分散データ管理プログラムではこのようなID空間内でのノードIDの偏りについて、一般に1つの物理的なノードに対して複数の仮想的なノードIDを割り当てるという、確率的な対策を行う。即ち、大数の法則によって、ある物理的なノードの仮想ノードIDがID空間上にたくさん散らばることで、偏りを平均化し、軽減する。1つのノードに割り当てる仮想ノードIDの数に比例して、ID空間上の分布の偏りは軽減される。 In the distributed data management program, a probabilistic measure is generally taken to assign a plurality of virtual node IDs to one physical node in general for such a bias of node IDs in the ID space. That is, the bias is averaged and mitigated by the fact that a large number of virtual node IDs of a physical node are scattered in the ID space according to the law of large numbers. In proportion to the number of virtual node IDs assigned to one node, the distribution bias in the ID space is reduced.
ここで、分散データ管理プログラムの利用法の1つの形態について説明する。分散データ管理プログラムでは1つのハッシュ表を複数のノードで分割して管理するため、ある特定のノードが故障やプログラムの終了といった理由によってハッシュ表の構成要素としての役目を終える際、そのノードが管理していたデータは一般に失われてしまう。分散データ管理プログラムをキャッシュとして用い、データの原本は別の装置で管理しているような場合は問題ないが、分散データ管理プログラム上でデータの原本を管理していて、かつそのデータを失うことができない場合はこの構成要素の離脱に伴うデータの損失は致命的である。 Here, one form of usage of the distributed data management program will be described. In a distributed data management program, one hash table is divided and managed by multiple nodes, so when a particular node finishes its role as a hash table component due to a failure or program termination, that node manages it. The data that was being used is generally lost. There is no problem if the distributed data management program is used as a cache and the original data is managed by another device, but the original data is managed by the distributed data management program and the data is lost. If this is not possible, the loss of data associated with the removal of this component is fatal.
この問題に対し、一般に失いたくないデータに対しては、そのデータの複製を生成し、別のデータIDを与えることで、ハッシュ表にオリジナルのデータとは全く別の新しいデータとして登録しておく利用形態が用いられる。ここで、複製のデータIDはオリジナルのデータIDから類推可能なように生成する。例えば、データキーからデータIDを算出するハッシュ関数をf(x)と置く場合、その複製の算出には関数g(x)といったようにオリジナルのデータキーを入力として別のハッシュ関数にかけるなどの算出方法が考えられる。この形態においては、あるデータのオリジナルを管理するノードが離脱した場合も、そのデータを取得しようとしていたノードが上記のような算出論理に従ってデータの複製のデータIDを算出することで、このデータIDを管理するノードからデータの複製を取得することができる。 For this problem, for data that you don't want to lose in general, create a copy of the data and give it another data ID, so that it is registered in the hash table as new data completely different from the original data. A usage form is used. Here, the duplicate data ID is generated so as to be inferred from the original data ID. For example, when a hash function for calculating the data ID from the data key is set as f (x), the copy is calculated by applying the original data key to another hash function as in the function g (x). A calculation method can be considered. In this form, even when the node that manages the original of certain data leaves, the node that has acquired the data calculates the data ID of the duplicate of the data according to the calculation logic as described above. A copy of the data can be obtained from the node that manages the data.
あるデータのオリジナルと複製とを管理するノードが同時に故障する等の理由によって同時に離脱した場合は、オリジナルと複製のデータが両方とも失われ、そのデータは完全に失われてしまうことになる。このような同時離脱に対して、一般にはあるデータについて複数の複製を生成することで、確率的にオリジナルと全ての複製が同時に失われてしまうことを回避する。つまり、1つのデータについて生成する複製の数に比例して、あるデータのオリジナルか複製の何れかがID空間上に存在する確率が高まる。 If a node that manages the original and duplicate of a data is disconnected at the same time, for example, due to a failure, both the original and duplicate data are lost, and the data is completely lost. In general, a plurality of copies are generated for a certain data against such a simultaneous departure, thereby avoiding the probability that the original and all copies are lost at the same time. In other words, in proportion to the number of replicas generated for one data, the probability that either the original or the replica of certain data exists in the ID space increases.
上述のID空間におけるノードIDの偏りを回避するため、物理的なノードに複数の仮想的なノードIDを付与することと、データの複製の利用とを同時に用いることを考える場合、オリジナルのデータと複製のデータを管理する物理的なノードが同じになってしまう可能性が存在する。ノードやデータのIDを生成するハッシュ関数は入力に対して法則性を持たないため、あるデータのオリジナルと複製のデータIDが、ある物理的なノードのそれぞれ別の仮想ノードIDにマッピングされてしまう可能性がある。 In order to avoid the bias of node IDs in the ID space described above, when considering using a plurality of virtual node IDs for physical nodes and using data replication simultaneously, the original data and There is a possibility that the physical nodes that manage the replicated data will be the same. Since the hash function for generating the ID of the node or data has no law with respect to the input, the original and duplicate data IDs of certain data are mapped to different virtual node IDs of a certain physical node. there is a possibility.
このようなマッピングがなされた場合、オリジナルと複製の両方を別々の仮想ノードIDで管理している物理的なノードが故障等の理由により分散データ管理プログラムのノード同士で構成する分散データ管理システムより離脱した場合に、対象のデータを管理しているノードがシステム上に存在せず、データが失われてしまうということが、データの複製を利用しているにも関わらず一定確率で発生してしまう。 When such a mapping is made, the distributed data management system in which the physical node that manages both the original and the copy with different virtual node IDs is composed of nodes of the distributed data management program due to a failure or the like. In the event of withdrawal, the node that manages the target data does not exist on the system and the data will be lost with a certain probability even though data replication is used. End up.
また、データが失われない場合も、オリジナルや幾つかの複製のうちの一定量が同時にシステムより失われることで、残りの複製等を管理するノードが離脱する際にデータが失われてしまう確率を上げていることには変わりがない。 In addition, even if data is not lost, the probability that data will be lost when the node that manages the remaining replicas leaves because a certain amount of the original and several replicas are lost from the system at the same time. There is no change in raising.
この課題は、単純にデータの複製のデータIDの算出時に、物理的に同じノードから管理されそうであればデータIDの算出をやり直すといったような対処ではその場限りの対処に止まる。なぜならば、ノードは常に参加と離脱をする可能性があり、参加や離脱に伴いあるデータIDのデータを管理するノードは変わり続けるためである。 This problem is limited to ad hoc measures such as recalculating the data ID if it is likely to be managed from the same physical node when calculating the data ID of the data copy. This is because there is a possibility that a node always joins and leaves, and a node that manages data with a data ID that accompanies joining or leaving keeps changing.
この課題に対する従来の解決手段としては、確率的な手段とID生成規則に一定の法則性を与えるものとの2種類が存在する。 There are two types of conventional solutions to this problem: probabilistic means and those that give a certain rule to the ID generation rule.
前者(確率的な手段)は、複製の生成数を上げることで、物理的に同じノードが幾つかのオリジナルや複製を同時に管理した場合にも、幾つかの残りの複製を他の物理的に異なるノードが管理する確率を高めるものである。 The former (probabilistic means) increases the number of duplicates generated so that if the same physical node manages several originals or duplicates simultaneously, some remaining duplicates are It increases the probability that different nodes manage.
このアプローチはシステムから特定のデータが完全に失われてしまう確率を低減するものの、各ノードで管理するデータの量は複製数に比例するため、システム全体で管理するデータ量がその最大データ量に対して大きい場合、この複製コストを無視することができない。 Although this approach reduces the probability that certain data will be completely lost from the system, the amount of data managed by each node is proportional to the number of replicas, so the amount of data managed by the entire system is the maximum amount of data. On the other hand, if it is large, this replication cost cannot be ignored.
後者(ID生成規則に一定の法則性を与える)は、ある物理的なノードの仮想ノードIDについては、その最上位数ビットについてノードに固有の値を用い、データのオリジナルと各複製との間では該当する最上位数ビットの値を一定の法則性に従って変更することで、ある物理的なノードがデータのオリジナルと複製とを同時に管理する確率を低減するものである。 The latter (giving a certain rule to the ID generation rule) uses a node-specific value for the most significant bits for the virtual node ID of a physical node, and between the original and each copy of the data. Then, by changing the value of the most significant bit corresponding to a certain rule, the probability that a certain physical node simultaneously manages the original and duplicated data is reduced.
例えば、ある物理的なノードのノード固有値を「0101」(2進数にて表記)とした場合、そのノードの全ての仮想ノードIDの上位4ビットは全て「0101」になるものとする。これに対し、あるデータのオリジナルのデータIDが「0101」で始まる場合、このデータは高確率で先のノード固有値「0101」のノードによって管理される。この際、データの複製のデータIDの算出規則に、上位4ビットを必ず変えるような仕組みを入れることで、データの複製については他のノード固有値を持つ別の物理的なノードにおいて管理される確率が高くなる。 For example, if the node-specific value of a physical node is “0101” (in binary notation), the upper 4 bits of all virtual node IDs of that node are all “0101”. On the other hand, when the original data ID of certain data starts with “0101”, this data is managed by the node having the node specific value “0101” with high probability. At this time, the probability that data replication is managed in another physical node having another node specific value by adding a mechanism that always changes the upper 4 bits to the data ID calculation rule for data replication. Becomes higher.
このアプローチは、複製の数を一般的な用法よりも増やす必要がないため、システム全体で管理するデータ量は変わらないという利点と、データがシステムから失われる確率を下げるという利点とを備える。 This approach has the advantage that the amount of data managed throughout the system does not change and the probability of data being lost from the system is reduced because the number of replicas does not need to be increased over typical usage.
一方で、ノードIDの生成規則に、物理的なノード毎に固有のノード固有値という法則性を与えたがために、ID空間上でのノードIDの偏りは、全てこのノード固有値の偏りによって引き起こされることになってしまう。ノード固有値は物理的なノードに1つであるため、ノード毎に仮想的なノードIDを幾ら割り当てようとも、ノード固有値が偏ってしまった場合にはID空間上でのノードIDの偏りを回避することができなくなるという課題を持つ。 On the other hand, since the rule of generating node IDs is given a rule of unique node eigenvalues for each physical node, the deviation of node IDs in the ID space is all caused by this deviation of node eigenvalues. It will be. Since there is one node-specific value for each physical node, no matter how many virtual node IDs are assigned to each node, if the node-specific values are biased, avoid the bias of node IDs in the ID space. It has a problem that it cannot be done.
本発明は、上記の点に鑑みなされたもので、ネットワーク上の複数のノード(サーバなど)上に分散しているデータを管理する場合に、ID空間上でのノードIDの偏りを抑え、かつ、データのオリジナルと複製の両方を物理的に同一のノードが管理する確率を低減することが可能な分散データ管理装置及び方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above points. When managing data distributed on a plurality of nodes (such as servers) on a network, the present invention suppresses the bias of node IDs in the ID space, and An object of the present invention is to provide a distributed data management apparatus, method, and program capable of reducing the probability that the same node manages both the original and the replica of data.
本発明では、この分散データ管理プログラムを用いる際、データの複製を置くことでノード故障時のデータの耐障害性を高める手法において発生する問題点をノードのIDの生成方法とデータの複製のIDの算出方法に、単純なハッシュ関数以上の処理を施すことで、確率的に解決する。 In the present invention, when this distributed data management program is used, the problem that occurs in the method of enhancing the fault tolerance of data at the time of a node failure by placing a copy of the data is to generate the node ID and the ID of the data copy. The calculation method is subjected to processing more than a simple hash function to solve it probabilistically.
図1は、本発明の原理構成図である。 FIG. 1 is a principle configuration diagram of the present invention.
本発明(請求項1)は、入力値の法則とは無関係な法則性のない出力を返す関数であるハッシュ関数を用いて求めたハッシュ値であるデータIDに近いノードIDを持つノードが対象データを管理する分散データ管理装置であって、
ハッシュ関数を保持するハッシュ関数記憶手段900と、
ある物理的なノードに設定する複数の仮想ノードIDを生成する仮想ノードID生成手段1000を有し、
仮想ノードID生成手段1000は、
任意の手段によって算出された上位無作為値と下位無作為値との間に、物理的なノード毎の固有の値にハッシュ関数記憶手段900のハッシュ関数を用いて算出されたノード固有値を設定することにより仮想ノードIDを生成するノード固有値挿入手段1010を有する。
According to the present invention (claim 1), a node having a node ID close to a data ID that is a hash value obtained using a hash function that is a function that returns an output having no law unrelated to the law of the input value is subject data. A distributed data management device for managing
Hash function storage means 900 for holding a hash function;
A virtual node
The virtual node
A node unique value calculated using the hash function of the hash
また、本発明(請求項2)は、他のノードから自装置が担当すべきデータのデータID、キー、データを取得する通信手段と、
データの複製を示す複製のIDを算出する複製データID算出手段と、を更に有し、
複製データID算出手段は、
通信手段により取得した元のデータIDの前記ノード固有値に相当する箇所を、元のデータを保持しているノードIDとは別のノードIDの値をハッシュ値と組み合わせて変換する固有値部分変換手段を有する。
Further, the present invention (claim 2) is a communication means for acquiring the data ID, key, and data of the data to be handled by the own device from another node;
A copy data ID calculating means for calculating a copy ID indicating data copy;
The duplicate data ID calculation means
Eigenvalue partial conversion means for converting a portion corresponding to the node specific value of the original data ID acquired by the communication means by combining a value of a node ID different from the node ID holding the original data with a hash value Have.
本発明(請求項3)は、入力値の法則とは無関係な法則性のない出力を返す関数であるハッシュ関数を用いて求めたハッシュ値であるデータIDに近いノードIDを持つノードが対象データを管理する装置における分散データ管理方法であって、
装置の仮想ノードID生成手段が、
任意の手段によって算出された上位無作為値と下位無作為値との間に、物理的なノード毎の固有の値にハッシュ関数を用いて算出されたノード固有値を設定することにより前記仮想ノードIDを生成する。
According to the present invention (Claim 3), a node having a node ID close to a data ID that is a hash value obtained by using a hash function that is a function that returns an output having no law unrelated to the law of the input value is subject data. A distributed data management method in a device for managing
The virtual node ID generation means of the device is
The virtual node ID is set by setting a node unique value calculated by using a hash function to a unique value for each physical node between the upper random value and the lower random value calculated by an arbitrary means. Is generated.
また、本発明(請求項4)は、装置の複製データID算出手段が、
他のノードから通信手段を介して自装置が担当すべきデータのデータID、キー、データを取得し、
通信手段により取得した元のデータIDの前記ノード固有値に相当する箇所を変換する。
According to the present invention (claim 4), the duplicate data ID calculation means of the device
Obtain the data ID, key, and data of the data that the device should be in charge of from other nodes via communication means,
A portion corresponding to the node specific value of the original data ID acquired by the communication means is converted.
本発明(請求項5)は、請求項1または2に記載の分散データ管理装置の各手段としてコンピュータを機能させるための分散データ管理プログラムである。 The present invention (Claim 5) is a distributed data management program for causing a computer to function as each means of the distributed data management apparatus according to Claim 1 or 2.
上記のように本発明は、ノードIDの途中、上位数ビットと下位数ビットの間の残り数ビット部分に、物理的なノード毎に固有の値をもち、そのノードの全ての仮想ノードIDに共通の値(ノード固有値)を持つ。また、オリジナルのデータIDからノード固有値に相当する箇所を変更することでデータの複製のデータIDを算出する。これにより、分散データ管理プログラムにおけるデータ複製によるデータ冗長性の向上と、仮想ノードIDの生成によるID空間上のIDの偏りの回避とを両立することができるため、分散データ管理プログラムを用いて失われては困るデータを扱う全てのアプリケーションにおいて、障害に対してもデータの失われることのない、耐障害性が高くかつ各ノードの利用効率に優れたデータ管理を行うことができる。 As described above, the present invention has a unique value for each physical node in the remaining several bits between the upper few bits and the lower few bits in the middle of the node ID, and all the virtual node IDs of the node have a unique value. Has a common value (node-specific value). Further, the data ID of the duplicate of the data is calculated by changing the portion corresponding to the node specific value from the original data ID. As a result, it is possible to achieve both improvement in data redundancy by data replication in the distributed data management program and avoidance of ID bias in the ID space by generation of virtual node IDs. In all applications that handle data that is difficult for us, it is possible to perform data management with high fault tolerance and excellent use efficiency of each node without data loss even in the event of a failure.
以下、図面と共に本発明の実施の形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図2は、ノードIDの構成を示す。同図(A)は、従来のノードID200であり、同図(B)は本発明のノードID100の構成を示す。 FIG. 2 shows the configuration of the node ID. FIG. 2A shows a conventional node ID 200, and FIG. 2B shows the configuration of the node ID 100 of the present invention.
前述の課題に対し、本発明ではノードID100の途中の、上位数ビット110と下位数ビット130の間の残り数ビット部分に、物理的なノード毎に固有のノード固有値120を設定する(図2(B))。このノード固有値は上述の既存解決手段における最上位数ビットに設定したノード固有値と同様、物理的なノード毎に固有の値を持ち、そのノードの全ての仮想ノードIDに共通の値を持つ。 In the present invention, in the present invention, a unique node unique value 120 is set for each physical node in the remaining few bits between the upper few bits 110 and the lower few bits 130 in the middle of the node ID 100 (FIG. 2). (B)). This node unique value has a unique value for each physical node as well as the node unique value set in the most significant bit in the existing solution described above, and has a value common to all virtual node IDs of the node.
例えば、あるノードのノード固有値が「0010」で、これがノードIDの9〜12ビット目に相当する場合、そのノードの全ての仮想ノードIDの9〜12ビット目はノード固有値である「0010」となる。 For example, when the node unique value of a certain node is “0010” and this corresponds to the 9th to 12th bits of the node ID, the 9th to 12th bits of all the virtual node IDs of the node are “0010” which is the node unique value. Become.
また、データの複製のデータIDの算出方法についても、オリジナルのデータIDから、ノード固有値に相当する箇所を変更することで算出するものとする。 Also, the method for calculating the data ID of the data copy is calculated by changing the part corresponding to the node specific value from the original data ID.
例えば、ノードID中のノード固有値が9〜12ビット目に存在するとした場合、データの複製のデータIDは、9〜12ビット目が異なった値を取る。仮にオリジナルのデータのデータIDの9〜12ビット目が「1011」であった場合、複製のデータIDの9〜12ビット目は「1100」、「1101」、「1110」といったように、「1011」以外の値を取る。この際、「1011」以外の値の取り方・法則性については、オリジナルのデータIDにおける該当箇所と「離れている」ことが条件であるが、この「離れている」という概念については本発明を適用する分散データ管理プログラム毎に異なるため、本明細書では値の変更の仕方については限定しない。なお、代表的な例については後述する。 For example, if the node unique value in the node ID is present in the 9th to 12th bits, the data ID of the data copy takes a different value in the 9th to 12th bits. If the 9th to 12th bits of the data ID of the original data are “1011”, the 9th to 12th bits of the duplicate data ID are “1011” such as “1100”, “1101”, “1110”. Take a value other than At this time, regarding the method of taking a value other than “1011” and the legality, it is necessary to be “separated” from the corresponding part in the original data ID. Therefore, the method of changing the value is not limited in this specification. A typical example will be described later.
本発明の分散データ管理プログラムは、パーソナルコンピュータやサーバ等の一般に広く用いられている計算機(ノード)上のプログラムであり、複数のノード上で実行されたプログラム同士で協調し、データの管理を行うものである。 The distributed data management program of the present invention is a program on a widely used computer (node) such as a personal computer or a server, and the programs executed on a plurality of nodes cooperate to manage data. Is.
分散データ管理プログラムをデータ管理に利用するアプリケーションからは、擬似的に1つのハッシュ表のようなデータ管理システムに見え、実際には分散されていることを意識することなくデータ管理に利用することができる。 From an application that uses a distributed data management program for data management, it appears to be a data management system that looks like a single hash table, and can be used for data management without being conscious of being actually distributed. it can.
分散データ管理プログラムは、主にインターネットやインターネット・プロトコル(IP)によるローカルエリアネットワークにおいて用いられることを想定されている。 The distributed data management program is assumed to be used mainly in a local area network based on the Internet or Internet Protocol (IP).
図3は、本発明の一実施の形態におけるシステム構成図であり、ネットワーク1200に接続された分散データ管理プログラムのノードの関係を示すものである。各ノード(300A〜300F)間にはどれが主でどれが従であるといったような主従関係はなく、全てのノードの関係が平等である。ID空間の偏りによっては各ノード間で担当するデータ量に大小が発生する可能性があるが、各ノードの役割としては平等である。
FIG. 3 is a system configuration diagram according to an embodiment of the present invention, and shows the relationship of nodes of the distributed data management program connected to the
図4は、本発明の一実施の形態におけるノードの構成図である。以下、ノード300が備える各機能について説明する。ノード300は、自ノードID管理部400、他ノード管理部500、ハッシュ表管理部600、通信部700、探索部800、ハッシュ関数900、仮想ノードID生成部1000、複製データID算出部1100からなる。これらの各構成要素のうち、自ノードID管理部400、他ノード管理部500、ハッシュ表管理部600、通信部700、探索部800、ハッシュ関数900は、従来の構成と共通のものであり、本発明に特有となる部分は仮想ノードID生成部1000中のノード固有値挿入部1010と、複製データID算出部1100中の固有値部分変換部1110である。
FIG. 4 is a configuration diagram of a node according to an embodiment of the present invention. Hereinafter, each function with which the
自ノードID管理部400は自ノードID410を、他ノード管理部500は、ノードID510とアドレス520を、ハッシュ表管理部600は、データID610、キー620、データ値630を、それぞれメモリ等の記憶手段に格納している。また、ハッシュ関数900は、メモリ等の記憶手段に格納されているものとする。
The own node
ノード300はその起動時に、自らのノードIDの算出を行うとき、他のノードの構成する分散データ管理システムに通信部700を用いて接続を行い、システムのその時点の状態や他のノードの情報等を取得する。
When the
通信部700は分散データ管理プログラムを実行する各ノードが他のノードと通信し情報のやり取りを行うことに用いられる。 The communication unit 700 is used when each node executing the distributed data management program communicates with other nodes to exchange information.
自らのノードIDは、一般にIPアドレスやその他の一意な識別子等のノードに固有の値を入力として、ハッシュ関数900を用いて算出される。ここで言うハッシュ関数とは前述の通り、入力値の法則とは無関係な、法則性のない出力を返す関数のことである。代表的なハッシュ関数にはSHA−1やMD5といったものが挙げられるが、本発明の手法ではハッシュ関数900を特定のハッシュ関数には限定せず、またハッシュ関数900によって得られるハッシュ値の大きさについても限定しない。
The own node ID is generally calculated using a
自ノードID管理部400は、このようなハッシュ関数900によって算出されたノード自身のノードID410Aを管理する機能であると共に、後述する自身の仮想ノードIDをノードID410B〜410Cとして管理する。
The own node
ノード300は分散データ管理プログラムの起動後、自身のノードIDを計算すると共に、他のノードからシステムの現在の状態(参加している他のノードの情報と、参加したノードが管理すべきデータの情報)を、通信部700を用いて受け取る。
After starting the distributed data management program, the
参加している他のノードの情報(ノード毎のノードIDと通信部700で用いるノードの通信先情報(アドレス))は、ノード300の他ノード管理部500において、ノードID510とアドレス520の対として、他のノード毎にノードID510A〜510C、アドレス520A〜520Cとして管理される。
Information on other participating nodes (node ID for each node and communication destination information (address) of the node used in the communication unit 700) is stored as a pair of the node ID 510 and the address 520 in the other
ここで、仮想ノードIDのような仕組みを用いる場合、他ノード管理部500において物理的なノード毎にその仮想ノードIDとアドレスの対を管理する形も考えられるが、本発明においては物理的なノード毎の管理は必要条件ではないため、簡略化してノードIDとアドレスの対という形で記述する。この場合、他の物理的なノードの複数の仮想ノードIDが非連続に他ノード管理機能に表れ、場合によっては同じアドレスを指し示すような形で格納される。
Here, when a mechanism such as a virtual node ID is used, a form in which the virtual node ID / address pair is managed for each physical node in the other
なお、自ノードID管理部400および他ノード管理部500におけるノードIDの形式は、ここでは省略しているが図2(B)におけるノードID100に相当する構造を取る。
Note that the node ID formats in the own node
ノード300は他のノードから通信部700を介して、自身が担当すべきデータについて、そのデータID、キー、データの値の3つの情報を受け取る。
The
これはハッシュ表管理部600において、データ毎にデータID610、キー620、データ値630の組み合わせとして、データID610A〜610C、キー620A〜620C、値630A〜630Cとして管理される。なお、データキー610A〜610Cの形は基本的にはノードID100と同様の構成となり、データの複製毎にノード固有値120に相当する箇所を後述する複製データID算出部1100の固有値部分変換部1110によって変換する形となる。
This is managed in the hash
これらの分散データ管理プログラムの起動時に行われる初期化処理が終了した後は、アプリケーションからのデータの探索要求や格納要求を通信部700によって受け、対応する処理を行うこととなる。 After the initialization process performed at the time of starting these distributed data management programs is completed, the communication unit 700 receives a data search request or storage request from the application, and performs a corresponding process.
探索要求はノード300の探索部800に送られる。探索要求はデータのキー620に相当するデータを取得するもので、ノード300の探索部800は、キー620をハッシュ関数にかけて得られたデータID610を管理するノードを他ノード管理部500から探し出す。ここでもし自身がキー610で指定されたデータを管理するノードだった場合は、自身のハッシュ表管理部600から対応するデータを取り出し、これを要求元へと送信する。もし自身以外のノードが管理するデータだった場合は、そのノードのアドレスを他ノード管理部500を参照して取得し、このノードに対し要求を転送する。
The search request is sent to the
この際、対象のデータを管理しているはずのノードが故障等によりシステムから離脱しており、対象のデータが取得できない場合には、後述する複製データID算出部1100においてその複製のデータID610をキー620より算出し、その複製データID610を管理するノードへと要求を転送する形となる。また、複製データの取得にはこのような要求の失敗時にのみ行う形の他、高速化のためにオリジナルと一定数の複製へと要求を転送し、もっとも速く返ってきたデータを要求の結果として採用するといった形が考えられる。
At this time, if the node that should manage the target data has left the system due to a failure or the like and the target data cannot be acquired, the replication data
アプリケーションからのデータの格納要求は、アプリケーションより渡されたデータのキーをハッシュ関数にかけ、データIDを算出するところから始まる。ここで得られたデータIDを管理すべきノードを、他ノード管理部500を参照することで取得し、そのノードのアドレスに対しデータIDとアプリケーションより渡されたキーと値を送る。このデータを受け取ったノードは自身のハッシュ表管理部600においてこのデータを管理する。
The data storage request from the application starts by calculating the data ID by applying the key of the data passed from the application to the hash function. The node that should manage the data ID obtained here is acquired by referring to the other
データの複製を用いる場合は、格納要求の受信時に、複製のデータIDを複製データID算出部1100において算出する。固有値部分変換部1110における算出方法の具体例については後述する。
When data replication is used, the replication data
以下、オリジナルのデータの格納時の動作と同様に、生成された複製データIDを管理するノードを他ノード管理部500によって取得し、対象のノードに対して複製のデータID、キー、値を送る。複製データを受け取ったノードは自身のハッシュ表管理部600においてこの複製データを管理する。
Thereafter, similarly to the operation at the time of storing the original data, the node that manages the generated duplicate data ID is acquired by the other
なお、データのオリジナルと複製との間で一貫性を維持するため、一般には何らかのトランザクション管理の仕組みを適用することが考えられるため、本発明ではオリジナルと複製のデータの書き込みの順序を本実施例における順序に限定するものではない。 In order to maintain consistency between the original and duplicate of data, it is generally possible to apply some kind of transaction management mechanism. Therefore, in the present invention, the order of writing the original and duplicated data is determined in this embodiment. It is not limited to the order.
以下、本発明におけるノード固有値挿入部1010と固有値部分変換部1110のそれぞれの動作の例について説明する。
Hereinafter, examples of operations of the node
図5は、本発明の一実施の形態における仮想ノードIDの生成例であり、仮想ノードID生成部1000及びノード固有値挿入部1010による仮想ノードIDの生成例を示している。ここでは例としてノードIDを32ビットの値としている。この例では上位8ビットが上位無作為値110であり、続く4ビットがノード固有値120、下位の20ビットが下位無作為値130に相当する。ここでノードIDaをオリジナルのノードIDとした場合、このノードIDaにおけるノード固有値(0110)をこの物理的なノードにおけるノード固有値として固定する。以後、仮想ノードID(ノードIDb、ノードIDc、…)の算出時には常にノード固有値部分(上位9〜12ビット目)をこのノード固有値(0110)に固定する。
FIG. 5 shows a generation example of the virtual node ID according to the embodiment of the present invention, and shows a generation example of the virtual node ID by the virtual node
なお、仮想ノードID算出時における上位無作為値と下位無作為値は任意の手段によって算出された無作為値である。一般には、ノードのIPアドレスの末尾に仮想ノードIDの順番を付与したものを入力としてハッシュ関数に掛けた戻り値等を用いる。 The upper random value and the lower random value at the time of calculating the virtual node ID are random values calculated by any means. In general, a return value or the like obtained by multiplying a hash function with an input of a virtual node ID order at the end of a node IP address is used.
次に、複製データID算出部1100における固有値部分変換部1110による複製データIDの算出方法を、図6及び図7の例を用いて述べる。
Next, a method for calculating a duplicate data ID by the eigenvalue
図6は、本発明の一実施の形態における分散データ管理プログラムにおける複製データIDの生成例(IDを生成として扱い、その差を距離と置いた場合)を示し、図7は、本発明の一実施の形態における複製データIDの生成例((IDビット列間の排他論理和の値を距離としておいた場合)を示す。ここで、どのノードがどのデータを格納するかを判定する基準によって、複製のデータIDの算出方法が変わってくる。 FIG. 6 shows a generation example of a duplicate data ID in the distributed data management program according to an embodiment of the present invention (when ID is treated as a generation and the difference is set as a distance), and FIG. An example of generation of duplicate data ID in the embodiment (when the value of the exclusive OR between ID bit strings is set as the distance) is shown. Here, the duplicate is determined according to the criteria for determining which node stores which data. The calculation method of the data ID changes.
図6は最も一般的な、ノードIDおよびデータIDを整数と見立てて、データIDに対して最も近いノードID、あるいはデータIDよりも整数としての値が小さくかつ最も近いノードIDを持つノードにおいてデータを格納する、という判定基準を持つ分散データ管理プログラムにおける複製データIDの生成例である。 FIG. 6 shows the most common node ID and data ID as integers, and the data at a node ID closest to the data ID, or a node having a closest node ID whose integer value is smaller than the data ID. This is an example of generating a duplicate data ID in a distributed data management program having a determination criterion of storing.
オリジナルのデータID(本来データID)の、ノードIDにおけるノード固有値に相当する箇所(9〜12ビット目)が(0010)である。複製データIDはこのノード固有値に相当する箇所を固有値部分変換部1110によって変換することで生成される。この例では、データID中の固有値部分(0010)に、複製データID毎のビットマスク(1000、0100、1100、0010)の排他的論理和(XOR)をかけることで、固有値部分をそれぞれ(1010、0110、1110、0000)に変換している。
A portion (9th to 12th bits) corresponding to the node unique value in the node ID of the original data ID (original data ID) is (0010). The duplicate data ID is generated by converting a portion corresponding to the node eigenvalue by the eigenvalue
これにより複製データIDは、本来データIDと上位8ビットについては良く似た値を持ちながら、固有値に相当する4ビットについては本来データIDと整数の差による距離の概念においてかけ離れた値を取ることとなり、本来データIDを仮想ノードIDの1つとして持つ物理的ノードが、複製データについても管理する確率を減らしている。 As a result, the duplicate data ID originally has a value that is very similar to the upper 8 bits of the data ID, but the 4 bits corresponding to the unique value take values that are far from each other in terms of the distance due to the difference between the data ID and the integer. Thus, the probability that a physical node that originally has a data ID as one of the virtual node IDs also manages duplicated data is reduced.
図7は、ノードIDとデータIDとの排他的論理和の値(整数)をID間の距離と考え、この距離が最も小さいノードIDを持つノードにおいてデータを格納する、という判定基準を持つ分散データ管理プログラムにおける複製データIDの生成例である。 FIG. 7 considers a value (integer) of an exclusive OR of a node ID and a data ID as a distance between IDs, and has a determination criterion that data is stored in a node having a node ID with the smallest distance. It is an example of generation of duplicate data ID in the data management program.
オリジナルのデータID(本来データID)の、ノードIDにおけるノード固有値に相当する箇所(9〜12ビット目)は上記の例と同様に(0010)である。複製データIDはこのノード固有値に相当する箇所を固有値部分変換部1110によって変換することで生成される。この例では、データID中の固有値部分(0010)に、複製データID毎のビットマスク(1111、0111、1011、0011)の排他的論理和(XOR)をかけることで、固有値部分をそれぞれ(1101、0101、1001、0001)に変換している。
The portion (9th to 12th bits) corresponding to the node unique value in the node ID of the original data ID (original data ID) is (0010) as in the above example. The duplicate data ID is generated by converting a portion corresponding to the node eigenvalue by the eigenvalue
これにより複製データIDは、本来データIDと上位8ビットについては良く似た値を持ちながら、固有値に相当する4ビットについては本来データIDと排他的論理和による距離の概念においてかけ離れた値を取ることとなり、本来データIDを仮想ノードIDの1つとして持つ物理的ノードが、複製データについても管理する確率を減らしている。 As a result, the duplicate data ID originally has a value that is very similar to the upper 8 bits of the data ID, but takes a value that is far from the original data ID and the concept of exclusive OR for the 4 bits corresponding to the unique value. In other words, the probability that a physical node that originally has a data ID as one of the virtual node IDs also manages duplicated data is reduced.
上記の実施の形態に示した方法により、前述の課題におけるID空間上でのノードIDの偏りを抑え、かつデータのオリジナルと複製の両方を物理的に同一のノードが管理する確率を減らす。この2つの特徴はトレードオフの関係になっており、ノード固有値の上位に位置する無作為値(ハッシュ関数によって得られた法則性のない値)のサイズが小さければID空間の偏りが大きくなり、逆に大きくすると同一のノードがオリジナルと複製の両方を管理する確率が大きくなる。 By the method shown in the above embodiment, the bias of the node ID on the ID space in the above-mentioned problem is suppressed, and the probability that the same node manages both the original and the replica of the data is reduced. These two features are in a trade-off relationship, and if the size of a random value (a value without a law property obtained by a hash function) located at the top of the node eigenvalue is small, the bias of the ID space becomes large, On the other hand, when the size is increased, the probability that the same node manages both the original and the copy increases.
本発明では、ノードIDの生成手法とデータIDの生成・算出方法のみを変更するため、それ以外の分散データ管理プログラムの仕様はそのまま引き継ぐことが可能であり、前述したコンシステント・ハッシングや分散ハッシュテーブル、分散キー・バリュー・ストアの全てに適用することができる。 In the present invention, since only the node ID generation method and the data ID generation / calculation method are changed, the specifications of the other distributed data management programs can be inherited as they are. It can be applied to all tables and distributed key / value stores.
また、図4に示すノード300の各構成要素の機能をプログラムとして構築し、ノードとして利用されるコンピュータにインストールして実行させる、または、ネットワークを介して流通させることが可能である。
Further, the function of each component of the
また、構築されたプログラムをハードディスクや、フレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールする、または、配布することが可能である。 Further, the constructed program can be stored in a portable storage medium such as a hard disk, a flexible disk, or a CD-ROM, and can be installed or distributed in a computer.
なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。 The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.
100 ノードID
110 上位無作為値
120 ノード固有値
130 下位無作為値
200 ノードID
210 無作為値
300 ノード
400 自ノードID管理部
410 ノードID
500 他ノード管理部
510 ノードID
520 アドレス
600 ハッシュ表管理部
610 データID
620 キー
630 データの値
700 通信部
800 探索部
900 ハッシュ関数
1000 仮想ノードID生成部
1010 ノード固有値挿入部
1100 複製データID算出部
1110 固有値部分変換部
1200 ネットワーク
100 Node ID
110 Upper random value 120 Node specific value 130 Lower random value 200 Node ID
210
500 Other node management unit 510 Node ID
520
620 Key 630 Data value 700
Claims (5)
ハッシュ関数を保持するハッシュ関数記憶手段と、
ある物理的なノードに設定する複数の仮想ノードIDを生成する仮想ノードID生成手段を有し、
前記仮想ノードID生成手段は、
任意の手段によって算出された上位無作為値と下位無作為値との間に、物理的なノード毎の固有の値に前記ハッシュ関数記憶手段の前記ハッシュ関数を用いて算出されたノード固有値を設定することにより前記仮想ノードIDを生成するノード固有値挿入手段を有することを特徴とする分散データ管理装置。 A distributed data management apparatus in which a node having a node ID close to a data ID that is a hash value obtained using a hash function that returns an output having no law unrelated to the input value law manages target data. And
A hash function storage means for holding a hash function;
A virtual node ID generating means for generating a plurality of virtual node IDs to be set in a certain physical node;
The virtual node ID generation means includes
A node unique value calculated using the hash function of the hash function storage means is set to a unique value for each physical node between the upper random value and the lower random value calculated by any means. A distributed data management apparatus comprising node unique value insertion means for generating the virtual node ID.
前記データの複製を示す複製のIDを算出する複製データID算出手段と、を更に有し、
前記複製データID算出手段は、
前記通信手段により取得した元のデータIDの前記ノード固有値に相当する箇所を、元のデータを保持しているノードIDとは別のノードIDの値をハッシュ値と組み合わせて変換する固有値部分変換手段を有することを特徴とする請求項1記載の分散データ管理装置。 A communication means for acquiring the data ID, key, and data of the data to be handled by the own device from another node;
Copy data ID calculating means for calculating a copy ID indicating a copy of the data,
The duplicate data ID calculation means
Eigen value partial conversion means for converting a portion corresponding to the node unique value of the original data ID acquired by the communication means by combining a value of a node ID different from the node ID holding the original data with a hash value 2. The distributed data management apparatus according to claim 1, further comprising:
前記装置の仮想ノードID生成手段が、
任意の手段によって算出された上位無作為値と下位無作為値との間に、物理的なノード毎の固有の値に前記ハッシュ関数を用いて算出されたノード固有値を設定することにより前記仮想ノードIDを生成する
ことを特徴とする分散データ管理方法。 A distributed data management method in a device in which a node having a node ID close to a data ID that is a hash value obtained using a hash function that is a function that returns an output having no law unrelated to the input value law manages target data Because
The virtual node ID generation means of the device is
By setting a node unique value calculated using the hash function to a unique value for each physical node between the upper random value and the lower random value calculated by any means, the virtual node A distributed data management method characterized by generating an ID.
他のノードから通信手段を介して自装置が担当すべきデータのデータID、キー、データを取得し、
前記通信手段により取得した元のデータIDの前記ノード固有値に相当する箇所を変換する
ことを特徴とする請求項3記載の分散データ管理方法。 The duplicate data ID calculation means of the device is
Obtain the data ID, key, and data of the data that the device should be in charge of from other nodes via communication means,
4. The distributed data management method according to claim 3, wherein a portion corresponding to the node specific value of the original data ID acquired by the communication means is converted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009248873A JP2011095976A (en) | 2009-10-29 | 2009-10-29 | Device, method and program for distributed data management |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009248873A JP2011095976A (en) | 2009-10-29 | 2009-10-29 | Device, method and program for distributed data management |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011095976A true JP2011095976A (en) | 2011-05-12 |
Family
ID=44112815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009248873A Pending JP2011095976A (en) | 2009-10-29 | 2009-10-29 | Device, method and program for distributed data management |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011095976A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013037456A (en) * | 2011-08-05 | 2013-02-21 | Nippon Telegr & Teleph Corp <Ntt> | Condition retrieval data storage method, condition retrieval database cluster system, dispatcher and program |
JP2013182399A (en) * | 2012-03-01 | 2013-09-12 | Nippon Telegr & Teleph Corp <Ntt> | Load distribution program and load distribution device |
JP2013218481A (en) * | 2012-04-06 | 2013-10-24 | Nippon Telegr & Teleph Corp <Ntt> | Database system |
JP2014041550A (en) * | 2012-08-23 | 2014-03-06 | Nippon Telegr & Teleph Corp <Ntt> | Data migration processing system and data migration processing method |
US9015124B2 (en) | 2012-03-28 | 2015-04-21 | Fujitsu Limited | Replication system and method of rebuilding replication configuration |
JP2015512551A (en) * | 2012-04-06 | 2015-04-27 | エグザブロックス・コーポレーション | A consistent ring namespace that facilitates data storage and organization in network infrastructure |
US9514137B2 (en) | 2013-06-12 | 2016-12-06 | Exablox Corporation | Hybrid garbage collection |
US9552382B2 (en) | 2013-04-23 | 2017-01-24 | Exablox Corporation | Reference counter integrity checking |
US9715521B2 (en) | 2013-06-19 | 2017-07-25 | Storagecraft Technology Corporation | Data scrubbing in cluster-based storage systems |
US9774582B2 (en) | 2014-02-03 | 2017-09-26 | Exablox Corporation | Private cloud connected device cluster architecture |
US9830324B2 (en) | 2014-02-04 | 2017-11-28 | Exablox Corporation | Content based organization of file systems |
US9846553B2 (en) | 2016-05-04 | 2017-12-19 | Exablox Corporation | Organization and management of key-value stores |
US9934242B2 (en) | 2013-07-10 | 2018-04-03 | Exablox Corporation | Replication of data between mirrored data sites |
US9985829B2 (en) | 2013-12-12 | 2018-05-29 | Exablox Corporation | Management and provisioning of cloud connected devices |
US10248556B2 (en) | 2013-10-16 | 2019-04-02 | Exablox Corporation | Forward-only paged data storage management where virtual cursor moves in only one direction from header of a session to data field of the session |
US10474654B2 (en) | 2015-08-26 | 2019-11-12 | Storagecraft Technology Corporation | Structural data transfer over a network |
-
2009
- 2009-10-29 JP JP2009248873A patent/JP2011095976A/en active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013037456A (en) * | 2011-08-05 | 2013-02-21 | Nippon Telegr & Teleph Corp <Ntt> | Condition retrieval data storage method, condition retrieval database cluster system, dispatcher and program |
JP2013182399A (en) * | 2012-03-01 | 2013-09-12 | Nippon Telegr & Teleph Corp <Ntt> | Load distribution program and load distribution device |
US9015124B2 (en) | 2012-03-28 | 2015-04-21 | Fujitsu Limited | Replication system and method of rebuilding replication configuration |
US9628438B2 (en) | 2012-04-06 | 2017-04-18 | Exablox | Consistent ring namespaces facilitating data storage and organization in network infrastructures |
JP2015512551A (en) * | 2012-04-06 | 2015-04-27 | エグザブロックス・コーポレーション | A consistent ring namespace that facilitates data storage and organization in network infrastructure |
JP2013218481A (en) * | 2012-04-06 | 2013-10-24 | Nippon Telegr & Teleph Corp <Ntt> | Database system |
JP2014041550A (en) * | 2012-08-23 | 2014-03-06 | Nippon Telegr & Teleph Corp <Ntt> | Data migration processing system and data migration processing method |
US9552382B2 (en) | 2013-04-23 | 2017-01-24 | Exablox Corporation | Reference counter integrity checking |
US9514137B2 (en) | 2013-06-12 | 2016-12-06 | Exablox Corporation | Hybrid garbage collection |
US9715521B2 (en) | 2013-06-19 | 2017-07-25 | Storagecraft Technology Corporation | Data scrubbing in cluster-based storage systems |
US9934242B2 (en) | 2013-07-10 | 2018-04-03 | Exablox Corporation | Replication of data between mirrored data sites |
US10248556B2 (en) | 2013-10-16 | 2019-04-02 | Exablox Corporation | Forward-only paged data storage management where virtual cursor moves in only one direction from header of a session to data field of the session |
US9985829B2 (en) | 2013-12-12 | 2018-05-29 | Exablox Corporation | Management and provisioning of cloud connected devices |
US9774582B2 (en) | 2014-02-03 | 2017-09-26 | Exablox Corporation | Private cloud connected device cluster architecture |
US9830324B2 (en) | 2014-02-04 | 2017-11-28 | Exablox Corporation | Content based organization of file systems |
US10474654B2 (en) | 2015-08-26 | 2019-11-12 | Storagecraft Technology Corporation | Structural data transfer over a network |
US9846553B2 (en) | 2016-05-04 | 2017-12-19 | Exablox Corporation | Organization and management of key-value stores |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011095976A (en) | Device, method and program for distributed data management | |
Zheng et al. | Meepo: Sharded consortium blockchain | |
Jiang et al. | A secure and scalable storage system for aggregate data in IoT | |
Chen et al. | Towards scalable and reliable in-memory storage system: A case study with Redis | |
JP7270755B2 (en) | Metadata routing in distributed systems | |
WO2015200503A1 (en) | Distributed key-value store | |
JP2011150702A (en) | System, method and programming for routing and indexing globally addressable objects and associated business models | |
Li et al. | A convergence of key‐value storage systems from clouds to supercomputers | |
JP2010074604A (en) | Data access system, data access method and data access program | |
Dev et al. | Dr. Hadoop: an infinite scalable metadata management for Hadoop—How the baby elephant becomes immortal | |
CN104951475B (en) | Distributed file system and implementation method | |
Biswas et al. | A novel leader election algorithm based on resources for ring networks | |
CN114996053A (en) | Remote volume replication transmission method, system, device and storage medium | |
CN110362590A (en) | Data managing method, device, system, electronic equipment and computer-readable medium | |
JP4988915B2 (en) | Address resolution database | |
Ruan et al. | On the synchronization bottleneck of openstack swift-like cloud storage systems | |
US20100030787A1 (en) | Network coding with last modified dates for p2p web caching | |
Vijay | Survey on Role of Hadoop In Cloud Computing Environment | |
Vijayakumar et al. | FIR3: A fuzzy inference based reliable replica replacement strategy for cloud Data Centre | |
Pippal et al. | High availability of databases for cloud | |
Limam et al. | A self-adaptive conflict resolution with flexible consistency guarantee in the cloud computing | |
Thant et al. | Improving the availability of NoSQL databases for Cloud Storage | |
JP2019012318A (en) | Access control method, access control device and access control program | |
Kimm et al. | SCADIS: Supporting Reliable Scalability in Redis Replication on Demand | |
Li et al. | A multidimensional index for range queries over Cayley‐based DHT |