JP2017220846A - Maintenance reduction system, node and maintenance reduction method - Google Patents
Maintenance reduction system, node and maintenance reduction method Download PDFInfo
- Publication number
- JP2017220846A JP2017220846A JP2016115035A JP2016115035A JP2017220846A JP 2017220846 A JP2017220846 A JP 2017220846A JP 2016115035 A JP2016115035 A JP 2016115035A JP 2016115035 A JP2016115035 A JP 2016115035A JP 2017220846 A JP2017220846 A JP 2017220846A
- Authority
- JP
- Japan
- Prior art keywords
- node
- data
- original
- information
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Computer And Data Communications (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
Description
本発明は、ネットワーク上の複数のノードをクラスタ構成とした高可用システム(分散処理システム)において、保守者側からの指示等を契機にクラスタの一部のノードを、そのクラスタから離脱(減設)する、保守減設システム、ノードおよび保守減設方法に関する。 In the present invention, in a highly available system (distributed processing system) in which a plurality of nodes on a network are configured in a cluster configuration, some nodes of the cluster are removed from the cluster (reduced) in response to an instruction from the maintenance person. The present invention relates to a maintenance / reduction system, a node, and a maintenance / reduction method.
近年、クラウドコンピューティングの隆盛に伴い、多量のデータの処理や保持を効率的に行うことが求められている。そこで、複数のサーバを協調動作させることにより効率的な処理を実現する分散処理技術が発展している。 In recent years, with the rise of cloud computing, it has been required to efficiently process and retain a large amount of data. Thus, distributed processing technology has been developed that realizes efficient processing by operating a plurality of servers in a coordinated manner.
分散処理を行う際には、クラスタ構成からなる分散処理システムを構成する各サーバ(以下、「ノード」と称する。)が担当するデータを決定する必要がある。このとき、分散処理システム全体での処理能力を高めるためには、各ノードが担当するデータ数は平均化されていることが望ましい。 When performing distributed processing, it is necessary to determine data to be handled by each server (hereinafter referred to as “node”) constituting a distributed processing system having a cluster configuration. At this time, in order to increase the processing capability of the entire distributed processing system, it is desirable that the number of data handled by each node is averaged.
代表的なデータの管理手法として、各データのkeyをハッシュ関数にかけた値(以下、「hash(key)」と称する。)をノード数Nで割った余り、即ち「hash(key) mod N」を番号として持つノードがデータを管理する手法がある。この場合、各ノードに事前に「0」から「N−1」までの番号を割り当てていることが前提となる。このような管理手法を用いた場合、ノードの追加・離脱が発生すると、Nの値が変化して、多くのデータについて、そのデータの保存を担当するノードが変更になるため、担当するデータを再配置することが必要になる。 As a representative data management method, a remainder obtained by dividing a value obtained by multiplying the key of each data by a hash function (hereinafter referred to as “hash (key)”) by the number of nodes N, that is, “hash (key) mod N”. There is a method in which a node having a number as a number manages data. In this case, it is assumed that numbers “0” to “N−1” are assigned to each node in advance. When such a management method is used, when a node is added or removed, the value of N changes, and the node in charge of storing the data changes for a lot of data. It will be necessary to rearrange.
そこで、ノードの追加・離脱に伴い担当するノードが変更になるデータ数を約1/Nに抑える方法として、コンシステント・ハッシュ(Consistent Hashing)法(非特許文献1参照)を用いたデータ管理手法がある。 Therefore, as a method for suppressing the number of data that the node in charge changes with the addition / detachment of a node to about 1 / N, a data management method using a consistent hashing method (see Non-Patent Document 1). There is.
このコンシステント・ハッシュ法を用いたデータ管理手法では、ノードとデータの双方にID(IDentifier)を割り当てる。そして、データのIDから閉じたID空間を時計回りに辿った場合に最初に当たったノードをそのデータの担当とする。ノードに対するIDの与え方の例としては、IPアドレスをハッシュ関数にかけた値(hash(IPアドレス))が挙げられる。コンシステント・ハッシュ法を用いたデータ管理手法では、各ノードがそのデータの処理を担当するID空間上の領域を、ID表(後記する「振り分けID情報」)に基づき管理する。 In this data management method using the consistent hash method, IDs (IDentifiers) are assigned to both nodes and data. Then, when the closed ID space is traced clockwise from the ID of the data, the node that hits first is assumed to be in charge of the data. An example of how to give an ID to a node is a value (hash (IP address)) obtained by multiplying an IP address by a hash function. In the data management method using the consistent hash method, the area on the ID space where each node is responsible for processing the data is managed based on an ID table ("sorting ID information" described later).
上記のような、クラスタ構成の分散処理システムでは、例えば、サーバ(ノード)を定期点検したり、故障の疑いがあるノードを切り離したりするために、保守者(ネットワーク管理者)からの指示等を契機に、特定のノードが故障する前に、該当するノードをクラスタから安全に離脱させる機能を有する。この機能を、「保守減設」と呼ぶ。 In a distributed processing system with a cluster configuration as described above, for example, in order to periodically check a server (node) or to disconnect a node suspected of malfunctioning, an instruction from a maintenance person (network administrator), etc. As a trigger, it has a function of safely leaving the corresponding node from the cluster before a specific node fails. This function is called “maintenance reduction”.
保守減設は、従来、次の手順で実行される。
(1)保守者からの指示や、クラスタを構成するノードの減設を決定する所定のロジックに基づき、減設開始を決定する。
(2)減設するノード(以下、「減設ノード」と称する。)を削除した仮のID表を用いて、減設ノードの信号振り分けを停止する(以下、「振り分け先変更処理」と称する。)。
(3)冗長度を保つように、原本データの複製(複製データ)を再配置する(以下、「データ再配置」と称する。)。
(4)複製データを原本データに昇格させる(以下、「原本昇格」と称する。)。
(5)減設ノードを削除したID表に更新する(以下、「ID表更新」と称する。)。
(6)減設ノードをクラスタから切り離す。
The maintenance reduction is conventionally performed by the following procedure.
(1) The start of reduction is determined based on an instruction from the maintenance person and predetermined logic for determining the reduction of the nodes constituting the cluster.
(2) Using the temporary ID table from which the node to be removed (hereinafter referred to as “removed node”) is deleted, signal distribution of the reduced node is stopped (hereinafter referred to as “distribution destination changing process”). .)
(3) The original data copy (replicated data) is rearranged so as to maintain redundancy (hereinafter referred to as “data rearrangement”).
(4) Promote replicated data to original data (hereinafter referred to as “original promotion”).
(5) The reduced node is updated to the deleted ID table (hereinafter referred to as “ID table update”).
(6) Disconnect the removed node from the cluster.
以下、上記手順を詳細に説明する。
図7は、従来の分散処理システム(高可用システム)における保守減設の処理シーケンスを示す図である。
ここで、ネットワーク管理装置5は、分散処理システムを構成する各ノード1全体を管理する装置である。また、クラスタを構成する各ノード1は、減設対象となるノードである減設ノード1bと、クラスタを構成する各ノード1のうち減設ノード1b以外のノードである既存ノード1aと、既存ノード1aの中で、上記したID表の管理等を行い、ノード1の代表として動作する代表ノード1Aと、が存在する。
The above procedure will be described in detail below.
FIG. 7 is a diagram showing a maintenance reduction processing sequence in a conventional distributed processing system (high availability system).
Here, the network management device 5 is a device that manages the entire nodes 1 constituting the distributed processing system. Further, each node 1 constituting the cluster includes a
まず、代表ノード1Aは、減設ノード1bを、保守減設するノードとして決定する(ステップS1)。この減設するノード1を決定する処理は、例えば、ネットワーク管理装置5からの減設指示情報を受け取ることにより決定したり、各ノード1の状態(警報通知の内容や警報数)により決定したり、外部装置から受信した故障確率(詳細は後記)等により決定したりすることができる。
First, the
次に、代表ノード1Aは、決定した減設ノード1bに、信号が振り分けられないようにするため、振り分け先変更依頼をネットワーク管理装置5に送信する(ステップS2)。そして、ネットワーク管理装置5は、分散処理システムを構成する各ノード1のうち、減設ノード1bには、信号が振り分けられないように、例えば、振り分け元となるロードバランサの振り分け先の設定を変更する(ステップS3)。続いて、ネットワーク管理装置5は、振り分け先変更の完了通知を代表ノード1Aに送信する(ステップS4)。
Next, the
振り分け先変更の完了通知を受信した代表ノード1Aは、減設ノード1bを削除した仮ID表を生成する(ステップS5)。この仮ID表には、現状のID表から減設ノード1bを削除したID表であることを示す減設フラグ「+1」をたてておく。続いて、代表ノード1Aは、生成した仮ID表を既存ノード1aと減設ノード1bとに通知する(ステップS6)。そして、既存ノード1aと減設ノード1bとにおいて、仮ID表を取得し、記憶部に記憶する(ステップS7)。次に、既存ノード1aおよび減設ノード1bは、仮ID表を取得したことを示す完了通知を代表ノード1Aに送信する(ステップS8)。
The
代表ノード1Aは、すべての既存ノード1aと減設ノード1bとから仮ID表を取得したことを示す完了通知を受信すると、現状のID表を仮ID表に切り替える(ステップS9)。そして、代表ノード1Aは、仮ID表への切替通知を既存ノード1aと減設ノード1bとに送信する(ステップS10)。続いて、既存ノード1aおよび減設ノード1bは、現状のID表を仮ID表に切り替える(ステップS11)。そして、既存ノード1aおよび減設ノード1bは、仮ID表への切替が完了したことを示す完了通知を、代表ノード1Aに送信する(ステップS12)。
When the
代表ノード1Aは、すべての既存ノード1aと減設ノード1bとから仮ID表に切り替えたことを示す完了通知を受信すると、仮ID表に基づき、データの再配置処理を実行する(ステップS13)。具体的には、代表ノード1Aは、仮ID表に基づき、冗長度を保持するように複製データの再配置をする必要があるかチェックし、必要がある場合には複製データの再配置を実行する。この処理は、例えば、非特許文献2に記載の手法で行われる。続いて、代表ノード1Aは、複製データの原本データへの昇格処理を実行する。
When the
また、代表ノード1Aは、既存ノード1aと減設ノード1bに対して、データの再配置処理を実行することを示す再配置開始通知を送信する(ステップS14)。ここで、再配置開始通知を受信した既存ノード1aは、データの再配置処理(複製データの再配置、原本データの昇格処理)を実行する(ステップS15)。また、再配置開始通知を受信した減設ノード1bは、データの再配置処理(複製データの再配置)を実行する(ステップS15)。
Further, the
続いて、既存ノード1aおよび減設ノード1bは、複製データの再配置が終了すると、複製データ再配置完了通知(図7では「複製完了通知」と記載する。)を代表ノード1Aに送信する(ステップS16)。代表ノード1Aは、すべての既存ノード1aおよび減設ノード1bから複製データ再配置完了通知を受信すると、複製完了確認通知を既存ノード1aおよび減設ノード1bに送信する(ステップS17)。
次に、既存ノード1aは、複製完了確認通知を受信し、さらに、原本データの昇格処理が終了すると、データの再配置処理の完了通知を代表ノード1Aに送信する(ステップS18)。また、減設ノード1bは、複製完了確認通知を受信すると、データの再配置処理の完了通知を代表ノード1Aに送信する(ステップS18)。
Subsequently, when the rearrangement of the replicated data is completed, the
Next, the
代表ノード1Aは、すべての既存ノード1aおよび減設ノード1bから、データの再配置の完了通知を受信すると、仮ID表の減設フラグ「+1」を下げ、仮ID表により、現状のID表を更新する(ステップS19)。続いて、代表ノード1Aは、既存ノード1aに対し、ID表更新通知を送信する(ステップS20)。これにより、既存ノード1aは、仮ID表の減設フラグ「+1」を下げ、仮ID表により、現状のID表を更新する(ステップS21)。そして、既存ノード1aは、ID表を更新したことを示す完了通知を代表ノード1Aに送信する(ステップS22)。この完了通知を受信した代表ノード1Aは、ネットワーク管理装置5に対し、ノード1の減設に伴う処理の終了を示す、クラスタメンバ更新通知を送信する(ステップS23)。
When the
一方、代表ノード1Aは、ステップS19において、自身のID表を更新すると、減設ノード1bに対し、減設通知を送信する(ステップS24)。これにより、減設ノード1bは、すべての処理を終了し(ステップS25)、クラスタからの切り離しが行われる。
On the other hand, when the
この従来の保守減設における過渡期間は、図7に示すように、代表ノード1A、各既存ノード1aおよび減設ノード1bが、減設フラグ「1」をたてて仮ID表を自身に記憶してから(ステップS5、S7の処理)、データの再配置処理が終了し、最終的にID表を更新するまで(ステップS19、S21、S25の処理)となる。
As shown in FIG. 7, during the transition period in this conventional maintenance reduction, the
この保守減設は、故障の疑いのあるノードをクラスタから切り離すことを考慮すると、より迅速に処理することが求められる。つまり、過渡期間をできる限り短縮することが求められる。しかしながら、上記の手順によると、クラスタを構成するすべてのノードの再配置や原本昇格が完了しないと、この保守減設の処理が完了しない。また、保守減設中にノードの故障が発生してしまうと、保守減設処理が無効になる上、ロールバック等に伴い、余計なノード間のデータの複製や再配置によるネットワークコストおよび処理遅延が発生してしまう。 This maintenance reduction is required to be processed more quickly in consideration of disconnecting a node suspected of failure from the cluster. That is, it is required to shorten the transition period as much as possible. However, according to the above procedure, the maintenance reduction process is not completed unless the rearrangement of all the nodes constituting the cluster and the original promotion are completed. Also, if a node failure occurs during maintenance reduction, the maintenance reduction processing becomes invalid, and network costs and processing delays due to extra data replication and relocation between nodes due to rollback etc. Will occur.
このような背景を鑑みて本発明がなされたのであり、本発明は、クラスタからノードを切り離す保守減設にかかる処理時間を短縮する、保守減設システム、ノードおよび保守減設方法を提供することを課題とする。 The present invention has been made in view of such a background, and the present invention provides a maintenance / removal system, a node, and a maintenance / removal method that reduce the processing time required for the maintenance / removal to separate a node from a cluster. Is an issue.
前記した課題を解決するため、請求項1に記載の発明は、クラスタを構成する複数のノードそれぞれにメッセージを振り分けて処理させ、前記メッセージとして処理されたデータの原本である原本データとその複製である複製データとを異なる前記ノードに記憶させる高可用システムに備えられ、前記クラスタを構成する複数のノードのうちの一部のノードを減設する保守減設システムであって、前記ノードが、各ノードの識別情報を示すIDに対応付けて、各ノードが処理するデータの担当を示す振り分けID情報を記憶する記憶部と、前記複数のノードの中から減設対象となるノードを示す減設ノードを決定する減設ノード決定部と、前記減設ノードに対する前記メッセージの振り分けを停止し、前記減設ノードを除いた各ノードの前記データの担当を示す仮の振り分けID情報を生成する振り分け先変更処理部と、前記仮の振り分けID情報を用いて、前記減設ノードが減設されたときに前記原本データに昇格する複製データを、原本昇格対象データとして抽出し、前記抽出した原本昇格対象データと、前記減設ノードに記憶される前記原本データとの間で同期処理を実行する限定的同期処理部と、前記限定的同期処理部による同期処理の後に、前記原本昇格対象データを前記原本データに昇格させ、その後に、前記仮の振り分けID情報を用いて、現状の振り分けID情報を更新させる原本昇格処理部と、前記高可用システムに定められた冗長度を保つように、前記データの複製および再配置を実行するデータ再配置処理部と、を備えることを特徴とする保守減設システムとした。 In order to solve the above-described problem, the invention according to claim 1 is characterized in that a message is distributed to each of a plurality of nodes constituting a cluster and processed, and original data that is an original of the data processed as the message and a copy thereof. A maintenance / removal system provided in a high availability system for storing a certain replicated data in a different node, wherein a part of a plurality of nodes constituting the cluster is removed, A storage unit that stores distribution ID information that indicates the charge of data processed by each node in association with an ID that indicates node identification information, and a reduced node that indicates a node to be removed from the plurality of nodes A reduction node determination unit for determining the reduction node, and the distribution of the message to the reduction node is stopped, and the nodes of the nodes other than the reduction node are Replicated data that is promoted to the original data when the reduced node is removed by using a distribution destination change processing unit that generates temporary distribution ID information indicating the responsibility of the data and the temporary distribution ID information Is extracted as original promotion target data, and the limited synchronization processing unit executes synchronization processing between the extracted original promotion target data and the original data stored in the reduced node, and the limited synchronization After the synchronization processing by the processing unit, the original promotion target data is promoted to the original data, and then the current distribution ID information is updated using the temporary distribution ID information; A maintenance reduction system comprising: a data rearrangement processing unit that performs duplication and rearrangement of the data so as to maintain redundancy determined in the available system It was.
請求項2に記載の発明は、クラスタを構成する複数のノードそれぞれにメッセージを振り分けて処理させ、前記メッセージとして処理されたデータの原本である原本データとその複製である複製データとを異なる前記ノードに記憶させる高可用システムに備えられ、前記クラスタを構成する複数のノードのうちの一部のノードを減設する保守減設システムの前記ノードであって、各ノードの識別情報を示すIDに対応付けて、各ノードが処理するデータの担当を示す振り分けID情報を記憶する記憶部と、前記複数のノードの中から減設対象となるノードを示す減設ノードを決定する減設ノード決定部と、前記減設ノードに対する前記メッセージの振り分けを停止し、前記減設ノードを除いた各ノードの前記データの担当を示す仮の振り分けID情報を生成する振り分け先変更処理部と、前記仮の振り分けID情報を用いて、前記減設ノードが減設されたときに前記原本データに昇格する複製データを、原本昇格対象データとして抽出し、前記抽出した原本昇格対象データと、前記減設ノードに記憶される前記原本データとの間で同期処理を実行する限定的同期処理部と、前記限定的同期処理部による同期処理の後に、前記原本昇格対象データを前記原本データに昇格させ、その後に、前記仮の振り分けID情報を用いて、現状の振り分けID情報を更新させる原本昇格処理部と、前記高可用システムに定められた冗長度を保つように、前記データの複製および再配置を実行するデータ再配置処理部と、を備えることを特徴とするノードとした。 According to a second aspect of the present invention, a message is distributed to each of a plurality of nodes constituting a cluster and processed, and the original data that is the original data processed as the message is different from the duplicate data that is a duplicate thereof. The node of the maintenance / reduction system, which is provided in the high availability system to be stored in the network, and in which a part of the plurality of nodes constituting the cluster is removed, corresponds to an ID indicating identification information of each node. In addition, a storage unit that stores distribution ID information indicating the charge of data processed by each node, and a reduction node determination unit that determines a reduction node indicating a node to be reduced from among the plurality of nodes, Temporary distribution indicating suspension of distribution of the message to the reduced node and indicating the data assignment of each node excluding the reduced node Using the distribution destination change processing unit that generates D information and the temporary distribution ID information, copy data that is promoted to the original data when the reduced node is removed is extracted as original promotion target data A limited synchronization processing unit that executes synchronization processing between the extracted original promotion target data and the original data stored in the reduced node, and after the synchronization processing by the limited synchronization processing unit, The original promotion target data is promoted to the original data, and thereafter, the provisional distribution ID information is used to update the current distribution ID information, and the redundancy determined in the high availability system is set. And a data rearrangement processing unit that executes the data duplication and rearrangement so as to maintain the node.
請求項3に記載の発明は、クラスタを構成する複数のノードそれぞれにメッセージを振り分けて処理させ、前記メッセージとして処理されたデータの原本である原本データとその複製である複製データとを異なる前記ノードに記憶させる高可用システムに備えられ、前記クラスタを構成する複数のノードのうちの一部のノードを減設する保守減設システムの保守減設方法であって、前記ノードが、各ノードの識別情報を示すIDに対応付けて、各ノードが処理するデータの担当を示す振り分けID情報を記憶部に記憶しており、前記複数のノードの中から減設対象となるノードを示す減設ノードを決定するステップと、前記減設ノードに対する前記メッセージの振り分けを停止し、前記減設ノードを除いた各ノードの前記データの担当を示す仮の振り分けID情報を生成するステップと、前記仮の振り分けID情報を用いて、前記減設ノードが減設されたときに前記原本データに昇格する複製データを、原本昇格対象データとして抽出し、前記抽出した原本昇格対象データと、前記減設ノードに記憶される前記原本データとの間で同期処理を実行するステップと、前記同期処理の後に、前記原本昇格対象データを前記原本データに昇格させ、その後に、前記仮の振り分けID情報を用いて、現状の振り分けID情報を更新させるステップと、前記高可用システムに定められた冗長度を保つように、前記データの複製および再配置を実行するステップと、を実行することを特徴とする保守減設方法とした。 According to a third aspect of the present invention, a message is distributed to each of a plurality of nodes constituting the cluster and processed, and the original data that is the original data processed as the message is different from the duplicate data that is a duplicate thereof. A maintenance / removal method for a maintenance / reduction system in which a part of a plurality of nodes constituting the cluster is removed, provided in a high-availability system stored in a storage system, wherein the node identifies each node In association with an ID indicating information, distribution ID information indicating the charge of data processed by each node is stored in the storage unit, and a reduction node indicating a node to be reduced is selected from the plurality of nodes. A step of deciding, and stopping the distribution of the message to the reduced node, and indicating the responsibility of the data of each node except the reduced node Generating the distribution ID information, and using the temporary distribution ID information, extracting duplicate data to be promoted to the original data when the reduced node is removed as original promotion target data, Executing the synchronization process between the extracted original promotion target data and the original data stored in the reduced node; and after the synchronization process, promoting the original promotion target data to the original data; Thereafter, using the provisional distribution ID information, updating the current distribution ID information, and executing replication and rearrangement of the data so as to maintain redundancy determined in the high availability system And a maintenance reduction method characterized in that
このように、保守減設システムでは、振り分け先変更処理の後、原本昇格対象データと原本データとの間で同期処理(限定的同期処理)を実行する。その後、原本昇格を行い、ID表を更新し、最後に、データ再配置を行う。この限定的同期処理により、原本データの最新の状態が、その原本データの消滅後に昇格する複製データ(原本昇格対象データ)に同期されるため、非同期なシステム(処理効率を優先し、複製データが常に最新ではない状態があるシステム)の場合でも、保守減設時に最新のデータを保持することができる。そして、保守減設システムでは、限定的同期処理の後、原本昇格とID表の更新を行うことで、保守減設処理に伴う過渡状態を終了する。よって、データ再配置を、保守減設とは切り離して行うことができるため、過渡状態をより短い期間にすることが可能となる。 As described above, in the maintenance reduction system, after the distribution destination change process, the synchronization process (limited synchronization process) is executed between the original promotion target data and the original data. Thereafter, the original is promoted, the ID table is updated, and finally data rearrangement is performed. This limited synchronization process synchronizes the latest state of the original data with the replicated data that is promoted after the disappearance of the original data (data to be promoted to the original data). Even in the case of a system that is not always up-to-date, the latest data can be retained when maintenance is reduced. In the maintenance reduction system, after the limited synchronization process, the original state promotion and the update of the ID table are performed, thereby terminating the transient state associated with the maintenance reduction process. Therefore, since the data rearrangement can be performed separately from the maintenance reduction, the transient state can be made shorter.
本発明によれば、クラスタからノードを切り離す保守減設にかかる処理時間を短縮する、保守減設システム、ノードおよび保守減設方法を提供することができる。 According to the present invention, it is possible to provide a maintenance / reduction system, a node, and a maintenance / reduction method that reduce the processing time required for maintenance / removal for separating a node from a cluster.
<全体構成>
まず、本発明を実施するための形態(以下、「本実施形態」と称する。)に係る保守減設システム1000を含む分散処理システム(高可用システム)Sについて説明する。
図1は、本実施形態に係る保守減設システム1000を含む分散処理システムSの全体構成を示す図である。
<Overall configuration>
First, a distributed processing system (high availability system) S including a
FIG. 1 is a diagram showing an overall configuration of a distributed processing system S including a maintenance /
この保守減設システム1000は、複数のノード1から構成される。各ノード1は、コンピュータなどの物理装置や仮想マシンなどの論理装置である。ロードバランサ3は、クライアント2から受信したメッセージを、単純なラウンドロビン等により振り分けて各ノード1に送信する。そして、ノード1の振り分け部13は、クライアント2からのメッセージを、例えば、コンシステント・ハッシュ法等に基づき、メッセージを担当するノード1に振り分ける。メッセージを担当するノード1では、信号処理部14において、信号処理を行い、クライアント2にサービスを提供する。
The
なお、ロードバランサ3が存在せず、クライアント2から任意のノード1(振り分け部13)にメッセージを送信することも可能である。また、振り分け部13と信号処理部14とは、同じノード1上に同時に存在してもよいし、別々のノード1上に存在してもよい。
Note that the
また、保守減設システム1000においてクラスタを構成する各ノード1は、ID表(後記する振り分けID情報200等)を管理する代表ノード1Aと、代表ノード1A以外のノード1である既存ノード1aで構成される。ここで、代表ノード1Aは、ネットワーク管理装置等の外部装置との間で、情報の送受信を行い、保守減設システム1000全体を制御する。なお、ネットワーク管理装置は、保守減設システム1000およびロードバランサ3と通信接続され、分散処理システムS全体を管理する。
Each node 1 constituting the cluster in the maintenance /
<概要>
従来の保守減設の処理は図7で示したように、振り分け先変更処理→データ再配置→原本昇格→ID表更新の順で行われていた。しかしながら、この手順では、振り分け先変更処理において、減設ノードを除いた仮ID表での処理に移行した後、最終的にID表を更新するまでは、過渡期間となる。つまり、データの再配置や原本昇格のすべてが完了しないと、保守減設の処理が完了しない。
これに対し、本実施形態に係る保守減設システム1000では、振り分け先変更処理の後、本発明特有の限定的同期処理(詳細は後記)を実行する。その後、原本昇格を行い、ID表を更新し、最後に、データ再配置を行う。この限定的同期処理は、減設ノードが持つ原本データと、減設ノードが減設された後に新たに原本データに昇格する複製データとの間で、データ内容を一致させる同期処理を意味する。この限定的同期処理により、原本データの最新の状態が、その原本データの消滅後に昇格する複製データに同期される。そして、保守減設システム1000において、限定的同期処理の後、原本昇格とID表の更新を行うことで、保守減設処理に伴う過渡状態を終了する。つまり、データ再配置を、保守減設とは切り離して行うことができるため、過渡状態をより短い期間にすることが可能となる。
以下、本実施形態に係るノード1を含む保守減設システム1000について、具体的に説明する。
<Overview>
As shown in FIG. 7, the conventional maintenance reduction processing is performed in the order of distribution destination change processing → data rearrangement → original promotion → ID table update. However, in this procedure, in the distribution destination changing process, it is a transitional period until the ID table is finally updated after shifting to the process using the temporary ID table excluding the removed node. That is, the maintenance reduction process is not completed unless the data rearrangement and the original promotion are completed.
On the other hand, in the maintenance /
Hereinafter, the maintenance /
≪ノード≫
まず、本実施形態に係る保守減設システム1000を構成するノード1について、具体的に説明する。なお、本実施形態に係るノード1は、保守減設システム1000を構成する複数のノード1のうち、後記するノード識別子管理情報100(図3参照)、および、上記したID表(振り分けID情報200(図4参照))を管理する代表ノード1Aとなる場合と、代表ノード1Aからノード識別子管理情報100および振り分けID情報200を受け取り、各情報を更新して記憶する既存ノード1a(非代表ノード)になる場合とが存在する。なお、代表ノード1Aが行う処理等については、後記する。また、保守減設システム1000において、クラスタを構成する既存ノード1aのうち、減設対象となるノード1を減設ノード1bとして、以下において説明する。また、本実施形態に係るノード1の代表ノード1Aが、減設ノード1bを決定する処理に用いる情報の例として、ここでは、代表ノード1Aが外部装置から故障確率情報300(図5参照)を受信し、各ノード1の故障確率に基づき、減設ノード1bを決定する例として説明する。
≪Node≫
First, the node 1 which comprises the
図2は、本実施形態に係るノード1の構成例を示す機能ブロック図である。
図2に示すように、ノード1は、制御部10と、入出力部20と、記憶部30とを含んで構成される。
FIG. 2 is a functional block diagram illustrating a configuration example of the node 1 according to the present embodiment.
As illustrated in FIG. 2, the node 1 includes a
入出力部20は、ロードバランサ3や、自身以外の他のノード1、ネットワーク管理装置(図示省略)、他の外部装置(図示省略)等との間の情報の入出力を行う。また、この入出力部20は、通信回線を介して情報の送受信を行う通信インタフェース(図示省略)と、キーボード等の入力手段やモニタ等の出力手段との間で入出力を行う入出力インタフェース(図示省略)とから構成される。
The input /
記憶部30は、ハードディスクやフラッシュメモリ、RAM(Random Access Memory)等の記憶手段からなり、処理の対象となるデータ400や、ノード識別子管理情報100(図3参照)、振り分けID情報200(図4参照)、減設ノード1bを決定する際に用いる故障確率情報300(図5)等が記憶される。なお、このデータ400には、そのノード1自身が原本として記憶する原本データと、自身以外の他のノード1が記憶する原本データの複製が複製データとして記憶される。この記憶部30に記憶される各情報についての詳細は後記する。
The
制御部10は、ノード1全体の制御を司り、ノード識別子管理部11、減設ノード決定部12、振り分け部13、信号処理部14、保守減設処理部15を含んで構成される。なお、この制御部10は、例えば、記憶部30に格納されたプログラムをCPU(図示省略)がRAM(図示省略)に展開し実行することで実現される。
The
ノード識別子管理部11は、保守減設システム1000においてクラスタを構成する各ノード1のノード情報(IPアドレス等)および各ノード1が担当するID空間を管理する。
具体的には、ノード識別子管理部11は、自身が属する保守減設システム1000においてノード1の離脱(減設)等が発生した場合に、保守減設システム1000を構成するノード1の識別情報等が記憶されたノード識別子管理情報100(図3)を更新する。
The node
Specifically, the node
図3は、本実施形態に係るノード識別子管理情報100のデータ構成例を示す図である。
図3に示すように、ノード識別子管理情報100には、保守減設システム1000を構成する各ノード1のノード識別子101とアドレス102(例えば、IPアドレス)とが対応付けられて格納される。
FIG. 3 is a diagram illustrating a data configuration example of the node
As shown in FIG. 3, the node
このノード識別子101は、例えば、当該保守減設システム1000内において予め設定される特定のノード(例えば、ノード識別子101の昇順に設定した代表ノード1A)のノード識別子管理部11で付与され、当該保守減設システム1000内の各ノード1に配信される。
The
ノード識別子管理部11は、外部から受信したノードIDの変更情報に基づき、ノード識別子管理情報100を更新(ノード1の減設等を反映)する。
さらに、ノード識別子管理部11は、自身が代表ノード1Aのノード識別子管理部11である場合には、減設ノード決定部12により、減設するノード(減設ノード1b)が決定され、後記する保守減設処理部15の振り分け先変更処理部151により、減設ノード1bへの振り分けが停止されると、その減設ノード1bを削除した仮の振り分けID情報200k(仮ID表)を生成し、減設ノード1b以外の既存ノード1aに送信する。
また、ノード識別子管理部11は、自身が既存ノード1aのノード識別子管理部11である場合には、代表ノード1Aから仮の振り分けID情報200k(仮ID表)を受信し、自身の記憶部30に記憶する。また、ノード識別子管理部11は、振り分けID情報200の更新通知を代表ノード1Aから受信すると、仮の振り分けID情報200k(仮ID表)を用いて、現状の振り分けID情報200を更新する。
The node
Furthermore, when the node
Further, when the node
図4は、本実施形態に係る振り分けID情報200(ID表)のデータ構成例を示す図である。図4(a)は、保守減設前(現状)の振り分けID情報200を示し、図4(b)は、仮の振り分けID情報200k、および、保守減設後(更新後)の振り分けID情報200gを示す。
FIG. 4 is a diagram illustrating a data configuration example of the distribution ID information 200 (ID table) according to the present embodiment. 4A shows the
図4(a)に示すように、振り分けID情報200には、ノード識別子201に対応付けて、そのノード1が担当するID空間202(担当領域)が格納される。このノード識別子201は、図3のノード識別子101と同様の情報である。図4(a)に示す例では、ID空間の全ID数が「0」〜「999」の1000であり、例えば、ノード識別子201が「A」のノード1が、担当するID空間202として「0〜199」について担当することを示している。また、この振り分けID情報200において、ノード識別子201が「A」のノード1(ノード「A」)のID空間上のノードIDは、「199」である。以下同様に、ノード「B」のID空間上でのノードIDは「399」である。ノード「C」のID空間上でのノードIDは「599」である。ノード「D」のID空間上でのノードIDは「799」である。ノード「E」のID空間上でのノードIDは「999」である。そして、ノード識別子管理部11は、振り分けID情報200において、各ノード1のノードIDを昇順にソートし、連続したID空間202として管理する。
As shown in FIG. 4A, the
図4(b)は、図4(a)のID空間において、減設対象のノード1としてノード「D」が選ばれた場合に、ノード識別子管理部11が生成する仮の振り分けID情報200k(200)を示す。なお、この仮の振り分けID情報200k(仮ID表)は、保守減設処理の結果、減設ノード1bの減設後の振り分けID情報200g(200)となる。
FIG. 4B shows temporary
図4(b)では、ノード「D」が減設ノード1bであるとして削除され、ノード「D」が担当していた領域を、ノード「C」とノード「E」とが2等分して分担した例を示している。図4(b)においては、ノード「C」の担当領域が、削除したノード「D」が担当した領域の半分を受け継ぎ「400」〜「699」に変更されている。また、ノード「E」の担当領域が、削除したノード「D」の担当した領域の半分を受け継ぎ「700」〜「999」に変更されている。ただし、減設ノード1bが担当していたID空間の領域を、既存ノード1aにおいて、どのように分担させるかについてのロジックは、ネットワーク管理者により予め設定されているものとする。ノード識別子管理部11は、減設ノード決定部12が減設ノード1bを決定した場合に、この予め設定されたロジック(所定のロジック)に基づき、仮の振り分けID情報200k(仮ID表)を生成する。
In FIG. 4B, the node “D” is deleted as the reduced
保守減設システム1000内の代表ノード1Aのノード識別子管理部11は、各ノード1に対して、仮の振り分けID情報200k(仮ID表)を送信する。また、代表ノード1Aのノード識別子管理部11は、仮の振り分けID情報200kが更新され、保守減設後(更新後)の振り分けID情報200g(図4(b)参照)となった後において、減設ノード1bを削除したノード識別子管理情報100(図3参照)を各既存ノード1aに送信する。このようにすることにより、保守減設システム1000内の各ノード1には、同一のノード識別子管理情報100および同一の振り分けID情報200が保持される。
The node
なお、代表ノード1Aは、例えば、このノード識別子管理情報100(図3)の一番上の行のノード1から順に、代表ノード1Aとなるように設定される。ノード1が新たに代表ノード1Aになった場合、自身が代表ノード1Aであることを示す情報を、各既存ノード1a等に送信する。
For example, the
図2に戻り、減設ノード決定部12は、保守減設システム1000を構成する各ノード1のうち、減設対象となるノード(減設ノード1b)を決定する。この減設ノード1bの決定は、例えば、定期点検のため、ネットワーク管理装置(図示省略)から減設ノード1bの指定情報を取得し、その指定情報に基づき決定してもよい。また、代表ノード1Aが各既存ノード1aの状態を監視し、例えば、所定値より多い警報通知を受信したりすることにより、故障の疑いのあるノード1を減設ノード1bとして決定してもよい。
本実施形態においては、外部装置から地震等の災害による(近い)将来の故障確率情報を取得し、減設ノード決定部12が、所定の故障確率以上のノード1(被災して障害が発生する確率が高いノード)を、減設対象ノード(減設ノード1b)として決定する例として説明する。
Returning to FIG. 2, the reduction
In the present embodiment, the failure probability information of (near) future due to a disaster such as an earthquake is acquired from an external device, and the reduced
なお、この故障確率情報は、例えば、非特許文献3(Hiroshi Saito,et al.,”Proposal of Disaster Avoidance Control,” Proc. of Telecommunications Network Strategy and Planning Symposium (Networks),2014 16th International.)に記載の技術により実現される。非特許文献3に記載の技術では、災害(地震等)の発生位置と、ネットワーク上の各ノード1の位置関係に基づき故障確率を算出する。本実施形態に係る代表ノード1Aの減設ノード決定部12は、保守減設システム1000を構成する各ノード1の故障確率情報を、例えばネットワーク管理装置(図示省略)等を介して外部装置から取得する。
This failure probability information is described, for example, in Non-Patent Document 3 (Hiroshi Saito, et al., “Proposal of Disaster Avoidance Control,” Proc. Of Telecommunications Network Strategy and Planning Symposium (Networks), 2014 16th International.). It is realized by the technology. In the technique described in
図5は、本実施形態に係る故障確率情報300のデータ構成例を示す図である。
故障確率情報300は、各拠点のノード1(サーバ)それぞれが、将来発生が予測される大規模災害等により故障する確率(障害が発生する確率)を示す情報である。なお、大規模災害等とは、例えば、台風や暴風雨、竜巻、落雷、大雨、河川の氾濫、津波、地震等であり、数日若しくは数秒から数時間後に、拠点が位置する地域において、上記災害による物理的な損傷(ネットワークの切断等も含む)や、停電の発生、若しくは、サーバの管理者がサーバ設置施設に近付けない等を含む障害によりサーバが使用不能となる予測される確率を示す情報である。
FIG. 5 is a diagram illustrating a data configuration example of the
The
この故障確率情報300は、ノード識別子301、時刻302、故障確率303のデータ項目から構成される。
ノード識別子301は、クラスタを構成する各ノード1の識別子を表わし、図3および図4のノード識別子101,201と同様の情報である。
時刻302および故障確率303は、ノード識別子301に対応付けて格納される情報である。故障確率303には、時刻302(所定時刻)における当該サーバの故障確率(%)が格納される。なお、図5においては、時刻302は、1時間毎に設定される例を示している。
例えば、故障確率情報300の1行目に示すように、ノード識別子301のノード「A」は、時刻302で示される「2015年6月1日」の13時から14時の間の故障確率303が「10(%)」、14時から15時の間の故障確率303が「30(%)」、15時から16時の間の故障確率303が「40(%)」であることを示している。
The
The
The
For example, as shown in the first line of the
減設ノード決定部12は、この故障確率情報300を参照し、所定の故障確率以上のノード1(被災して障害が発生する確率が高いノード)を、減設対象ノード(減設ノード1b)として決定する。例えば、減設ノード決定部12は、故障確率303が所定の故障確率(例えば、50%以上)を超えたノード「D」を、減設ノード1bとして決定する。
The reduced
図2に戻り、振り分け部13は、ロードバランサ3(図1)等を介してクライアント2から受信したメッセージ(信号)内の情報(「振り分けキー」)をもとに「hash(key)」を算出し、振り分けID情報200(図4)を参照して、そのメッセージの処理を担当するノード1を抽出する。そして、振り分け部13は、その抽出したノード1のアドレス情報を、ノード識別子管理情報100(図3)を参照して取得し、その抽出したノード1へメッセージの振り分け(送信)を行う。
Returning to FIG. 2, the
信号処理部14は、自身のノード1が担当するデータに関するメッセージの信号処理を実行する。このメッセージにより信号処理部14が実行する処理は、例えば、データの登録、更新、検索、削除等である。また、信号処理部14は、データの登録や更新等のメッセージを受信した場合に、振り分けID情報200を参照し、冗長度に応じて、自身のノード1からID空間上で時計回りに次のノードというようにして、データの複製を行うノード(複製ノード)を決定する(冗長度が「3」の場合は、2つの複製ノードを決定する。)。そして、信号処理部14は、決定した複製ノードに対して、原本データを複製した複製データの送信し、その複製データを記憶させる。
この信号処理部14は、信号処理後に送付するメッセージに、例えば、SIP(Session Initiation Protocol)においては「Call-id」をもとに算出したハッシュ値を振り分けキーとして埋め込む(SIPにおいては、例えばTo/FromヘッダのTagに記載する。)ようにしてもよい。これにより、振り分け部13がそのメッセージの後続呼を受信した場合に、振り分けキーとして埋め込まれたハッシュ値を用いて、振り分けID情報200(図4)を参照し、その後続呼を担当するノード1を特定することができる。
The
The
保守減設処理部15は、減設ノード決定部12が、クラスタから減設させるノード(減設ノード1b)を決定した際に、保守減設処理を実行する。
この保守減設処理部15は、振り分け先変更処理部151と、限定的同期処理部152と、原本昇格処理部153と、データ再配置処理部154とを備える。
The maintenance
The maintenance
振り分け先変更処理部151は、減設ノード決定部12が、減設ノード1bを決定した場合に、その減設対象となるノード1(減設ノード1b)に信号が振り分けられないようにするため、ネットワーク管理装置(図示省略)に対し、振り分け先変更依頼を送信する。これにより、ネットワーク管理装置は、ロードバランサ3等の設定を変更し、減設ノード1bに対し、メッセージ(信号)を振り分けないように設定変更を行う。
また、振り分け先変更処理部151は、ノード識別子管理部11に対し、減設ノード1bへの信号振り分けが停止されたことを通知する。これにより、ノード識別子管理部11に、所定のロジックに基づき、減設ノード1bが減設したものとする仮の振り分けID情報200k(仮ID表)を生成させる。
そして、振り分け先変更処理部151は、既存ノード1aおよび減設ノード1bのすべてに対し、生成した仮の振り分けID情報200k(仮ID表)を通知する。
The distribution destination change processing unit 151 prevents the signal from being distributed to the node 1 (
Also, the distribution destination change processing unit 151 notifies the node
Then, the distribution destination change processing unit 151 notifies the generated temporary
限定的同期処理部152は、自身が既存ノード1aの限定的同期処理部152である場合に、仮の振り分けID情報200k(仮ID表)を参照し、自身が持つ複製データのうち、原本昇格の対象となる複製データ(以下、「原本昇格対象データ」と称する。)を抽出する。そして、限定的同期処理部152は、減設ノード1bが持つ原本データと、原本昇格対象データとの間で、同期処理を実行する。
具体的には、原本昇格対象データを有する既存ノード1aの限定的同期処理部152から、減設ノード1bの限定的同期処理部152に対し、同期要求を送信する。そして、減設ノード1bの限定的同期処理部152が、現状の振り分けID情報200を参照し、自身が原本として持つデータ(原本データ)を抽出し、当該原本データの情報を同期情報として同期要求を送信してきた既存ノード1aに送信する。このとき、減設ノード1bの限定的同期処理部152は、原本データと複製データとの間の差分情報のみを送信するようにしてもよい。
When the limited
Specifically, a synchronization request is transmitted from the limited
原本昇格処理部153は、自身が原本昇格の対象となる複製データ(原本昇格対象データ)を有する既存ノード1aの原本昇格処理部153である場合に、限定的同期処理部152による原本昇格対象データと原本データとの間の同期処理が終了すると、その複製データ(原本昇格対象データ)を原本データに昇格する。
そして、原本昇格処理部153は、複製データを原本データに昇格したことを示す原本昇格完了通知を代表ノード1Aに送信する。
When the original
Then, the original data
代表ノード1Aの原本昇格処理部153は、原本昇格完了通知を受信すると、ノード識別子管理部11に対し、仮の振り分けID情報200k(仮ID表)を用いて、現状の振り分けID情報200を更新する処理の実行を指示する。
そして、代表ノード1Aの原本昇格処理部153は、自身の振り分けID情報200が更新されたことを契機として、既存ノード1aに対し、仮の振り分けID情報200k(仮ID表)を用いて、現状の振り分けID情報200を更新する指示情報であるID表更新通知を既存ノード1aに送信し、現状の振り分けID情報200を更新させる。
また、代表ノード1Aの原本昇格処理部153は、原本昇格処理が完了したことを示す原本昇格完了通知を、ネットワーク管理装置に送信する。
Receiving the original promotion completion notification, the original
Then, the original
The original
データ再配置処理部154は、自身が代表ノード1Aのデータ再配置処理部154である場合に、原本昇格処理部153により振り分けID情報200の更新処理が終了したことを契機として、既存ノード1aに対し、データ再配置開始通知を送信する。これにより、各既存ノード1aにおいて、再冗長化が必要となるデータが抽出され、更新された振り分けID情報200に基づき、データの移行や複製を行うことにより、データの再配置が実行される。
When the data
<処理の流れ>
次に、本実施形態に係る保守減設システム1000が実行する、保守減設処理の流れについて説明する。
図6は、本実施形態に係る保守減設システム1000が実行する保守減設処理を示すシーケンス図である。
<Process flow>
Next, the flow of maintenance / reduction processing executed by the maintenance /
FIG. 6 is a sequence diagram showing maintenance / reduction processing executed by the maintenance /
まず、代表ノード1Aの減設ノード決定部12は、減設対象となるノード(減設ノード1b)を決定する(ステップS101)。ここで、減設ノード決定部12は、例えば、外部装置から故障確率情報300(図5参照)を受信することにより、各ノード1の故障確率を参照し、所定の故障確率以上のノード1を減設対象のノード(減設ノード1b)に決定する。
First, the reduced
続いて、代表ノード1Aの振り分け先変更処理部151は、決定した減設ノード1bに、メッセージ(信号)が振り分けられないようにするため、振り分け先変更依頼をネットワーク管理装置5に送信する(ステップS102)。そして、ネットワーク管理装置5は、保守減設システム1000を構成する各ノード1のうち、減設ノード1bには、信号が振り分けられないように、例えば、振り分け元となるロードバランサ3の振り分け先の設定を変更する(ステップS103)。続いて、ネットワーク管理装置5は、振り分け先変更の完了通知を代表ノード1Aに送信する(ステップS104)。
Subsequently, the distribution destination change processing unit 151 of the
次に、代表ノード1Aの振り分け先変更処理部151は、ノード識別子管理部11に対し、減設ノード1bへの信号振り分けが停止されたことを通知し、減設ノード1bが減設したものとする仮の振り分けID情報200k(仮ID表)を生成させる(ステップS105)。この仮の振り分けID情報200kには、現状の振り分けID情報200から減設ノード1bを削除した情報であることを示す減設フラグ「+1」をたてておく。
Next, the distribution destination change processing unit 151 of the
続いて、代表ノード1Aの振り分け先変更処理部151は、既存ノード1aに対し、生成した仮の振り分けID情報200k(仮ID表)を通知する(ステップS106)。そして、既存ノード1aは、仮の振り分けID情報200k(仮ID表)を取得し、記憶部30に記憶する(ステップS107)。
Subsequently, the distribution destination change processing unit 151 of the
次に、既存ノード1aと減設ノード1bとにおいて限定的同期処理を実行する。
具体的には、既存ノード1aの限定的同期処理部152は、仮の振り分けID情報200k(仮ID表)を参照し、自身が持つ複製データのうち、原本昇格の対象となる複製データ(原本昇格対象データ)を抽出する(ステップS108)。
続いて、原本昇格対象データを有する既存ノード1aの限定的同期処理部152から、減設ノード1bの限定的同期処理部152に対し、同期要求を送信する(ステップS109)。そして、減設ノード1bの限定的同期処理部152が、現状の振り分けID情報200を参照し、自身が原本として持つデータ(原本データ)を抽出し、当該原本データの情報を同期情報として同期要求を送信してきた既存ノード1aに送信する(ステップS110)。これにより、減設ノード1bが持つ原本データと、原本昇格対象データとの間で、同期処理が実行される。
Next, limited synchronization processing is executed between the existing
Specifically, the limited
Subsequently, a synchronization request is transmitted from the limited
限定的同期処理部152による、原本データと原本昇格対象データとの同期処理を終えると、原本昇格対象データを持つ既存ノード1aの原本昇格処理部153は、その原本昇格対象データである複製データを、原本データに昇格させる原本昇格処理を実行する(ステップS111)。
続いて、原本昇格処理を実行した既存ノード1aの原本昇格処理部153は、複製データの原本昇格が完了したことを示す原本昇格完了通知を代表ノード1Aに送信する(ステップS112)。
When the synchronization processing between the original data and the original promotion target data by the limited
Subsequently, the original
次に、代表ノード1Aの原本昇格処理部153は、原本昇格完了通知を受信すると、ノード識別子管理部11に対し、仮の振り分けID情報200k(仮ID表)の減設フラグ「+1」を下げるとともに、仮の振り分けID情報200kを用いて、現状の振り分けID情報200を更新する処理の実行を指示する(ステップS113)。
そして、代表ノード1Aの原本昇格処理部153は、自身の振り分けID情報200が更新されたことを契機として、既存ノード1aに対し、仮の振り分けID情報200k(仮ID表)を用いて、現状の振り分けID情報200を更新する指示情報であるID表更新通知を既存ノード1aに送信する(ステップS114)。これにより、既存ノード1aにおいて、仮の振り分けID情報200kの減設フラグ「+1」を下げて、振り分けID情報200を更新させる(ステップS115)。
また、代表ノード1Aの原本昇格処理部153は、原本昇格処理が完了したことを示す原本昇格完了通知を、ネットワーク管理装置に送信する(ステップS116)。
この原本昇格完了通知をネットワーク管理装置に送信した時点で、原本昇格と振り分けID情報200の更新が完了しているため、各ノード1は、過渡状態を終了することができる。よって、ネットワーク管理者は、この時点で、クラスタからの減設ノード1bの切り離しを実行することができる。
Next, when receiving the original promotion completion notification, the original
Then, the original
Also, the original
Since the original promotion and the update of the
続いて、代表ノード1Aのデータ再配置処理部154は、既存ノード1aに対し、データ再配置開始通知を送信する(ステップS117)。また、代表ノード1Aの保守減設処理部15は、ネットワーク管理装置5に対し、保守減設処理完了通知を送信する(ステップS118)。
Subsequently, the data
代表ノード1Aからデータ再配置開始通知を受信した既存ノード1aは、データ再配置処理部154が、更新された振り分けID情報200に基づき、再冗長化が必要となるデータを抽出し、データの移行や複製を行うことにより、データの再配置を実行する(ステップS119)。そして、既存ノード1aのデータ再配置処理部154は、データの再配置が終了すると、その旨を示す完了通知を代表ノード1Aに送信する(ステップS120)。
代表ノード1Aの保守減設処理部15は、クラスタメンバの更新がすべて完了したことを示すクラスタメンバ更新完了通知をネットワーク管理装置5に送信し(ステップS121)、処理を終える。
In the existing
The maintenance
以上説明したように、本実施形態に係る保守減設システム1000、ノード1および保守減設方法によれば、振り分け先変更処理の後、本発明特有の限定的同期処理を実行し、その後、原本昇格を行い、ID表を更新し、最後に、データ再配置を行う(図6参照)。このようにすることにより、図7に示す従来技術の手順に比べ、過渡状態の期間を短縮することができる。過渡状態の期間を短縮することにより、クラスタからの減設ノード1bの切り離しをより早く実行することが可能となる。また、原本昇格およびID表の更新後に行われる、複製データのデータ再配置の段階で、何らかの原因で処理が中断した場合であっても、原本昇格し、ID表を更新した直後に巻き戻せば済むため、MTTR(平均修復時間)を短くすることができる。
As described above, according to the maintenance /
1 ノード
1A 代表ノード
1a 既存ノード
1b 減設ノード
2 クライアント
3 ロードバランサ
10 制御部
11 ノード識別子管理部
12 減設ノード決定部
13 振り分け部
14 信号処理部
15 保守減設処理部
20 入出力部
30 記憶部
100 ノード識別子管理情報
151 振り分け先変更処理部
152 限定的同期処理部
153 原本昇格処理部
154 データ再配置処理部
200 振り分けID情報
300 故障確率情報
400 データ
1000 保守減設システム
S 分散処理システム(高可用システム)
1
Claims (3)
前記ノードは、
各ノードの識別情報を示すIDに対応付けて、各ノードが処理するデータの担当を示す振り分けID情報を記憶する記憶部と、
前記複数のノードの中から減設対象となるノードを示す減設ノードを決定する減設ノード決定部と、
前記減設ノードに対する前記メッセージの振り分けを停止し、前記減設ノードを除いた各ノードの前記データの担当を示す仮の振り分けID情報を生成する振り分け先変更処理部と、
前記仮の振り分けID情報を用いて、前記減設ノードが減設されたときに前記原本データに昇格する複製データを、原本昇格対象データとして抽出し、前記抽出した原本昇格対象データと、前記減設ノードに記憶される前記原本データとの間で同期処理を実行する限定的同期処理部と、
前記限定的同期処理部による同期処理の後に、前記原本昇格対象データを前記原本データに昇格させ、その後に、前記仮の振り分けID情報を用いて、現状の振り分けID情報を更新させる原本昇格処理部と、
前記高可用システムに定められた冗長度を保つように、前記データの複製および再配置を実行するデータ再配置処理部と、
を備えることを特徴とする保守減設システム。 Provided in a high availability system that distributes and processes messages to each of a plurality of nodes constituting a cluster, and stores the original data that is the original data processed as the message and the replicated data that is a duplicate thereof in different nodes. , A maintenance / reduction system for removing some of the plurality of nodes constituting the cluster,
The node is
A storage unit for storing distribution ID information indicating the charge of data processed by each node in association with an ID indicating identification information of each node;
A reduction node determination unit for determining a reduction node indicating a node to be reduced from among the plurality of nodes;
A distribution destination change processing unit that stops the distribution of the message to the reduced node and generates temporary distribution ID information indicating the data assignment of each node excluding the reduced node;
Using the temporary distribution ID information, duplicate data that is promoted to the original data when the reduced node is removed is extracted as original promotion target data, the extracted original promotion target data, and the reduction A limited synchronization processing unit that performs synchronization processing with the original data stored in the installation node;
After the synchronization processing by the limited synchronization processing unit, the original promotion processing unit that promotes the original promotion target data to the original data and then updates the current distribution ID information using the temporary distribution ID information When,
A data relocation processing unit for performing replication and relocation of the data so as to maintain the redundancy determined in the high availability system;
A maintenance reduction system characterized by comprising:
各ノードの識別情報を示すIDに対応付けて、各ノードが処理するデータの担当を示す振り分けID情報を記憶する記憶部と、
前記複数のノードの中から減設対象となるノードを示す減設ノードを決定する減設ノード決定部と、
前記減設ノードに対する前記メッセージの振り分けを停止し、前記減設ノードを除いた各ノードの前記データの担当を示す仮の振り分けID情報を生成する振り分け先変更処理部と、
前記仮の振り分けID情報を用いて、前記減設ノードが減設されたときに前記原本データに昇格する複製データを、原本昇格対象データとして抽出し、前記抽出した原本昇格対象データと、前記減設ノードに記憶される前記原本データとの間で同期処理を実行する限定的同期処理部と、
前記限定的同期処理部による同期処理の後に、前記原本昇格対象データを前記原本データに昇格させ、その後に、前記仮の振り分けID情報を用いて、現状の振り分けID情報を更新させる原本昇格処理部と、
前記高可用システムに定められた冗長度を保つように、前記データの複製および再配置を実行するデータ再配置処理部と、
を備えることを特徴とするノード。 Provided in a high availability system that distributes and processes messages to each of a plurality of nodes constituting a cluster, and stores the original data that is the original data processed as the message and the replicated data that is a duplicate thereof in different nodes. The node of the maintenance / removal system for removing a part of the plurality of nodes constituting the cluster,
A storage unit for storing distribution ID information indicating the charge of data processed by each node in association with an ID indicating identification information of each node;
A reduction node determination unit for determining a reduction node indicating a node to be reduced from among the plurality of nodes;
A distribution destination change processing unit that stops the distribution of the message to the reduced node and generates temporary distribution ID information indicating the data assignment of each node excluding the reduced node;
Using the temporary distribution ID information, duplicate data that is promoted to the original data when the reduced node is removed is extracted as original promotion target data, the extracted original promotion target data, and the reduction A limited synchronization processing unit that performs synchronization processing with the original data stored in the installation node;
After the synchronization processing by the limited synchronization processing unit, the original promotion processing unit that promotes the original promotion target data to the original data and then updates the current distribution ID information using the temporary distribution ID information When,
A data relocation processing unit for performing replication and relocation of the data so as to maintain the redundancy determined in the high availability system;
A node characterized by comprising:
前記ノードは、
各ノードの識別情報を示すIDに対応付けて、各ノードが処理するデータの担当を示す振り分けID情報を記憶部に記憶しており、
前記複数のノードの中から減設対象となるノードを示す減設ノードを決定するステップと、
前記減設ノードに対する前記メッセージの振り分けを停止し、前記減設ノードを除いた各ノードの前記データの担当を示す仮の振り分けID情報を生成するステップと、
前記仮の振り分けID情報を用いて、前記減設ノードが減設されたときに前記原本データに昇格する複製データを、原本昇格対象データとして抽出し、前記抽出した原本昇格対象データと、前記減設ノードに記憶される前記原本データとの間で同期処理を実行するステップと、
前記同期処理の後に、前記原本昇格対象データを前記原本データに昇格させ、その後に、前記仮の振り分けID情報を用いて、現状の振り分けID情報を更新させるステップと、
前記高可用システムに定められた冗長度を保つように、前記データの複製および再配置を実行するステップと、
を実行することを特徴とする保守減設方法。 Provided in a high availability system that distributes and processes messages to each of a plurality of nodes constituting a cluster, and stores the original data that is the original data processed as the message and the replicated data that is a duplicate thereof in different nodes. A maintenance / removal method for a maintenance / removal system that removes some of the plurality of nodes constituting the cluster,
The node is
In association with the ID indicating the identification information of each node, the distribution ID information indicating the charge of data processed by each node is stored in the storage unit,
Determining a reduction node indicating a node to be reduced from among the plurality of nodes;
Stopping the distribution of the message to the reduced node, and generating temporary allocation ID information indicating the data assignment of each node excluding the reduced node;
Using the temporary distribution ID information, duplicate data that is promoted to the original data when the reduced node is removed is extracted as original promotion target data, the extracted original promotion target data, and the reduction Executing a synchronization process with the original data stored in the installation node;
After the synchronization processing, the original promotion target data is promoted to the original data, and then the current distribution ID information is updated using the temporary distribution ID information.
Performing replication and relocation of the data so as to maintain the redundancy defined in the high availability system;
The maintenance reduction method characterized by performing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016115035A JP6564349B2 (en) | 2016-06-09 | 2016-06-09 | Maintenance reduction system, node and maintenance reduction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016115035A JP6564349B2 (en) | 2016-06-09 | 2016-06-09 | Maintenance reduction system, node and maintenance reduction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017220846A true JP2017220846A (en) | 2017-12-14 |
JP6564349B2 JP6564349B2 (en) | 2019-08-21 |
Family
ID=60656324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016115035A Active JP6564349B2 (en) | 2016-06-09 | 2016-06-09 | Maintenance reduction system, node and maintenance reduction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6564349B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019167802A1 (en) * | 2018-03-02 | 2019-09-06 | 日本電信電話株式会社 | Control device and control method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012221419A (en) * | 2011-04-13 | 2012-11-12 | Hitachi Ltd | Information storage system and data duplication method thereof |
JP2014146151A (en) * | 2013-01-29 | 2014-08-14 | Nippon Telegr & Teleph Corp <Ntt> | Node leaving processing system |
JP2015201027A (en) * | 2014-04-08 | 2015-11-12 | 日本電信電話株式会社 | Node and program |
-
2016
- 2016-06-09 JP JP2016115035A patent/JP6564349B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012221419A (en) * | 2011-04-13 | 2012-11-12 | Hitachi Ltd | Information storage system and data duplication method thereof |
JP2014146151A (en) * | 2013-01-29 | 2014-08-14 | Nippon Telegr & Teleph Corp <Ntt> | Node leaving processing system |
JP2015201027A (en) * | 2014-04-08 | 2015-11-12 | 日本電信電話株式会社 | Node and program |
Non-Patent Citations (1)
Title |
---|
佐藤 慶太 KEITA SATO: "JXTAを用いた自律分散型AnnoteaサーバWasabiの実装 Implementation of Autonomous Distr", 電子情報通信学会技術研究報告 IEICE TECHNICAL REPORT, vol. 113, no. 443, JPN6019008990, 2014, JP, pages 87 - 92 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019167802A1 (en) * | 2018-03-02 | 2019-09-06 | 日本電信電話株式会社 | Control device and control method |
JP2019153019A (en) * | 2018-03-02 | 2019-09-12 | 日本電信電話株式会社 | Control device and control method |
US11509573B2 (en) | 2018-03-02 | 2022-11-22 | Nippon Telegraph And Telephone Corporation | Control device and control method |
Also Published As
Publication number | Publication date |
---|---|
JP6564349B2 (en) | 2019-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6382454B2 (en) | Distributed storage and replication system and method | |
US11892982B2 (en) | Facilitating immediate performance of volume resynchronization with the use of passive cache entries | |
JP5686034B2 (en) | Cluster system, synchronization control method, server device, and synchronization control program | |
CN110874384B (en) | Method, device and system for expanding and shrinking capacity of database cluster | |
CN113010496B (en) | Data migration method, device, equipment and storage medium | |
WO2023071999A1 (en) | User matching method and apparatus, and device and storage medium | |
EP3570169B1 (en) | Method and system for processing device failure | |
JP6564349B2 (en) | Maintenance reduction system, node and maintenance reduction method | |
CN105323271B (en) | Cloud computing system and processing method and device thereof | |
CN113190620A (en) | Method, device, equipment and storage medium for synchronizing data between Redis clusters | |
JP2010152591A (en) | Database system, data processing method, and data processing program | |
JP5945252B2 (en) | Distributed processing system | |
US20240176762A1 (en) | Geographically dispersed hybrid cloud cluster | |
CN113254511B (en) | Distributed vector retrieval system and method | |
CN113890850B (en) | Route disaster recovery system and method | |
JP6322161B2 (en) | Node, data relief method and program | |
JP6473425B2 (en) | Node and data placement method | |
CN115277114B (en) | Distributed lock processing method and device, electronic equipment and storage medium | |
JP5711771B2 (en) | Node leave processing system | |
CN115543585B (en) | Enterprise number card data synchronization method, server and storage medium | |
JP5815000B2 (en) | Nodes and programs | |
WO2024061219A1 (en) | Information updating method, apparatus and device, storage medium, and program product | |
JP5711772B2 (en) | Cluster system | |
JP2017091248A (en) | Node and method for suppressing gravitation | |
JP6127005B2 (en) | Cluster system server device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180619 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190319 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6564349 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |