JP2001067257A - Inter-distributed node exclusive updating device - Google Patents

Inter-distributed node exclusive updating device

Info

Publication number
JP2001067257A
JP2001067257A JP24356999A JP24356999A JP2001067257A JP 2001067257 A JP2001067257 A JP 2001067257A JP 24356999 A JP24356999 A JP 24356999A JP 24356999 A JP24356999 A JP 24356999A JP 2001067257 A JP2001067257 A JP 2001067257A
Authority
JP
Japan
Prior art keywords
update
exclusive
nodes
exclusion
shared data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24356999A
Other languages
Japanese (ja)
Inventor
Akifumi Murata
明文 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP24356999A priority Critical patent/JP2001067257A/en
Publication of JP2001067257A publication Critical patent/JP2001067257A/en
Pending legal-status Critical Current

Links

Landscapes

  • Computer And Data Communications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To an inter-distributed node exclusive updating device easily integrable, and usable a data region on-line simultaneously while making data coincident with each other among nodes to improve the usability. SOLUTION: This inter-distributed node exclusive updating device is provided on the nodes of a network so that the same shared data can be held on all nodes in the exclusive state. In this case, all nodes A-D for holding shared data 11 are used as objects, and the shared data are exclusively updated for every region of virtual regions c1-cn by an exclusive managing part 14.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、分散ノード間で共
通のデータを排他更新する分散ノード間排他更新装置に
係り、特に、排他更新中であってもデータ領域を使用し
得る分散ノード間排他更新装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an exclusive update apparatus between distributed nodes for exclusively updating common data between distributed nodes, and more particularly to an exclusive update between distributed nodes which can use a data area even during exclusive update. It relates to an updating device.

【0002】[0002]

【従来の技術】従来から複数台の計算機を接続し、シス
テムを二重(多重)化したり、あるいは記憶データを二
重化したりすることが行われている。
2. Description of the Related Art Conventionally, a plurality of computers have been connected to duplicate (multiplex) a system or duplicate stored data.

【0003】このように、異なる計算機で同一のデータ
を確保するデータ更新処理は、排他更新処理と呼ばれて
いる。共通のデータを異なるプログラムで使用する場合
等では排他更新を行う必要がある。一般的に同一の計算
機内ではOS(オペレーティングシステム)がこのよう
な機能を提供している。
[0003] A data update process for securing the same data in different computers is called an exclusive update process. When common data is used in different programs, exclusive update must be performed. Generally, an OS (Operating System) provides such a function in the same computer.

【0004】しかしながら、複数の計算機間で排他更新
を行うには、計算機システム全体を二重(多重)化専用
の仕組みにする必要があり、このような仕組みを一般的
なLANやネットワークシステムに組み込むのは困難で
ある。
However, in order to perform exclusive update between a plurality of computers, it is necessary to make the entire computer system a mechanism dedicated to duplexing (multiplexing), and such a mechanism is incorporated into a general LAN or network system. It is difficult.

【0005】これに加え、排他更新処理においては、自
己の計算機(自ノード)と他の計算機(他ノード)との
間で共通のデータを互いに一致させるまで、すなわち、
ソフトウェアの構成制御が完了するまで、オンラインで
データ領域を使用することが不可能となっている。
[0005] In addition, in the exclusive update processing, the common data between its own computer (own node) and another computer (other node) are made to coincide with each other, that is,
Until the software configuration control is completed, it is impossible to use the data area online.

【0006】[0006]

【発明が解決しようとする課題】以上説明したように従
来の排他更新処理では、一般的なシステムに組込むこと
が困難である上、処理の完了までデータ領域が使用不可
となってしまう。このため、排他更新処理は、実際には
稼働しているものの利用者には使用不可となるため、利
用者から見た使用可能度(可用性)を低下させてしま
う。
As described above, in the conventional exclusive update processing, it is difficult to incorporate the exclusive update processing into a general system, and the data area becomes unusable until the processing is completed. For this reason, the exclusive update process is actually in operation but cannot be used by the user, so that the usability (availability) seen from the user is reduced.

【0007】本発明は上記実情を考慮してなされたもの
で、容易に組込可能であり、他ノードとの間でデータを
一致させつつ同時にオンラインでデータ領域を使用で
き、可用性を向上し得る分散ノード間排他更新装置を提
供することにある。
The present invention has been made in consideration of the above-mentioned circumstances, and can be easily incorporated. The data area can be used at the same time while matching data with other nodes, and the data area can be used online, so that the availability can be improved. An object of the present invention is to provide an exclusive update device between distributed nodes.

【0008】[0008]

【課題を解決するための手段】請求項1に対応する発明
は、ネットワークのノード上に設けられ、かつ排他状態
にある全てのノード上に同一の共有データを保持させる
ための分散ノード間排他更新装置であって、前記共有デ
ータを保持する全てのノードを対象とし、前記共有デー
タを仮想的な部分領域毎に排他更新する排他管理手段を
備えた分散ノード間排他更新装置である。
According to a first aspect of the present invention, there is provided an exclusive update between distributed nodes for holding the same shared data on all nodes in an exclusive state provided on nodes of a network. An apparatus for exclusive distribution between distributed nodes, comprising: an exclusive management unit that exclusively updates the shared data for each virtual partial area for all nodes holding the shared data.

【0009】また、請求項2に対応する発明は、ネット
ワークのノード上に設けられ、かつ排他状態にある全て
のノード上に同一の共有データを保持させるための分散
ノード間排他更新装置であって、前記共有データを仮想
的に分割して示す各部分領域を管理対象とし、前記各部
分領域毎に更新済又は未更新が記憶される更新管理用情
報記憶手段と、前記排他状態にある全てのノードの共有
データを更新対象とし、前記更新管理用情報記憶手段内
の未更新の各部分領域毎に、対応する部分の共有データ
を更新する更新処理手段とを備えた分散ノード間排他更
新装置である。
According to a second aspect of the present invention, there is provided an exclusive update apparatus between distributed nodes provided on a node of a network and holding the same shared data on all nodes in an exclusive state. An update management information storage unit in which each of the partial areas, which is obtained by virtually dividing the shared data, is set as a management target, and updated or unupdated is stored for each of the partial areas; An update processing unit that updates shared data of a corresponding part for each unupdated partial area in the update management information storage unit with the shared data of the node as an update target. is there.

【0010】さらに、請求項3に対応する発明は、ネッ
トワークのノード上に設けられ、かつ排他状態にある全
てのノード上に同一の共有データを保持させるための分
散ノード間排他更新装置であって、前記共有データを仮
想的に分割して示す複数の大領域を管理対象とし、前記
各大領域毎に更新済又は未更新が記憶される更新管理用
情報記憶手段と、前記排他状態にある全てのノードの共
有データを更新対象とし、前記更新管理用情報記憶手段
内の未更新の各大領域毎に、対応する部分の共有データ
を更新し、ある大領域を更新対象とした際に前記排他状
態に移行できないとき、この大領域を仮想的に分割した
小領域を前記更新管理用情報記憶手段の管理対象とし、
当該未更新の小部分領域毎に、対応する小部分の共有デ
ータを更新する更新処理手段とを備えた分散ノード間排
他更新装置である。
[0010] Furthermore, an invention corresponding to claim 3 is a distributed inter-node exclusive update apparatus provided on a node of a network and for holding the same shared data on all nodes in an exclusive state. An update management information storage unit that manages a plurality of large areas indicating virtual division of the shared data and stores updated or unupdated data for each of the large areas; The shared data of the node is set as an update target, the shared data of a corresponding portion is updated for each unupdated large area in the update management information storage means, and when a certain large area is set as an update target, the exclusive When the state cannot be shifted to, the small area virtually divided from the large area is set as a management target of the update management information storage unit,
The exclusive inter-distribution node updating apparatus includes update processing means for updating shared data of a corresponding small part for each of the non-updated small part areas.

【0011】(作用)従って、請求項1に対応する発明
は以上のような手段を講じたことにより、排他管理手段
が、共有データを保持する全てのノードを対象とし、共
有データを仮想的な部分領域毎に排他更新するので、容
易に組込可能であり、部分領域に関しては、他ノードと
の間でデータを一致させつつ同時に、部分領域以外の領
域に関しては、オンラインでデータ領域を使用できるの
で、可用性を向上させることができる。
(Operation) Therefore, the invention corresponding to claim 1 takes the above-described means, so that the exclusive management means targets all nodes holding the shared data, and transfers the shared data to the virtual nodes. Since exclusive update is performed for each partial area, it can be easily incorporated. For the partial area, the data area can be used online while the data other than the partial area is matched while data is matched with other nodes. Therefore, availability can be improved.

【0012】また、請求項2に対応する発明は、共有デ
ータを仮想的に分割して示す各部分領域を管理対象と
し、各部分領域毎に更新済又は未更新が記憶される更新
管理用情報記憶手段を設け、更新処理手段が、排他状態
にある全てのノードの共有データを更新対象とし、更新
管理用情報記憶手段内の未更新の各部分領域毎に、対応
する部分の共有データを更新するので、請求項1に対応
する作用と同様の作用を容易且つ確実に奏することがで
きる。
According to a second aspect of the present invention, there is provided update management information in which each partial area indicating virtual division of shared data is to be managed and updated or not updated is stored for each partial area. A storage unit is provided, and the update processing unit updates shared data of all nodes in the exclusive state as update targets, and updates, for each unupdated partial area in the update management information storage unit, shared data of a corresponding portion. Therefore, the same operation as the operation according to the first aspect can be easily and reliably performed.

【0013】さらに、請求項3に対応する発明は、共有
データを仮想的に分割して示す複数の大領域を管理対象
とし、各大領域毎に更新済又は未更新が記憶される更新
管理用情報記憶手段を設け、更新処理手段が、排他状態
にある全てのノードの共有データを更新対象とし、更新
管理用情報記憶手段内の未更新の各大領域毎に、対応す
る部分の共有データを更新し、ある大領域を更新対象と
した際に排他状態に移行できないとき、この大領域を仮
想的に分割した小領域を更新管理用情報記憶手段の管理
対象とし、当該未更新の小部分領域毎に、対応する小部
分の共有データを更新するので、請求項2に対応する作
用と同様の作用に加え、大領域で更新を実行し、大領域
で更新不能なときに小領域で更新するから、大領域の大
きさに応じて共有データ全体の排他更新処理を高速に実
行することができる。
Further, according to a third aspect of the present invention, there is provided an update management system for managing a plurality of large areas which virtually divide shared data and indicating whether each large area has been updated or not updated. An information storage unit is provided, and the update processing unit sets shared data of all nodes in the exclusive state as an update target, and for each large area not updated in the update management information storage unit, updates the shared data of a corresponding portion. When a large area is updated and a transition to the exclusive state cannot be made when the large area is updated, a small area obtained by virtually dividing the large area is set as a management target of the update management information storage unit, and the unupdated small partial area is updated. Since the shared data of the corresponding small portion is updated every time, in addition to the effect similar to that of the second aspect, the update is executed in the large region, and the update is performed in the small region when the large region cannot be updated. From, share according to the size of the large area The exclusive update processing of the entire over data can be executed at high speed.

【0014】[0014]

【発明の実施の形態】以下、本発明の各実施形態につい
て図面を用いて説明する。 (第1の実施形態)図1は本発明の第1の実施形態に係
る分散ノード間排他更新装置の一例を示す概念的な構成
図である。本実施形態の分散ノード間排他更新装置1
は、ネットワーク2のノードとなる計算機3(ノード
A,ノードB,..)に組み込まれるものである。同図
に示すように、排他確保状態にあるノードA,B上のう
ち例えばノードAのアプリケーションプログラム4が排
他更新要求を出力すると、排他更新装置1は、ネットワ
ーク2を介してその旨通知し、他ノードの排他更新装置
1によって当該他ノードの共有データ11が更新された
後に、自ノードの共有データ11を更新するようになっ
ている。なお、共有データ11は、各領域に仮想的に分
割され、各領域毎に排他更新されることにより、排他更
新中の領域以外のデータ領域がオンラインで使用可能と
なっている。
Embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) FIG. 1 is a conceptual configuration diagram showing an example of an inter-distributed node exclusive update apparatus according to a first embodiment of the present invention. Exclusive update device 1 between distributed nodes of this embodiment
Is incorporated in the computer 3 (node A, node B,...) Which is a node of the network 2. As shown in the figure, when, for example, the application program 4 of the node A among the nodes A and B in the exclusive securing state outputs an exclusive update request, the exclusive updating device 1 notifies the fact via the network 2 and After the shared data 11 of the other node is updated by the exclusive update device 1 of the other node, the shared data 11 of the own node is updated. The shared data 11 is virtually divided into areas, and is exclusively updated for each area, so that data areas other than the area being exclusively updated can be used online.

【0015】ここで、ネットワーク2は、専用回線や公
衆回線を用いるWANような大規模なネットワークシス
テムでもよく、また、イーサネット等のLANでもよ
い。以下の説明は、ネットワーク2としてLANを用い
た場合について説明する。
Here, the network 2 may be a large-scale network system such as a WAN using a dedicated line or a public line, or a LAN such as an Ethernet. In the following description, a case where a LAN is used as the network 2 will be described.

【0016】図2は本実施形態の分散ノード間排他更新
装置を適用するLANにおける計算機の構成例を示すブ
ロック図である。
FIG. 2 is a block diagram showing a configuration example of a computer in a LAN to which the exclusive update device between distributed nodes according to the present embodiment is applied.

【0017】同図に示すように、このネットワークシス
テムは、ノードA,B,C,D,..としての計算機3
A,3B,3C,3D,..から構成されている。以下
の説明では、特にノードを特定しない場合には、計算機
3,排他更新装置1と示し、ノードを特定する場合に
は、計算機3A,排他更新装置1A等と示す。
As shown in FIG. 1, the network system includes nodes A, B, C, D,. . Calculator 3 as
A, 3B, 3C, 3D,. . It is composed of In the following description, when a node is not specified, the computer 3 and the exclusive update device 1 are indicated, and when a node is specified, the computer 3A and the exclusive update device 1A are indicated.

【0018】計算機3は、そのノードの主たる機能を実
現するアプリケーションプログラム4と、排他更新装置
1と、記憶装置5と、ネットワークを介して他ノードと
通信するための通信装置6とを少なくとも備えている。
なお、この各装置1,4,5,6は、データやプログラ
ム等のソフトウエア手段とメモリやCPU等のハードウ
エア手段の単体あるいはこれらが結合してなる機能実現
手段である。
The computer 3 includes at least an application program 4 for realizing the main function of the node, an exclusive update device 1, a storage device 5, and a communication device 6 for communicating with another node via a network. I have.
Each of the devices 1, 4, 5, and 6 is a software unit such as data or a program and a hardware unit such as a memory or a CPU or a function realizing unit formed by combining these.

【0019】記憶装置5は、主記憶(メモリ)やハード
ディスク等の記憶手段から構成され、排他状態にあるア
プリケーション同士が共有する共有データ11と、非共
有データ12を格納する。共有データ11は例えばMM
APやファイルとして保存される。なお、MMAPは、
メモリをファイルにマップするものであり、プログラム
から見るとメモリと同じに見えるが実体はファイルとし
て存在するものである。
The storage device 5 includes storage means such as a main storage (memory) and a hard disk, and stores shared data 11 and non-shared data 12 that are shared by applications in an exclusive state. The shared data 11 is, for example, MM
It is saved as an AP or a file. MMAP is
It maps memory to a file, which looks the same as memory when viewed from a program, but the entity exists as a file.

【0020】アプリケーションプログラム4は、排他状
態にある場合には、排他更新装置1を介して記憶装置5
内の共有データ11にアクセスし、排他状態にあるか否
かにかかわらず、排他更新装置1を介さずに記憶装置5
内の非共有データ12にアクセスする。したがって、ア
プリケーションプログラム4は、排他更新装置1を介さ
ないとMMAP等からなる共有データ11にアクセスで
きない。なお、非共有データ12にアクセスする手段に
ついては図示を省略する。
When the application program 4 is in the exclusive state, the application program 4 stores it in the storage device 5 via the exclusive update device 1.
Access to the shared data 11 in the storage device 5 without passing through the exclusive update device 1 irrespective of whether the storage device 5 is in the exclusive state or not.
Access the non-shared data 12 in the. Therefore, the application program 4 cannot access the shared data 11 composed of MMAP or the like without passing through the exclusive update device 1. The means for accessing the non-shared data 12 is not shown.

【0021】排他更新装置1は、排他更新要求受付部1
3と、排他管理部14と、各領域毎に共有データ11を
更新するデータ管理部15と、障害検出部16とから構
成されている。ここでまず、排他更新要求受付部13
は、(OS又は)アプリケーションプログラム4から排
他更新要求を受け付け、排他管理部14に要求を引き渡
す。また、他ノードから排他更新要求があった場合に
は、その旨をアプリケーションプログラム4に通知す
る。障害検出部16は、他ノード間と一定時間毎に通信
を行い、この一定時間毎の通信が他ノードと行えないこ
とにより他ノードの障害を検出する。また、他ノードに
障害が発生した場合には、障害が発生したことを排他管
理部14へ通知する。
The exclusive update device 1 includes an exclusive update request receiving unit 1
3, an exclusive management unit 14, a data management unit 15 that updates the shared data 11 for each area, and a failure detection unit 16. Here, first, the exclusive update request receiving unit 13
Accepts an exclusive update request from the (OS or) application program 4 and passes the request to the exclusive management unit 14. When an exclusive update request is issued from another node, the exclusive update request is notified to the application program 4. The failure detection unit 16 communicates with the other nodes at regular intervals, and detects a failure at the other node by being unable to communicate with the other nodes at regular intervals. Further, when a failure occurs in another node, the exclusive management unit 14 is notified that the failure has occurred.

【0022】排他管理部14は、他ノードと通信を行い
実際に排他更新を行う。また、排他管理部14は、排他
要求処理のための通信中に他ノードに障害が発生した場
合はそのノードを切り離すようになっている。ここで、
排他更新は、排他確保フェーズと、分散更新フェーズ
と、排他解放フェーズとに分かれ、排他管理部14は、
これらの各フェーズにおける処理を行うようになってい
る。
The exclusion manager 14 communicates with another node and actually performs exclusion updating. Further, when a failure occurs in another node during communication for exclusion request processing, the exclusion manager 14 disconnects that node. here,
The exclusion update is divided into an exclusion securing phase, a distributed update phase, and an exclusion release phase.
The processing in each of these phases is performed.

【0023】図3は排他管理部14の詳細構成、並びに
他の構成要素との関係を示す模式図である。この排他管
理部14は、排他確保処理部21と、分散更新処理部2
2と、排他解放処理部23と、管理情報保持部24と、
タイマ25とを備えている。
FIG. 3 is a schematic diagram showing the detailed configuration of the exclusive management unit 14 and the relationship with other components. The exclusion management unit 14 includes an exclusion securing processing unit 21 and a distributed update processing unit 2
2, an exclusive release processing unit 23, a management information holding unit 24,
A timer 25 is provided.

【0024】排他確保処理部21は、排他更新要求受付
部13の要求に従い、通信装置6を介してデータをレプ
リケートすべき他のノードの排他管理部14と通信を行
い、当該他のノードにおける排他を確保する。また、タ
イマ25をスタートさせ、他ノードへのパケットがタイ
ムアウトすると、再送信などの処理を実行する。なお、
他ノードから排他確保要求を受けると排他確保処理を実
行するとともに、排他確保の旨の応答を当該他ノードへ
返す。
According to the request from the exclusion update request receiving unit 13, the exclusion securing processing unit 21 communicates with the exclusion management unit 14 of another node to which data is to be replicated via the communication device 6, and performs exclusion in the other node. To secure. Further, the timer 25 is started, and when a packet to another node times out, processing such as retransmission is performed. In addition,
When an exclusion securing request is received from another node, the exclusion securing process is executed, and a response to the effect of securing exclusion is returned to the other node.

【0025】この排他確保処理部21は、自ノードの要
求に基づく場合でも、また、他ノードの要求に基づく場
合でも、分散ノード間の排他確保に際し、記憶装置5に
おけるどの記憶領域共有データ11を格納するか等の管
理情報を作成し、管理情報保持部24に格納する。
The exclusion securing processing unit 21 determines which storage area shared data 11 in the storage device 5 when securing exclusion between distributed nodes, whether it is based on a request from its own node or a request from another node. Management information such as whether to store the information is created and stored in the management information holding unit 24.

【0026】また、分散更新処理部22は、排他確保処
理部21による排他成功後に、分散ノード共有データの
更新の要求を排他更新要求受付部13を介して受けたと
きに、その要求とともに更新データを他ノードに送る。
当該他ノードにおける更新処理がその応答により確認さ
れた後に、データ管理部15を介して共有データ11の
更新を行うとともに、管理情報保持部24の管理情報を
修正する。なお、他ノードから分散更新要求を受けたと
きには、管理情報保持部24の管理情報を修正しつつ、
共有データ11を更新し、当該他ノードに応答を返す。
これらの機能により分散更新が実現される。
When a request for updating shared node shared data is received via the exclusive update request receiving unit 13 after the exclusion is successfully completed by the exclusion securing processing unit 21, the distributed update processing unit 22 updates the update data together with the request. To other nodes.
After the update process in the other node is confirmed by the response, the shared data 11 is updated via the data management unit 15 and the management information in the management information holding unit 24 is corrected. When a distributed update request is received from another node, the management information in the management information holding unit 24 is modified while
The shared data 11 is updated, and a response is returned to the other node.
Distributed updating is realized by these functions.

【0027】なお、この分散更新処理には、タイマ25
を使用して再送信等のための時間管理を行う。
The distributed updating process is performed by the timer 25
Is used to perform time management for retransmission and the like.

【0028】排他解放処理部23は、排他更新が完了す
るときに、他ノードと通信を実施して排他を解放し、排
他更新要求受付部13へ排他完了を通知する。また、他
ノードから排他解放要求を排他解放処理を実行し、応答
を返す。なお、排他が途中で失敗したときには排他更新
要求受付部13へ排他更新失敗を通知する。また、排他
の解放に伴い、管理情報保持部24の管理情報を排他解
放を示す情報に変更する。排他解放処理部23は、タイ
マ25を使用して再送信等のための時間管理を行う。
When the exclusion update is completed, the exclusion release processing unit 23 communicates with another node to release the exclusion, and notifies the exclusion update request reception unit 13 of the exclusion completion. In addition, an exclusive release request is executed from another node, and a response is returned. When the exclusion fails in the middle, the exclusive update request receiving unit 13 is notified of the exclusion update failure. Further, with the release of the exclusion, the management information in the management information holding unit 24 is changed to information indicating the release of the exclusion. The exclusion release processing unit 23 uses the timer 25 to manage time for retransmission and the like.

【0029】管理情報保持部24は、自ノードが排他状
態にある間、共有データ11を記憶装置5内で識別で
き、また、管理するためのメモリ/ファイル番地等の管
理情報26と、共有データ11を仮想的な各領域毎に排
他更新するための更新管理用ビットマップテーブル27
とを保持する。
The management information holding unit 24 can identify the shared data 11 in the storage device 5 while the own node is in the exclusive state, and also stores management information 26 such as a memory / file address for management and shared data. Update management bitmap table 27 for exclusively updating 11 for each virtual area
And hold.

【0030】管理情報26は、共有データとして記憶さ
れる各共有部分に対応し、この管理情報26によって、
記憶装置5内の特定の情報(各共有部分)が分散ノード
間で共有され、排他状態にあると識別されるようになっ
ている。
The management information 26 corresponds to each shared portion stored as shared data.
Specific information (each shared part) in the storage device 5 is shared between the distributed nodes and is identified as being in an exclusive state.

【0031】更新管理用ビットマップテーブル27は、
図4に模式的に示すように、共有データ11の仮想的な
各領域c1〜cnに対応したビットマップ領域b1〜b
nを有し、排他更新の開始時には全領域b1〜bnがク
リアされ、分散更新処理部22により共有データ11の
ある領域ci(iは任意の数)が更新される毎に、更新
完了した領域ciに対応するビットマップ領域bi(i
はciのiと同じ数)がチェックされ(更新済フラグが
立てられ)、排他更新の終了時には結果的に全てのビッ
トマップ領域b1〜bnがチェックされているものであ
る。換言すると、更新管理用ビットマップテーブル27
は、更新済フラグの有無に基づき、各ビットマップ領域
b1〜bn毎に、対応する領域c1〜cnの共有データ
11の更新済/未更新を示すものである。
The update management bitmap table 27 is
As schematically shown in FIG. 4, bitmap areas b1 to b corresponding to virtual areas c1 to cn of shared data 11 are provided.
n, all areas b1 to bn are cleared at the start of the exclusive update, and each time an area ci (i is an arbitrary number) of the shared data 11 is updated by the distributed update processing unit 22, the area is updated. bitmap area bi (i
(The same number as i of ci) is checked (the updated flag is set), and at the end of the exclusive update, all the bitmap areas b1 to bn are eventually checked. In other words, the update management bitmap table 27
Indicates, for each of the bitmap areas b1 to bn, whether the shared data 11 of the corresponding area c1 to cn has been updated or not updated, based on the presence or absence of the updated flag.

【0032】すなわち、排他管理部14は、各領域ci
毎に共有データ11を更新することにより、更新中の領
域ci以外の共有データ領域c1〜ci-1 ,ci+1 〜c
nをオンラインで使用可能としている。
That is, the exclusion manager 14 sets each area ci
By updating the shared data 11 each time, the shared data areas c1 to ci-1 and ci + 1 to c other than the area ci being updated are updated.
n can be used online.

【0033】次に、以上のように構成された本実施形態
における分散ノード間排他更新装置の動作について説明
する。
Next, the operation of the exclusive update apparatus between distributed nodes according to the present embodiment configured as described above will be described.

【0034】本実施形態では、ネットワーク2に接続さ
れる計算機3として、少なくとも4つのノードノード
A,B,C及びDが存在し、これらの4つのノード間で
共有データ11の一領域ciのレプリケートが実施され
る場合を考える。
In the present embodiment, there are at least four node nodes A, B, C and D as the computer 3 connected to the network 2, and the one area ci of the shared data 11 is replicated among these four nodes. Is implemented.

【0035】排他更新は、上記したように、排他確保フ
ェーズと分散更新フェーズと排他解放フェーズにわかれ
る。それぞれフェーズでの通信プロトコルのシーケンス
に付いて述べる。なお、一領域ci以外の領域に関して
は、排他更新中であってもオンラインで使用可能となっ
ている。また、以下に述べる一領域ciの一連の排他更
新は、図5に示すように、共有データ11の全ての領域
c1〜cnにおける更新完了まで繰り返し実行される。
なお、以下の説明は図5のフローチャートと図6〜図1
0のシーケンス図との両者により行なう。
As described above, the exclusive update is divided into an exclusive securing phase, a distributed update phase, and an exclusive release phase. The communication protocol sequence in each phase will be described. The areas other than the one area ci can be used online even during the exclusive update. In addition, a series of exclusive updates of one area ci described below are repeatedly executed until the update of all the areas c1 to cn of the shared data 11 is completed, as shown in FIG.
The following description is based on the flowchart of FIG. 5 and FIGS.
This is performed according to both the sequence diagram of FIG.

【0036】1)排他確保 図6は排他確保プロトコルによる基本的な処理を示す図
である。排他確保は、主に排他管理部14の排他確保処
理部21により実現される。まず、開始時に更新管理用
ビットマップテーブル27がクリアされた後(ST
1)、各ノード(計算機3)における排他確保処理部2
1によって、基本的には次のような排他確保のシーケン
スが実行される。
FIG. 6 is a diagram showing a basic process according to the exclusion securing protocol. The exclusion securing is mainly realized by the exclusion securing processing unit 21 of the exclusion management unit 14. First, after the update management bitmap table 27 is cleared at the start (ST
1), exclusion securing processing unit 2 in each node (computer 3)
1 executes basically the following sequence of securing exclusion.

【0037】まず、排他確保要求ノードから他ノードへ
排他確保要求が送信される(s1:ST2)。
First, the exclusion securing request node transmits an exclusion securing request to another node (s1: ST2).

【0038】次に、排他確保要求受信ノードからOK又
はNGが排他確保ノードへ応答される(s2)。図6に
は、すべてOKが返された場合が示されている(ST
3:OK)。
Next, OK or NG is responded to the exclusion securing node from the exclusion securing request receiving node (s2). FIG. 6 shows a case where all OKs are returned (ST
3: OK).

【0039】そして、全ノードからの排他許可応答(O
K)を受け取った時点で排他確保要求ノードから成功
(排他開始)/失敗のプロトコルが全ノードへ送信され
る(s3)。なお、NGを受け取った場合には排他失敗
が送信される(ST3:NG)。この場合、いずれかの
ノードが共有データ11の領域ciを使用中のために排
他失敗したのであれば(ST4:Y)、次の領域ci+1
を対象として(ST5)ステップST2に戻り、後述す
るパケット紛失や排他競合による失敗であれば(ST
4:N)、同じ領域ciを対象としてリトライする。
Then, the exclusion permission response (O
Upon receiving K), the exclusion securing request node transmits a success (exclusion start) / failure protocol to all nodes (s3). When an NG is received, an exclusion failure is transmitted (ST3: NG). In this case, if any node fails in exclusion because the area ci of the shared data 11 is being used (ST4: Y), the next area ci + 1
(ST5) and returns to step ST2, and if the failure is due to packet loss or exclusion conflict described later (ST5).
4: N), a retry is performed for the same area ci.

【0040】このプロトコルはどのノードが現在排他を
行っているかを全ノードが明確に認識できる利点があ
る。また、排他制御は排他管理部14により行われ、障
害検出は障害検出部16により別途に行われるようにな
っており、両者が区別されているためパケット損失に付
いては再送処理を行うだけでよい。なお、障害検出は、
排他確保,分散更新,排他解放の各フェーズにかかわら
ず、以下、障害検出部16によって継続して行われ、障
害検出時にはその旨が排他管理部14に通知され、排他
管理部14によって、障害発生ノードを切り離す処理が
実行される。
This protocol has the advantage that all nodes can clearly recognize which node is currently exclusive. The exclusive control is performed by the exclusive management unit 14, and the failure detection is separately performed by the failure detection unit 16. Since the two are distinguished from each other, it is only necessary to perform a retransmission process for packet loss. Good. In addition, failure detection
Regardless of each phase of exclusion securing, distributed update, and exclusion release, the following is continuously performed by the failure detection unit 16, and when a failure is detected, the fact is notified to the exclusion management unit 14, and the exclusion management unit 14 generates a failure. Processing for separating the node is executed.

【0041】次に、パケット紛失がある場合のプロトコ
ルを図7に示す。図7はパケット紛失がある場合の排他
確保プロトコルによる処理を示す図である。同図に示す
ように、排他確保要求者(ノードA)において、排他確
保要求プロトコルが送信されるときに(t1)タイムア
ウト検出用のタイマ25が起動される。例えば図7に示
すように、排他確保要求の紛失(ノードBへの送信)、
排他確保要求の応答(ノードDからの応答)のどちらか
が紛失した場合、このタイムアウト(t2)によりパケ
ット紛失の検出がなされ、排他確保要求が再送される
(t3)。全ノードから排他確保の応答を受信するまで
これが繰り返される。
Next, FIG. 7 shows a protocol when a packet is lost. FIG. 7 is a diagram showing processing by an exclusion securing protocol when a packet is lost. As shown in the figure, when the exclusion securing requester (node A) transmits the exclusion securing request protocol (t1), the timer 25 for detecting a timeout is started. For example, as shown in FIG. 7, the exclusion securing request is lost (transmitted to the node B),
When either the response to the exclusion securing request (response from the node D) is lost, packet loss is detected by this timeout (t2), and the exclusion securing request is retransmitted (t3). This is repeated until exclusion securing responses are received from all nodes.

【0042】全ノードから排他確保の応答を受信したの
ちに(t4)、排他確保要求ノード(ノードA)から排
他開始宣言が送信される(t5)。このパケットが紛失
した場合は、応答ノードにてタイムアウト検出が行なわ
れる(t6)。
After receiving the exclusion securing response from all nodes (t4), the exclusion securing requesting node (node A) transmits an exclusion start declaration (t5). If this packet is lost, the response node detects a timeout (t6).

【0043】例えば図7に示すように、ノードCへの排
他開始宣言が紛失した場合、ノードCでは排他確保要求
受信時からタイムアウト検出用のタイマ25が起動され
ており、タイムアウト検出時に再度排他確保応答の送信
が実施される(t7)。
For example, as shown in FIG. 7, when the exclusion start declaration to the node C is lost, the timeout detection timer 25 is started in the node C from the time of receiving the exclusion securing request. A response is transmitted (t7).

【0044】排他確保要求ノード(ノードA)は既に排
他を開始している為、このパケットに対しては、単に排
他開始宣言が再送される。すなわちノードCへ排他開始
要求が送信される(t8)。上記の場合、プロトコル上
では、排他開始時間が4ノード間で異なっているが以下
の2点により問題は発生しない。 ・排他確保の目的は分散更新であり、分散更新が発生す
る前に排他が完了していれば問題は無い。 ・このプロトコル中、他から排他要求は発生しない(他
ノードからの排他確保要求に対して一旦OKで応答する
と、自ノードからは排他確保要求を発生させない)。 次に、排他要求の競合が発生した場合に付いて図8を用
いて説明する。図8は排他競合が発生した場合の排他確
保プロトコルによる処理を示す図である。同図に示すよ
うに、ノードAとノードDから排他確保要求が発生した
場合(u1,v1)、応答ノードから最初に受信した排
他確保要求に対してOKが応答され、後から受信した排
他確保要求に対してはNGが応答される。図8の例で
は、ノードAはノードDからNG、ノードB/CからO
Kを受信する(u2)。全ノードからOK応答を受信で
きなかったため、ノードAからは排他確保失敗が全ノー
ドに通知される(u3)。一方、ノードDは全ノードか
らNGを受信するため(v2)、ノードDからも全ノー
ドへ排他確保失敗が通知される(v3)。
Since the exclusion securing request node (node A) has already started exclusion, an exclusion start declaration is simply retransmitted for this packet. That is, an exclusion start request is transmitted to the node C (t8). In the above case, the exclusion start time differs among the four nodes in the protocol, but no problem occurs due to the following two points. The purpose of securing exclusion is distributed update, and there is no problem if exclusion is completed before distributed update occurs. During this protocol, no exclusion request is issued from another (Once a response to the exclusion reservation request from another node is OK, the exclusion reservation request is not issued from the own node). Next, a case in which a conflict between exclusive requests occurs will be described with reference to FIG. FIG. 8 is a diagram showing processing by an exclusion securing protocol when an exclusion conflict occurs. As shown in the figure, when an exclusion securing request is issued from the nodes A and D (u1, v1), OK is responded to the exclusion securing request first received from the responding node, and the exclusion securing received later is received. NG is responded to the request. In the example of FIG. 8, the node A is NG from the node D, and is O from the node B / C.
K is received (u2). Since the OK response could not be received from all the nodes, the exclusive exclusion failure is notified from the node A to all the nodes (u3). On the other hand, since the node D receives NG from all the nodes (v2), the node D also notifies all nodes of the failure in securing the exclusion (v3).

【0045】ノードA、ノードDはランダム時間スリー
プし、その時間経過後に排他確保要求がノードA、ノー
ドDから再度送信される(u4,v4)。
The nodes A and D sleep for a random time, and after the lapse of the time, the exclusion securing request is transmitted from the nodes A and D again (u4, v4).

【0046】排他競合が発生した場合には、全ノードか
ら排他確保要求のOK応答を受信するまでリトライす
る。また、一度全ノードからOK応答を受信した場合
は、排他要求ノードのノード障害が発生しない限り必ず
排他は成功する。
When an exclusion conflict occurs, retry is performed until an OK response to the exclusion securing request is received from all nodes. Further, once OK responses are received from all nodes, exclusion always succeeds unless a node failure of the exclusion requesting node occurs.

【0047】2)分散更新プロトコル 次に分散更新プロトコルに付いて述べる。分散更新は、
主に排他管理部14の分散更新処理部22により実現さ
れる。分散更新プロトコルは既に全ノードで排他ノード
を認識しているため、更新に対して応答のみを返せばよ
い。また、競合が発生しないため、パケット紛失が発生
した場合は更新要求ノードにてリトライを実施すれば充
分である。
2) Distributed Update Protocol Next, the distributed update protocol will be described. Distributed updates are
This is mainly realized by the distributed update processing unit 22 of the exclusive management unit 14. In the distributed update protocol, since all nodes have already recognized the exclusive node, only a response to the update need be returned. Further, since no contention occurs, if a packet is lost, it is sufficient to retry the update request node.

【0048】図9は分散更新プロトコルによる処理を示
す図である。分散更新要求ノード(ノードA)において
は、更新要求が送信される時点(w1:ST6)でタイ
ムアウト用タイマが起動される(w2)。この更新要求
は、アプリケーションプログラム4が共有データ4の内
容変更(分散更新)を排他更新装置1に要求する場合
に、排他状態にあるノードに更新内容情報とともに送信
されるものである。
FIG. 9 is a diagram showing processing according to the distributed update protocol. In the distributed update request node (node A), a time-out timer is started (w2) at the time when the update request is transmitted (w1: ST6). This update request is transmitted together with the update content information to the node in the exclusive state when the application program 4 requests the exclusive update device 1 to change the content of the shared data 4 (distributed update).

【0049】図9に示すように、ノードCへの要求パケ
ット、ノードBからの応答パケット紛失が発生した場
合、タイムアウト検出後、更新要求が再送される(w
3)。ノードCからはそのまま応答が返され、ノードB
からは既に更新が完了しているが再度応答が返される。
分散更新要求ノードからは、全ノードから応答を受信す
るまでこれが繰り返され、全ノードから応答を受信する
と、分散更新要求ノードの共有データ11の一領域ci
が書き換えられて更新が完了される(w4)と共に、更
新管理用ビットマップテーブル27の対応する領域bn
がチェックされる(ST10)。
As shown in FIG. 9, when a request packet to the node C and a response packet from the node B are lost, an update request is retransmitted after a timeout is detected (w
3). The response is returned as it is from node C, and node B
Has already completed the update, but returns a response again.
From the distributed update request node, this is repeated until responses are received from all nodes. When responses are received from all nodes, one area ci of the shared data 11 of the distributed update request node
Is updated to complete the update (w4), and the corresponding area bn of the update management bitmap table 27 is updated.
Is checked (ST10).

【0050】3)排他解放プロトコル 最後に排他解放プロトコルシーケンスに付いて述べる。3) Exclusive Release Protocol Finally, the exclusive release protocol sequence will be described.

【0051】排他解放は、主に排他管理部14の排他解
放処理部22により実現される。図10は排他解放プロ
トコルによる処理を示す図である。排他解放プロトコル
では、分散更新プロトコルと同様な処理が行われる。
The exclusion release is realized mainly by the exclusion release processing unit 22 of the exclusion management unit 14. FIG. 10 is a diagram showing processing according to the exclusive release protocol. In the exclusion release protocol, processing similar to that in the distributed update protocol is performed.

【0052】すなわちまず排他解放要求ノード(ノード
A)から解放要求が送信され(x1:ST8)、各ノー
ドからOKの応答が戻される。なお、解放要求が受信さ
れたノードでは排他が解放される。一方、ノードCへの
要求パケットや、ノードBからの応答パケット紛失が発
生した場合には、タイムアウト検出後(x2)、排他解
放要求が再送される(x3)。ノードCでは排他解放さ
れるとともに応答が返され、ノードBからは既に排他解
放が完了しているが再度応答が返される。排他解放要求
ノードからは、全ノードから応答を受信するまでこれが
繰り返され、全ノードから応答を受信すると、排他解放
要求ノード自身が排他解放され排他解放が完了する(x
4:ST9)。
That is, first, a release request is transmitted from the exclusive release request node (node A) (x1: ST8), and an OK response is returned from each node. Note that the node receiving the release request releases the exclusion. On the other hand, when a request packet to the node C or a response packet from the node B is lost, an exclusive release request is retransmitted (x3) after a timeout is detected (x2). The node C releases the exclusion and returns a response. The node B has already completed the exclusion release, but returns a response again. This is repeated from the exclusive release request node until responses are received from all nodes. When responses are received from all nodes, the exclusive release request node itself is exclusively released and exclusive release is completed (x
4: ST9).

【0053】なお、図10の場合において、例えば先に
解放が完了しているノードD等から、次の排他要求が発
生することがある。しかし、ノードAは全ノードからの
排他完了の応答を受信するまで排他を解放しない為、こ
の要求は成功しない。よって、ノード間での解放完了の
時間的ズレによる問題は発生しない。
In the case of FIG. 10, the next exclusion request may be issued from, for example, the node D which has already been released. However, this request does not succeed because the node A does not release the exclusion until receiving a response indicating completion of exclusion from all nodes. Therefore, there is no problem due to a time lag of release completion between the nodes.

【0054】以上により、共有データ11の一領域ci
に関して排他更新処理が完了する。なお、このような排
他確保処理、分散更新処理及び排他解放処理は、更新管
理用ビットマップテーブル27の領域b1〜bnの全て
がチェックされるまで継続して実行される(ST1
0)。例えば、排他確保要求時に使用中のために排他確
保できずに飛ばした領域ckが存在したとしても、対応
するビットマップ領域ckが未チェックのため、再度、
排他更新が実行される。
As described above, one area ci of the shared data 11
, The exclusive update process is completed. Note that such exclusion securing processing, distributed update processing, and exclusion release processing are continuously executed until all the areas b1 to bn of the update management bitmap table 27 are checked (ST1).
0). For example, even if there is an area ck skipped because exclusive use cannot be ensured because it is in use at the time of requesting exclusive control, the corresponding bitmap area ck has not been checked, so
An exclusive update is performed.

【0055】すなわち、排他更新処理は、共有データ1
1の全ての領域c1〜cnにおける更新完了まで継続し
て実行される。
That is, the exclusive update process is performed for the shared data 1
The processing is continuously executed until the update is completed in all the areas c1 to cn.

【0056】次に、本実施形態の分散ノード間排他更新
装置の応用例を説明する。
Next, an application example of the exclusive update apparatus between distributed nodes according to the present embodiment will be described.

【0057】図11は本実施形態の分散ノード間排他更
新装置の応用例を示す模式図である。同図(a)には、
遠距離でのデータバックアップシステムに分散ノード間
排他更新装置が応用された場合が示されている。
FIG. 11 is a schematic diagram showing an application example of the inter-distributed node exclusive update apparatus of the present embodiment. In FIG.
The figure shows a case where an exclusive update device between distributed nodes is applied to a long-distance data backup system.

【0058】同図に示すように、本実施形態の分散ノー
ド間排他更新装置をデータバックアップシステムに組み
込めば、各ファイルシステムが遠距離に離れていても一
般的なネットワークを用いて両システムのデータレプリ
ケーションが可能となる。したがって、例えば阪神大震
災のような地震があって大阪側システムのデータが失わ
れたような場合でも、東京側のシステムにより必要な情
報が保持される。
As shown in the figure, if the exclusive update device between distributed nodes according to the present embodiment is incorporated in a data backup system, even if each file system is far away, the data of both systems can be used using a general network. Replication becomes possible. Therefore, even if an earthquake such as the Great Hanshin Earthquake causes data loss in the Osaka system, necessary information is retained by the Tokyo system.

【0059】また、図11(b)には、分散ノード間排
他更新装置が分散処理システムへ応用される例が示され
ている。
FIG. 11B shows an example in which the inter-distributed node exclusive update device is applied to a distributed processing system.

【0060】大量なデータ処理を要するプログラムを実
行させる場合、例えばその部分的なプログラム(アプリ
ケーションA,B)をノードA,Bに分散して搭載し、
各々の計算機資源を使って並列的に処理することが可能
となる。同図に示すように、本実施形態の分散ノード間
排他更新装置1を介して分散処理システムを構築するこ
とで一種の並列処理計算機をネットワーク上で簡易かつ
確実に構成することが可能となる。
When a program requiring a large amount of data processing is executed, for example, partial programs (applications A and B) are distributed and mounted on nodes A and B,
Processing can be performed in parallel using each computer resource. As shown in the figure, by constructing a distributed processing system via the inter-distributed node exclusive update device 1 of the present embodiment, a kind of parallel processing computer can be simply and reliably configured on a network.

【0061】上述したように本実施形態によれば、排他
管理部14が、共有データ11を保持する全てのノード
A〜Dを対象とし、共有データ11を仮想的な領域c1
〜cn毎に排他更新するので、容易に組込可能であり、
領域ciに関しては、他ノードとの間でデータを一致さ
せつつ同時に、領域ci以外の領域c1〜ci-1 ,cc
i+1 〜cnに関しては、オンラインでデータ領域を使用
できるので、可用性を向上させることができる。
As described above, according to the present embodiment, the exclusion manager 14 targets all nodes A to D holding the shared data 11 and stores the shared data 11 in the virtual area c1.
Since exclusive update is performed every ~ cn, it can be easily incorporated,
Regarding the area ci, the data is matched with the other nodes, and at the same time, the areas c1 to ci-1, cc other than the area ci are set.
For i + 1 to cn, the data area can be used online, so that the availability can be improved.

【0062】詳しくは、共有データ11を仮想的に分割
して示す各領域b1〜bnを管理対象とし、各領域b1
〜bn毎に更新済又は未更新が記憶される更新管理用ビ
ットマップテーブル27を設け、分散更新処理部22
が、排他状態にある全てのノードの共有データ11を更
新対象とし、更新管理用ビットマップテーブル27内の
未更新の各領域bi毎に、対応する領域ciの共有デー
タ11を更新するので、前述した効果を容易且つ確実に
奏することができる。
More specifically, each area b1 to bn, which is a virtual division of the shared data 11, is managed, and each area b1
, An update management bitmap table 27 in which updated or unupdated data is stored for each.
Updates the shared data 11 of the corresponding area ci for each unupdated area bi in the update management bitmap table 27, with the shared data 11 of all nodes in the exclusive state as update targets. The effect described above can be easily and reliably achieved.

【0063】また、本実施形態は、以上の効果に加え、
以下のような効果を奏する。すなわち、異なるノード上
の複数アプリケーションプログラム4がデータを共有
し、また共有データ11を更新するときには、排他更新
要求受付部13を介して排他更新を受け付け、また、排
他管理部14によって他のノードとの応答をしてからデ
ータ共有及び共有データ変更をするようにしたので、排
他状態としたいすべてのノードについて確実に排他を確
保することができ、分散ノード間でレプリケートされた
データを、レプリケートされていることを保証しなが
ら、各ノードで自由にアクセスし排他更新を実施するこ
とができる。
This embodiment has the advantages described above.
The following effects are obtained. That is, when the plurality of application programs 4 on different nodes share data and update the shared data 11, the exclusive update is received via the exclusive update request receiving unit 13, and the exclusive management unit 14 communicates with another node. Data sharing and changing the shared data after the response, it is possible to reliably ensure exclusion for all nodes that are to be placed in an exclusive state, and to replicate data replicated between distributed nodes. It is possible to freely access and execute exclusive update at each node while ensuring that the nodes are updated.

【0064】ここで、排他確保時においては、指定され
た1以上のノードに対し、排他確保処理部21により排
他状態に移行するようにネットワークを介して要求され
る。各ノードからはこの排他確保要求に対して排他許可
応答(OK)や拒絶通知(NG)等の応答が返されるこ
とになるが、排他許可応答を受け取るときには、当該ノ
ードにおいて既に排他状態への移行が終了しているか、
若しくは移行が確定的な状態にある。
Here, at the time of exclusion securing, the exclusion securing processing unit 21 requests one or more designated nodes via the network to shift to the exclusive state. A response such as an exclusion permission response (OK) or a rejection notification (NG) is returned from each node in response to the exclusion securing request. When the exclusion permission response is received, the node has already shifted to the exclusion state. Is finished or
Or the transition is in a definite state.

【0065】そして、排他確保要求を送信したすべての
ノードから排他許可応答(OK)が受信されると、排他
確保処理部21によって、自己ノードが排他状態に移行
させられる。
Then, when the exclusion permission response (OK) is received from all nodes that have transmitted the exclusion securing request, the exclusion securing processing unit 21 causes the own node to shift to the exclusive state.

【0066】このように、他ノードの排他移行を確認し
てから自己ノードを排他状態に移行させるようにしたの
で、排他状態としたいすべてのノードについて、確実に
排他を確保することができる。
As described above, since the self-node is shifted to the exclusive state after confirming the exclusive shift of the other node, it is possible to reliably ensure the exclusion of all the nodes to be set to the exclusive state.

【0067】次に、分散更新においては、指定された1
以上のノード及び自己ノードが排他状態にあるときに、
共有データの更新要求が受け付けられるようになってい
る。
Next, in the distributed update, the designated 1
When the above nodes and the own node are in the exclusive state,
An update request for shared data is accepted.

【0068】また、分散更新処理部22によって、排他
更新要求受付部13が受け付けた更新データを添付し
て、指定された1以上のノードにネットワークを介して
共有データが領域ci毎に更新されるよう要求される。
この更新要求に応じて各ノードにおいては同一の共有デ
ータが領域ci毎に更新データによって更新されること
になり、その更新後もしくは更新が確定的な状態となっ
た後に、要求に対する応答が返されることになる。
The distributed update processing unit 22 attaches the update data received by the exclusive update request reception unit 13 and updates the shared data for each area ci to one or more designated nodes via the network. Is required.
In response to this update request, the same shared data is updated by the update data for each area ci in each node, and a response to the request is returned after the update or after the update is in a definite state. Will be.

【0069】更新要求を送信したすべてのノードから共
有データの更新済通知が受信されると、分散更新処理部
22及びデータ管理部15によって、自己ノードにおけ
る共有データが領域ci毎に更新させされる。
When the update notice of the shared data is received from all the nodes that have transmitted the update request, the distributed update processing unit 22 and the data management unit 15 update the shared data in the own node for each area ci. .

【0070】このように、他ノードでの更新処理を確認
してから自己ノードの共有データ11を更新するように
したので、分散ノード間にレプリケートされたデータ
を、レプリケートされていることを保証しながら各ノー
ドで自由かつ確実に排他更新することができる。
As described above, since the shared data 11 of the own node is updated after confirming the update processing at the other node, it is ensured that the data replicated between the distributed nodes is replicated. However, exclusive update can be freely and reliably performed at each node.

【0071】また、排他確保処理部21は、排他確保要
求を送信してから所定時間経過しても応答しないノード
がある場合には、当該ノードに対し、再び排他確保要求
を送信するので、ネットワーク上で排他確保要求や排他
許可応答等のパケットを紛失した場合でも、再要求が送
信され、より確実な排他移行を確保することができる。
When there is a node that does not respond after a lapse of a predetermined time from the transmission of the exclusion securing request, the exclusion securing processing unit 21 transmits the exclusion securing request to the node again. Even when a packet such as an exclusion securing request or an exclusion permission response is lost, a re-request is transmitted, and more secure exclusion transfer can be secured.

【0072】また、排他確保部21は、排他確保要求を
送信した何れかのノードから移行拒絶通知を受け取った
場合には、ランダムに設定される時間が経過した後に、
再び指定された1以上のノードに排他確保要求を送信す
るので、同一ネットワーク上の複数ノードにおける分散
ノード間排他更新装置それぞれから移行要求が送出さ
れ、排他競合が生じたような場合であっても、ランダム
に設定される時間が経過した後に、再び指定された1以
上のノードに移行要求が送信されるので、競合状態を解
除することができる。
When the exclusive exclusion unit 21 receives a transfer rejection notification from any of the nodes that transmitted the exclusion securing request, the exclusion securing unit 21 waits for a randomly set time to elapse.
Since the exclusion securing request is transmitted to one or more designated nodes again, even if a migration request is sent from each of the distributed node exclusion update devices in a plurality of nodes on the same network, exclusion conflict occurs. After the time set at random has elapsed, the transfer request is transmitted again to one or more designated nodes, so that the race condition can be released.

【0073】また、分散更新処理部22は、更新要求を
送信してから所定時間経過しても応答しないノードがあ
る場合には、当該ノードに対し、再び更新データを添付
した更新要求を送信するので、ネットワーク上で更新要
求や更新済通知等のパケットを紛失した場合でも、再要
求が送信され、より確実な排他移行を確保することがで
きる。
When there is a node that does not respond even after a predetermined time has passed since the transmission of the update request, the distributed update processing unit 22 transmits an update request to which the update data is attached again to the node. Therefore, even when a packet such as an update request or an update completion notification is lost on the network, a re-request is transmitted, and a more secure exclusive transfer can be ensured.

【0074】(第2の実施形態)次に、本発明の第2の
実施形態について図面を用いて説明するが、前述した図
面と同一部分には同一符号を付してその説明を省略し、
ここでは異なる部分について主に述べる。
(Second Embodiment) Next, the second embodiment of the present invention will be described with reference to the drawings.
Here, different parts will be mainly described.

【0075】すなわち、本実施形態は、第1の実施形態
の変形例であり、排他更新処理の高速化を図るものであ
って、具体的には図12に示すように、前述した更新管
理用ビットマップテーブル27に代えて、更新管理用ビ
ットマップテーブル27の例えば4つの領域b1〜b
4,b5〜b8,…,bn-3 〜bnに相当する大きさの
夫々の領域G1,G2,…,Gn/4 を有する大領域ビッ
トマップテーブル28を管理情報保持部26が備えてい
る。
That is, the present embodiment is a modification of the first embodiment, and aims at speeding up the exclusive update process. Specifically, as shown in FIG. Instead of the bitmap table 27, for example, four areas b1 to b of the update management bitmap table 27
The management information holding unit 26 includes a large area bitmap table 28 having areas G1, G2,..., Gn / 4 having sizes corresponding to 4, b5 to b8,.

【0076】ここで、排他管理部14は、前述した機能
に加え、排他更新の開始時に大領域ビットマップテーブ
ル28をクリアする機能と、1〜2巡目の排他更新には
大領域ビットマップテーブル28をそのまま用いて更新
完了した領域Gi,…をチェックする機能と、2巡目に
排他確保の失敗した領域Gkに対し、この領域Gkを例
えば図13に示すように4つの小領域gk1〜gk4に
分割し、これら小領域gk1〜gk4を順次、排他更新
する機能をもっている。
Here, in addition to the functions described above, the exclusive management unit 14 has a function of clearing the large area bitmap table 28 at the start of the exclusive update, and a large area bitmap table ., And the area Gk for which exclusion was not secured in the second cycle, this area Gk is replaced with, for example, four small areas gk1 to gk4 as shown in FIG. And the exclusive update of these small areas gk1 to gk4 is sequentially performed.

【0077】次に、以上のような構成の分散ノード間排
他更新装置の動作を図14のフローチャートを用いて説
明する。いま、排他管理装置14は、大領域ビットマッ
プテーブル28を用い(ST1a)、大きいサイズの各
領域Gi毎に、前述同様に排他更新を実行し(ST2〜
ST6)、更新完了後にその領域Giをチェックする
(ST7a)。
Next, the operation of the inter-distributed node exclusive update device having the above configuration will be described with reference to the flowchart of FIG. Now, the exclusion management apparatus 14 uses the large area bitmap table 28 (ST1a) and executes exclusive update for each large area Gi in the same manner as described above (ST2 to ST2).
ST6) After the update is completed, the area Gi is checked (ST7a).

【0078】ここで、例えば領域Gkの排他確保が失敗
した場合、前述同様に領域Gkを無視し、次の領域Gk+
1 に関して、共有データ11の対応する領域Ck+1 の排
他の確保から更新及び排他解放までを実行する(ST2
〜ST11)。また、以降の領域Gk+2 〜Gn/4 に関し
ても同様に、個別に共有データ11の対応する領域Ck+
1 〜Cn/4 の排他確保からデータ更新及び排他解放を実
行する。
Here, for example, when the exclusive securing of the area Gk fails, the area Gk is ignored as described above, and the next area Gk +
With respect to 1, the processes from securing exclusion to updating and exclusion release of the corresponding area Ck + 1 of the shared data 11 are executed (ST2).
To ST11). Similarly, in the subsequent areas Gk + 2 to Gn / 4, the corresponding areas Ck +
Data update and exclusion release are executed from exclusion securing of 1 to Cn / 4.

【0079】なお、本実施形態では、2巡目になっても
未チェックの領域Gkがある場合に次の処理を行う。す
なわち、2巡目に、再度領域Gkの排他確保を試みて失
敗した場合、図13に示したように、領域Gkを4つの
小領域gk1〜gk4に分割し、これら各小領域gk1
〜gk4を排他更新処理の対象にする(ST12)。以
後同様に、始めに小領域gk1に関して、対応する共有
データの小領域ck1の排他確保からデータ更新及び排
他解放を実行する。また、以降の領域gk2〜gk4に
関しても同様に、個別に共有データ11の対応する領域
Ck2〜Ck4の排他確保からデータ更新及び排他解放
を実行する。
In this embodiment, the following processing is performed when there is an unchecked area Gk even after the second cycle. That is, in the second round, if the attempt to secure the exclusion of the area Gk again fails, the area Gk is divided into four small areas gk1 to gk4, as shown in FIG.
To gk4 are targeted for exclusive update processing (ST12). Thereafter, similarly, for the small area gk1, data update and exclusive release are performed from the exclusion securing of the small area ck1 of the corresponding shared data. Similarly, for the subsequent areas gk2 to gk4, data update and exclusion release are performed individually from securing exclusion of the corresponding areas Ck2 to Ck4 of the shared data 11.

【0080】これにより、ノード間の排他更新の回数を
減らし、排他更新処理の高速化を図ることができる。こ
の場合、4つの領域b1〜b4に相当する1つの領域G
1を設けたので、第1の実施形態に比べ、約1/4の時
間で排他更新処理を完了することができる。
Thus, the number of exclusive updates between nodes can be reduced, and the exclusive update process can be speeded up. In this case, one area G corresponding to the four areas b1 to b4
Since 1 is provided, the exclusive update process can be completed in about 1/4 time compared to the first embodiment.

【0081】上述したように本実施形態によれば、共有
データ11を仮想的に分割して示す複数の大領域G1〜
Gn/4 を管理対象とし、各大領域G1〜Gn/4 毎に更新
済又は未更新が記憶される大領域ビットマップテーブル
28を設け、分散更新処理部222が、排他状態にある
全てのノードの共有データを更新対象とし、大領域ビッ
トマップテーブル28内の未更新の各大領域Gi毎に、
対応する領域ciの共有データ11をデータ管理部15
を介して更新し、ある大領域Gkを更新対象とした際に
排他状態に移行できないとき、この大領域Gkを仮想的
に分割した小領域gk1〜gk4を大領域ビットマップ
テーブル28の管理対象とし、当該未更新の小領域gk
1〜gk4毎に、対応する領域ck1〜ck4の共有デ
ータ11を更新するので、第1の実施形態の効果に加
え、大領域で更新を実行し、大領域Gkで更新不能なと
きに小領域gk1〜gk4で更新するから、大領域の大
きさに応じて共有データ全体の排他更新処理を高速に実
行することができる。
As described above, according to the present embodiment, a plurality of large areas G 1 to G
Gn / 4 is to be managed, and a large area bitmap table 28 in which updated or not updated is stored for each of the large areas G1 to Gn / 4 is provided. Is set as an update target, and for each unupdated large area Gi in the large area bitmap table 28,
The shared data 11 of the corresponding area ci is stored in the data management unit 15
When a large area Gk cannot be shifted to an exclusive state when the large area Gk is to be updated, the small areas gk1 to gk4 obtained by virtually dividing the large area Gk are set as management targets of the large area bitmap table 28. , The unupdated small area gk
Since the shared data 11 of the corresponding areas ck1 to ck4 is updated every 1 to gk4, in addition to the effect of the first embodiment, the update is executed in the large area, and when the update is not possible in the large area Gk, the small area is updated. Since the update is performed with gk1 to gk4, the exclusive update process of the entire shared data can be executed at high speed according to the size of the large area.

【0082】なお、本発明は、上記各実施の形態に限定
されるものでなく、その要旨を逸脱しない範囲で種々に
変形することが可能である。例えば、上記各実施形態で
は、共有データ11の各領域毎に更新済又は未更新を管
理する要素技術として、ビットマップテーブル27,2
8を用いたが、これに限らず、例えばファイル等の一覧
リストを用いて共有データ11の各部分(各ファイル
等)毎に更新済又は未更新を管理してもよい。
The present invention is not limited to the above embodiments, but can be variously modified without departing from the gist thereof. For example, in each of the above embodiments, the bitmap tables 27 and 2 are used as elemental technologies for managing updated or unupdated for each area of the shared data 11.
Although 8 is used, the present invention is not limited to this. For example, updated or unupdated data may be managed for each part (each file or the like) of the shared data 11 using a list of files or the like.

【0083】また、実施形態に記載した手法は、計算機
(コンピュータ)に実行させることができるプログラム
(ソフトウエア手段)として、例えば磁気ディスク(フ
ロッピーディスク、ハードディスク等)、光ディスク
(CD−ROM、DVD等)、半導体メモリ等の記憶媒
体に格納し、また通信媒体により伝送して頒布すること
もできる。なお、媒体側に格納されるプログラムには、
計算機に実行させるソフトウエア手段(実行プログラム
のみならずテーブルやデータ構造も含む)を計算機内に
構成させる設定プログラムをも含むものである。本装置
を実現する計算機は、記憶媒体に記録されたプログラム
を読み込み、また場合により設定プログラムによりソフ
トウエア手段を構築し、このソフトウエア手段によって
動作が制御されることにより上述した処理を実行する。
The method described in the embodiment can be implemented by a computer (computer) as a program (software means) such as a magnetic disk (floppy disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.). ), Stored in a storage medium such as a semiconductor memory, or transmitted and distributed via a communication medium. The programs stored on the medium side include
A software program (including not only an execution program but also a table and a data structure) to be executed by the computer includes a setting program for configuring the computer. A computer that realizes the present apparatus reads a program recorded in a storage medium, and in some cases, constructs software means by using a setting program, and executes the above-described processing by controlling the operation of the software means.

【0084】その他、本発明はその要旨を逸脱しない範
囲で種々変形して実施できる。
In addition, the present invention can be variously modified and implemented without departing from the gist thereof.

【0085】[0085]

【発明の効果】以上説明したように本発明によれば、容
易に組込可能であり、他ノードとの間でデータを一致さ
せつつ同時にオンラインでデータ領域を使用でき、可用
性を向上できる分散ノード間排他更新装置を提供でき
る。
As described above, according to the present invention, a distributed node which can be easily incorporated, can use a data area online at the same time while matching data with another node, and can improve availability. An exclusive update device can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態に係る分散ノード間排他更新
装置の一例を示す概念的な構成図。
FIG. 1 is a conceptual configuration diagram illustrating an example of an inter-distributed node exclusive update device according to an embodiment of the present invention.

【図2】同実施形態の分散ノード間排他更新装置を適用
するLANにおける計算機の構成例を示すブロック図。
FIG. 2 is an exemplary block diagram illustrating a configuration example of a computer in a LAN to which the distributed inter-node exclusive update device according to the embodiment is applied.

【図3】同実施形態における排他管理部の詳細構成、並
びに他の構成要素との関係を示す模式図。
FIG. 3 is an exemplary diagram showing a detailed configuration of an exclusive management unit and a relationship with other components according to the embodiment;

【図4】同実施形態における更新管理用ビットマップテ
ーブルの構成を示す模式図
FIG. 4 is a schematic diagram showing the configuration of an update management bitmap table according to the embodiment;

【図5】同実施形態における動作を説明するためのフロ
ーチャート
FIG. 5 is a flowchart for explaining the operation in the embodiment;

【図6】同実施形態における排他確保プロトコルによる
基本的な処理を示すシーケンス図。
FIG. 6 is an exemplary sequence diagram showing basic processing by an exclusion securing protocol in the embodiment;

【図7】同実施形態におけるパケット紛失がある場合の
排他確保プロトコルによる処理を示すシーケンス図。
FIG. 7 is an exemplary sequence diagram showing processing by an exclusion securing protocol when a packet is lost according to the embodiment;

【図8】同実施形態における排他競合が発生した場合の
排他確保プロトコルによる処理を示すシーケンス図。
FIG. 8 is an exemplary sequence diagram illustrating processing by an exclusion securing protocol when an exclusion conflict occurs in the embodiment;

【図9】同実施形態における分散更新プロトコルによる
処理を示すシーケンス図。
FIG. 9 is an exemplary sequence diagram illustrating processing by the distributed update protocol according to the embodiment;

【図10】同実施形態における排他解放プロトコルによ
る処理を示すシーケンス図。
FIG. 10 is an exemplary sequence diagram illustrating processing by an exclusive release protocol according to the embodiment;

【図11】同実施形態における分散ノード間排他更新装
置の応用例を示す模式図。
FIG. 11 is a schematic diagram showing an application example of the inter-distributed node exclusive update device in the embodiment.

【図12】本発明の第2の実施形態に係る分散ノード間
排他更新装置に適用された大領域ビットマップテーブル
の構成を示す模式図
FIG. 12 is a schematic diagram showing a configuration of a large area bitmap table applied to an inter-distributed node exclusive update device according to the second embodiment of the present invention;

【図13】同実施形態における排他管理部の機能を説明
するための大領域ビットマップテーブルの模式図
FIG. 13 is a schematic diagram of a large area bitmap table for explaining a function of an exclusive management unit in the embodiment.

【図14】同実施形態における動作を説明するための模
式図
FIG. 14 is a schematic diagram for explaining the operation in the embodiment.

【符号の説明】[Explanation of symbols]

1…分散ノード間排他更新装置 2…ネットワーク 3…計算機 4…アプリケーションプログラム 5…記憶装置 6…通信装置 11…共有データ 12…非共有データ 13…排他更新要求受付部 14…排他管理部 15…データ管理部 16…障害検出部 21…排他確保処理部 22…分散更新処理部 23…排他解放処理部 24…管理情報保持部 25…タイマ 26…管理情報 27…更新管理用ビットマップテーブル 28…大領域用ビットマップテーブル DESCRIPTION OF SYMBOLS 1 ... Exclusive update apparatus between distributed nodes 2 ... Network 3 ... Computer 4 ... Application program 5 ... Storage device 6 ... Communication device 11 ... Shared data 12 ... Non-shared data 13 ... Exclusive update request reception part 14 ... Exclusive management part 15 ... Data Management unit 16: Failure detection unit 21: Exclusive securing processing unit 22: Distributed update processing unit 23: Exclusion release processing unit 24: Management information holding unit 25: Timer 26: Management information 27: Update management bitmap table 28: Large area Bitmap table

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 ネットワークのノード上に設けられ、か
つ排他状態にある全てのノード上に同一の共有データを
保持させるための分散ノード間排他更新装置であって、 前記共有データを保持する全てのノードを対象とし、前
記共有データを仮想的な部分領域毎に排他更新する排他
管理手段を備えたことを特徴とする分散ノード間排他更
新装置。
1. An exclusive update apparatus between distributed nodes for storing the same shared data on all nodes in an exclusive state provided on nodes of a network, wherein all of the shared data holding An exclusive update apparatus between distributed nodes, characterized in that the exclusive update means is provided for exclusively updating the shared data for each virtual partial area for nodes.
【請求項2】 ネットワークのノード上に設けられ、か
つ排他状態にある全てのノード上に同一の共有データを
保持させるための分散ノード間排他更新装置であって、 前記共有データを仮想的に分割して示す各部分領域を管
理対象とし、前記各部分領域毎に更新済又は未更新が記
憶される更新管理用情報記憶手段と、 前記排他状態にある全てのノードの共有データを更新対
象とし、前記更新管理用情報記憶手段内の未更新の各部
分領域毎に、対応する部分の共有データを更新する更新
処理手段とを備えたことを特徴とする分散ノード間排他
更新装置。
2. An inter-distribution exclusive update device provided on a node of a network and holding the same shared data on all nodes in an exclusive state, wherein the shared data is virtually divided. Update management information storage means in which updated or not updated is stored for each of the partial areas, and the shared data of all nodes in the exclusive state are to be updated, Update processing means for updating, for each unupdated partial area in the update management information storage means, shared data of a corresponding part, the inter-distributed node exclusive update apparatus.
【請求項3】 ネットワークのノード上に設けられ、か
つ排他状態にある全てのノード上に同一の共有データを
保持させるための分散ノード間排他更新装置であって、 前記共有データを仮想的に分割して示す複数の大領域を
管理対象とし、前記各大領域毎に更新済又は未更新が記
憶される更新管理用情報記憶手段と、 前記排他状態にある全てのノードの共有データを更新対
象とし、前記更新管理用情報記憶手段内の未更新の各大
領域毎に、対応する部分の共有データを更新し、ある大
領域を更新対象とした際に前記排他状態に移行できない
とき、この大領域を仮想的に分割した小領域を前記更新
管理用情報記憶手段の管理対象とし、当該未更新の小部
分領域毎に、対応する小部分の共有データを更新する更
新処理手段とを備えたことを特徴とする分散ノード間排
他更新装置。
3. An exclusive update device between distributed nodes, provided on a node of a network and for holding the same shared data on all nodes in an exclusive state, wherein the shared data is virtually divided A plurality of large areas shown as management targets, an update management information storage unit in which updated or unupdated is stored for each large area, and shared data of all nodes in the exclusive state are set as update targets. In each of the large areas that have not been updated in the update management information storage means, the corresponding part of the shared data is updated, and when a certain large area is to be updated, the large area cannot be shifted to the exclusive state. And updating processing means for updating the shared data of the corresponding small part for each of the non-updated small part areas, with the small area virtually divided into the management target of the update management information storage means. Features and Distributed nodes between the exclusive update apparatus that.
JP24356999A 1999-08-30 1999-08-30 Inter-distributed node exclusive updating device Pending JP2001067257A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24356999A JP2001067257A (en) 1999-08-30 1999-08-30 Inter-distributed node exclusive updating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24356999A JP2001067257A (en) 1999-08-30 1999-08-30 Inter-distributed node exclusive updating device

Publications (1)

Publication Number Publication Date
JP2001067257A true JP2001067257A (en) 2001-03-16

Family

ID=17105797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24356999A Pending JP2001067257A (en) 1999-08-30 1999-08-30 Inter-distributed node exclusive updating device

Country Status (1)

Country Link
JP (1) JP2001067257A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004079576A1 (en) * 2003-03-03 2004-09-16 Canon Kabushiki Kaisha Information processing method, information processing apparatus, method of controlling server apparatus, and server apparatus
JP2005310158A (en) * 2004-04-20 2005-11-04 Microsoft Corp Method, system, and apparatus for enabling collaboration near to real time on electronic document through plurality of computer systems
JP2008123088A (en) * 2006-11-09 2008-05-29 Konica Minolta Holdings Inc Information management method and information processor
JP2008217884A (en) * 2007-03-02 2008-09-18 Hitachi Ltd Video recording/reproducing device and its file control method
JP2011253500A (en) * 2010-06-04 2011-12-15 Mitsubishi Electric Corp Data distribution system, distributed monitoring control system and data distribution method
JP2014048969A (en) * 2012-08-31 2014-03-17 Nippon Telegr & Teleph Corp <Ntt> Server, file management system, file management method and file management program
JP2021009554A (en) * 2019-07-01 2021-01-28 日本電気株式会社 Computer device, data sharing system, data access method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004079576A1 (en) * 2003-03-03 2004-09-16 Canon Kabushiki Kaisha Information processing method, information processing apparatus, method of controlling server apparatus, and server apparatus
JP2005310158A (en) * 2004-04-20 2005-11-04 Microsoft Corp Method, system, and apparatus for enabling collaboration near to real time on electronic document through plurality of computer systems
US7818679B2 (en) 2004-04-20 2010-10-19 Microsoft Corporation Method, system, and apparatus for enabling near real time collaboration on an electronic document through a plurality of computer systems
JP4714500B2 (en) * 2004-04-20 2011-06-29 マイクロソフト コーポレーション Method, system, and apparatus for enabling near real-time collaboration for electronic documents via multiple computer systems
KR101201091B1 (en) * 2004-04-20 2012-11-13 마이크로소프트 코포레이션 Method, system, and apparatus for enabling near real time collaboration on an electronic document through a plurality of computer systems
JP2008123088A (en) * 2006-11-09 2008-05-29 Konica Minolta Holdings Inc Information management method and information processor
JP2008217884A (en) * 2007-03-02 2008-09-18 Hitachi Ltd Video recording/reproducing device and its file control method
JP4680948B2 (en) * 2007-03-02 2011-05-11 株式会社日立製作所 RECORDING / REPRODUCING DEVICE, RECORDING DEVICE, AND RECORDING METHOD
JP2011253500A (en) * 2010-06-04 2011-12-15 Mitsubishi Electric Corp Data distribution system, distributed monitoring control system and data distribution method
JP2014048969A (en) * 2012-08-31 2014-03-17 Nippon Telegr & Teleph Corp <Ntt> Server, file management system, file management method and file management program
JP2021009554A (en) * 2019-07-01 2021-01-28 日本電気株式会社 Computer device, data sharing system, data access method, and program

Similar Documents

Publication Publication Date Title
US20220239602A1 (en) Scalable leadership election in a multi-processing computing environment
US10289338B2 (en) Multi-class heterogeneous clients in a filesystem
US7231461B2 (en) Synchronization of group state data when rejoining a member to a primary-backup group in a clustered computer system
US9218299B2 (en) Recovering data segment contents in a distributed shared memory
US9880753B2 (en) Write requests in a distributed storage system
CN104715001B (en) The method and system of write operation is performed for the shared resource in the cluster to data handling system
JP6084624B2 (en) Split brain tolerant failover in high availability clusters
US6950833B2 (en) Clustered filesystem
JP3798661B2 (en) Method for processing a merge request received by a member of a group in a clustered computer system
WO2017219857A1 (en) Data processing method and device
US9917884B2 (en) File transmission method, apparatus, and distributed cluster file system
CN105493474A (en) System and method for supporting partition level journaling for synchronizing data in a distributed data grid
US20180314749A1 (en) System and method for partition-scoped snapshot creation in a distributed data computing environment
US11687381B2 (en) Multi-phase distributed task coordination
US8230086B2 (en) Hidden group membership in clustered computer system
JP2001067257A (en) Inter-distributed node exclusive updating device
US20180025067A1 (en) Apparatus and method to establish a connection between apparatuses while synchronization of connection information thereof is suspended
US20080307045A1 (en) Method, system and apparatus for managing directory information
JP2013114628A (en) Data management program, data management method and storage device
US20240028611A1 (en) Granular Replica Healing for Distributed Databases
Mesaros et al. A transactional system for structured overlay networks
JP2000276420A (en) Exclusive update device between distributed nodes
JP2022115672A (en) Multiple processing system and control method of multiple processing system
JP5375205B2 (en) Common resource management system, method, and program
JP2003280933A (en) N-multiplexed system for resource management process

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071009

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080226