CN109542353B - 一种面向广域分布式存储系统的一致性算法 - Google Patents
一种面向广域分布式存储系统的一致性算法 Download PDFInfo
- Publication number
- CN109542353B CN109542353B CN201811412514.2A CN201811412514A CN109542353B CN 109542353 B CN109542353 B CN 109542353B CN 201811412514 A CN201811412514 A CN 201811412514A CN 109542353 B CN109542353 B CN 109542353B
- Authority
- CN
- China
- Prior art keywords
- command
- algorithm
- timestamp
- conflict
- phase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0604—Improving or facilitating administration, e.g. storage management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1448—Management of the data involved in backup or backup restore
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1458—Management of the backup or restore process
- G06F11/1464—Management of the backup or restore process for networked environments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种面向广域分布式存储系统的一致性算法,该算法是基于时间戳的EPaxos改进算法。总体上说,客户端发送命令时,同时发送当时时刻的时间戳变量。当命令发生冲突时,不马上退化到Slow Path,而是根据时间戳参数进行排序。若冲突命令的时间戳变量一致时,算法退化为经典Paxos,执行Slow path。在广域网环境下,本发明的算法的吞吐量和延迟性能有所改善。
Description
技术领域
本发明涉及分布式存储技术领域,尤其涉及一种面向广域分布式存储系统的一致性算法。
背景技术
复制是广域存储系统保证容错、提高可用性水平的必要手段。在全球范围服务和应用的时代,仅依靠单个数据中心里多台商用硬件上的冗余副本来提升云存储系统的容错能力是不够的。例如,需要处理大型数据集的大数据应用通常要求其数据在跨地域的多数据中心间复制以容忍单个数据中心的运行中断(如由于系统断电或网络分割所造成的中断)。许多先进的云存储系统,如Google的Spanner,Yahoo!的PNUTS和Facebook的Cassandra都跨多个数据中心部署并复制数据。不过,众所周知的,跨地域复制在吞吐量和延迟方面的性能是非常糟糕的。
在广域网环境中,数据在跨地域的数据中心之间被复制以应对快速响应和本地可用性的需求。从而,客户端可以在本地请求来自最近数据中心里某个副本的数据并获得快速的响应。此外,地域上的复制通过在不同的地理区域中复制冗余数据而提供了全球范围内的数据持久化和容错能力。不过,伴随广域分布式存储系统中数据复制产生的一个问题是如何保证副本间的数据一致性。在此背景下,由于确保一致性需要在通过高延迟广域网络连接的不同地理位置上进行同步,这一方面影响了广域分布式存储系统解决方案的可用性,即较低的吞吐量及较高的延迟性能。
目前能够保证较好可用性的分布式存储系统数据复制方式是状态机复制,状态机复制的内部实现是通过一致性算法来保证各个节点达成一致的执行顺序。目前的分布式一致性算法主要分为两类。一类是传统的有领导者一致性算法,该类算法的代表是Multi-Paxos,它将提案集中到领导者节点,领导者节点负责将提案全排序来实现一致性,该类方案需要将所有客户端请求都通过广域网发送给一个唯一领导者,导致了系统反映变慢,造成极高的延迟和较低的吞吐量。第二类是无领导者一致性算法,该类算法因为不存在唯一领导者节点,提案只需在地理位置上就近达成一致,比较适合作为广域分布式存储系统的一致性算法。Egalitarian Paxos(EPaxos)允许客户端将命令发送至任意副本(通常是距客户端最近的副本),但延迟和吞吐量性能易受命令冲突的影响。在无领导者算法中,E-Paxos以突出的吞吐量和延迟性能表现而流行,但其性能易受命令冲突影响,当命令冲突发生时性能下降明显。
发明内容
为了解决现有技术中的不足,本发明将对广域分布式存储系统一致性算法展开深入研究,提出针对E-Paxos的改进算法Timestamp Egalitarian Paxos(T-EPaxos,基于时间戳的E-Paxos),通过实验证明,在广域网环境下,基于时间戳的E-Paxos算法的吞吐量和延迟性能有所改善。
本发明具体通过如下技术方案实现:
一种面向广域分布式存储系统的一致性算法,所述算法是基于时间戳的EPaxos改进算法;当客户端发送命令时,同时发送当时时刻的时间戳变量;当命令发生冲突时,不马上退化到Slow Path,而是根据时间戳参数进行排序;若冲突命令的时间戳变量一致时,算法退化为经典Paxos,执行Slow path;其中,提交阶段分为3个部分:阶段1:建立顺序限制、阶段2:Paxos-Accept、阶段3:Commit,但不是所有的命令的提交都需要经历这3个阶段;如果命令可以通过快速路径提交,那么命令的提交过程就只需要经历阶段1和Commit阶段;如果命令达不到通过快速路径提交的条件,那么这个命令的提交过程就必须经历上述3个阶段。
作为本发明的进一步改进,阶段1开始于一个副本L接收到一个来自客户端的读或写命令γ后,成为命令γ的领导者,同时接收到的还有时间戳timestamp参数,用于后续给冲突的命令定序;L分配给下一个未被使用的实例给这个命令,附带以下它根据自己的命令日志所了解的属性:(1)冲突依赖集depsγ,用于记录所有与命令γ冲突的命令;(2)seqγ用于记录选择执行的命令序列号;(3)ts客户端发送命令时附带的时间戳参数,用于命令发生冲突时定序;作为领导者,L发送包含命令γ以及初始属性的消息PreAccept给所有副本F,这里F是Fast path阶段法定数量副本;接收到PreAccept消息后,副本F依据命令日志中关于这个命令的信息来更新depsγ和seqγ,然后回复更新后的属性给L;如果L接收到了所有副本F的回复并且这些副本更新后的属性都相同,那么L开始Commit阶段;如果回复的内容不全部相同,即命令冲突发生,此时提取出冲突命令的时间戳参数,根据时间戳的大小排定命令的提交顺序后,开始快速路径;如果时间戳参数一致,或出现客户端无法提供时间戳参数的情况下,进入Slow path,开始阶段2;在接收到N/2+1个副本的肯定回复后,命令提交完成。
作为本发明的进一步改进,每个副本使用各自的命令日志记录它所处理的所有的实例的状态。
附图说明
图1是EPaxos算法的模型图;
图2是本发明的T-EPaxos算法流程图;
图3是Multi-Paxos,E-Paxos和本发明的T-EPaxos的吞吐量表现;
图4是Multi-Paxos,E-Paxos和本发明的T-EPaxos的平均时延表现。
具体实施方式
下面结合附图说明及具体实施方式对本发明进一步说明。
本发明的T-EPaxos算法适用跨地域的广域分布式存储系统。观察到当冲突发生时,EPaxos算法需要多执行一轮Slow path才可提交命令,此时延迟增加,吞吐量降低。针对这一问题,本发明提出基于时间戳的EPaxos改进算法。总体上说,客户端发送命令时,同时发送当时时刻的时间戳变量。当命令发生冲突时,不马上退化到SlowPath,而是根据时间戳参数进行排序。若冲突命令的时间戳变量一致时,算法退化为经典Paxos,执行Slow path。
和Multi-Paxos类似,EPaxos将客户端命令复制到2F+1个副本上确保安全性。算法模型如图1所示。通常情况下,客户端将命令C发送给最近的副本(我们称该副本为C的领导者)。C的领导者和所有副本进行一轮消息交流(图1中Fastpath阶段)。期间,C的领导者将C和本地与C相关的命令集合一起发送,副本回复时包含本地与C相关的命令集合。若C的领导者收到个(称为Fast path阶段法定人数)相同的回复,发送确认消息给客户端和所有副本,所有副本本地提交C。否则,C领导者和所有副本再进行一轮消息交流(图1中Slow path阶段)。若C的领导者收到F+1个(称为Slow path阶段法定人数)副本的回复,发送确认消息给客户端和所有副本,所有副本本地提交命令C。
由上可知,当命令冲突发生时,需执行Slow path阶段,为了更清楚地理解该阶段从而以它作为切入点来做优化,定义冲突的概念:
命令冲突:如果q个相关命令(command interference)a1,a2,...,aq同时被提出,且EPaxos在处理命令ai(i∈[1,q])时,受到其余相关命令ak1,ak2,...,akn(k1,k2,...,kn∈[1,q])的影响,多执行一轮Slow path才可以提交,那么我们说命令ai和命令ak1,ak2,...,akn是冲突的。
由命令冲突的定义和EPaxos处理步骤(参见非专利文献1:Moraru I,Andersen DG,Kaminsky M.There is more consensus inEgalitarian parliaments[C]//Twenty-Fourth ACM Symposium on Operating Systems Principles.ACM,2013:358-372)可知,EPaxos中,并发客户端向同一副本提交相关命令,命令之间不会产生冲突。只有不同副本处理相关命令时,命令之间才可能产生冲突。不同副本处的并发客户端提出具有相关性的命令越多,命令冲突也就越多。
如图1所示,若Fast path阶段领导者收到法定人数副本相同的回复,则客户端发送命令到收到回复只需经过4次消息交流(图1中发送命令,Fast path阶段,确认提交);否则,还需进行一轮Slow path,需要6次信息交流。针对发生命令冲突会使信息交流的次数增多,造成延迟和吞吐量性能的降低的情况,本发明选择以减少冲突发生频率为切入点,提出基于时间戳优化的T-EPaxos算法。在EPaxos的基础上,客户端在发送命令的同时发送当时时刻的时间戳变量。命令冲突发生时,根据时间戳变量进行冲突命令的排序,大大减少冲突发生导致的算法退化频率,提升延迟和吞吐量性能表现。
T-EPaxos算法流程如图2所示,表1为T-EPaxos算法流程伪代码。
表1 T-EPaxos协议的伪代码
每个副本使用各自的命令日志记录它所处理的所有的实例的状态。提交阶段可以细分为3个部分:阶段1(建立顺序限制)、阶段2(Paxos-Accept)、阶段3(Commit),但不是所有的命令的提交都需要经历这3个阶段。如果命令可以通过快速路径提交,那么命令的提交过程就只需要经历阶段1和Commit阶段;如果命令达不到通过快速路径提交的条件,那么这个命令的提交过程就必须经历上述3个阶段。下面详细描述这3个部分以及整个提交阶段的流程。
阶段1开始于一个副本L接收到一个来自客户端的读或写命令γ后,成为命令γ的领导者。同时接收到的还有时间戳(timestamp)参数,用于后面给冲突的命令定序。L分配给下一个未被使用的实例给这个命令,附带以下它根据自己的命令日志所了解的属性:
(1)depsγ(冲突依赖集)用于记录所有与命令γ冲突的命令;
(2)seqγ用于记录选择执行的命令序列号;
(3)ts,客户端发送命令时附带的时间戳参数,用于命令发生冲突时定序;作为领导者,L发送包含命令γ以及初始属性的消息PreAccept给所有副本F,这里F是Fast path阶段法定数量副本。
接收到PreAccept消息后,副本F依据命令日志中关于这个命令的信息来更新depsγ和seqγ,然后回复更新后的属性给L。
如果L接收到了所有副本F的回复并且这些副本更新后的属性都相同,那么L开始Commit阶段(快速路径);如果回复的内容不全部相同,即命令冲突发生,此时提取出冲突命令的时间戳参数,根据时间戳的大小排定命令的提交顺序后,开始快速路径。由可知(参见非专利文献2:Corbett J.C.,Dean J.,Epstein M.,et al.Spanner:Google’s globallydistributed database[A].Proceedings of the 10th USENIX Symposium on OperatingSystems Design and Implementation[C].Hollywood,CA,USA:USENIX Association,2013:251-264),在一定条件下实现同步的全局时间是可行的;如果时间戳参数一致,或出现客户端无法提供时间戳参数的情况下,进入Slow path,开始阶段2,阶段2可以看做运行传统的Paoxs协议来为γ的实例选定元祖(γ,seqγ,depsγ)的过程。在接收到个副本的肯定回复后,命令提交完成。
本发明通过仿真评估了T-EPaxos的性能。为了研究T-EPaxos对跨地域分布式存储系统性能的提升,本发明在相同条件下将其与单独使用Multi-Paxos和EPaxos就吞吐量和平均时延两个系统性能指标进行对比。
代码使用Python语言编写,仿真过程中仿真参数见表2,仿真中假设通信环境是理想的(节点间的时延固定,不存在消息乱序、网络异常、节点宕机等情况),是一种理论上的结果。
表2仿真参数的含义及取值
由于条件限制,我们模拟了三个数据节点。不过,相信这样的配置足以评估T-EPaxos的性能。参与的客户端数量代表系统每秒接收到的提案请求数据量大小。
如图3所示Multi-Paxos算法的吞吐量表现最差。这是因为Multi-Paxos属于有领导者一致性协议,它需要将所有提案请求发送给系统唯一的领导者节点,对它们进行全排序。在广域网环境下,每一个提案请求的一致性协商都需要远距离通信,因而吞吐量性能表现最差。当客户端数量小于600个时,E-Paxos的吞吐量性能不断提高,但随着客户端数量的上升,E-Paxos吞吐量增长缓慢,甚至趋向平稳,吞吐量性能慢慢接近瓶颈。这是因为E-Paxos算法在发生命令冲突时,会在节点之间传送命令依赖冲突的消息,再退化为经典Paxos算法,相当于每个冲突实例的通信次数都增加两次,通信次数的增加会直接导致系统性能变差,尤其在广域网环境下,所以随着请求数量的增加,吞吐量性能达到瓶颈。本发明的T-EPaxos对E-Paxos命令冲突的产生进行了优化,降低了冲突发生的频率,所以请求冲突对T-EPaxos的影响很小,吞吐量性能随着请求数量的增多而不断提高。
图4给出了Multi-Paxos,E-Paxos和本发明的T-EPaxos的平均时延情况。容易发现Multi-Paxos平均时延最高,因为它是有领导者分布式一致性协议,且leader唯一,所有来自其他数据中心的客户端请求都要通过广域网发送给这个唯一leader,这导致了系统反映变慢,平均时延较高。而E-Paxos中每个副本地位平等,没有唯一的leader节点,客户端请求可以优先发送给距离较近的副本节点,因而时延性能较好。然而E-Paxos算法的时延性能易受命令冲突的影响,随着数据量不断增大,命令冲突数量也随之不断增加,平均时延性能变差。命令数较少时命令冲突数也相对较少,所以在客户端小于600时,EPaxos与本发明的T-EPaxos的延迟性能几乎没有差别,但随着冲突增多,本发明的T-EPaxos的延迟性能渐渐体现出优势,并随着客户端数量的增多,优势逐步扩大。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (3)
1.一种面向广域分布式存储系统的一致性算法,其特征在于:所述算法是基于时间戳参数的EPaxos改进算法;当客户端发送命令时,同时发送当时时刻的时间戳参数;当命令发生冲突时,不马上退化到Slow Path,而是根据所述时间戳参数进行排序;若冲突命令的所述时间戳擦参数一致时,算法退化为经典Paxos,执行Slow path;
其中,提交阶段分为3个部分:阶段1:建立顺序限制、阶段2:Paxos-Accept、阶段3:Commit,但不是所有的命令的提交都需要经历这3个阶段;如果命令可以通过快速路径提交,那么命令的提交过程就只需要经历阶段1和Commit阶段;如果命令达不到通过快速路径提交的条件,那么这个命令的提交过程就必须经历上述3个阶段。
2.根据权利要求1所述的算法,其特征在于:阶段1开始于一个副本L接收到一个来自客户端的读或写命令γ后,成为命令γ的领导者,同时接收到的还有时间戳timestamp参数,用于后续给冲突的命令定序;L分配给下一个未被使用的实例给这个命令,附带以下它根据自己的命令日志所了解的属性:(1)冲突依赖集depsγ,用于记录所有与命令γ冲突的命令;(2)seqγ用于记录选择执行的命令序列号;(3)ts客户端发送命令时附带的时间戳参数,用于命令发生冲突时定序;作为领导者,L发送包含命令γ以及初始属性的消息PreAccept给所有副本F,这里F是Fast path阶段法定数量副本;接收到PreAccept消息后,副本F依据命令日志中关于这个命令的信息来更新depsγ和seqγ,然后回复更新后的属性给L;如果L接收到了所有副本F的回复并且这些副本更新后的属性都相同,那么L开始Commit阶段;如果回复的内容不全部相同,即命令冲突发生,此时提取出冲突命令的时间戳参数,根据所述时间戳参数的大小排定命令的提交顺序后,开始快速路径;如果时间戳参数一致,或出现客户端无法提供时间戳参数的情况下,进入Slow path,开始阶段2;在接收到N/2+1个副本的肯定回复后,命令提交完成。
3.根据权利要求2所述的算法,其特征在于:每个副本使用各自的命令日志记录它所处理的所有的实例的状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811412514.2A CN109542353B (zh) | 2018-11-23 | 2018-11-23 | 一种面向广域分布式存储系统的一致性算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811412514.2A CN109542353B (zh) | 2018-11-23 | 2018-11-23 | 一种面向广域分布式存储系统的一致性算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109542353A CN109542353A (zh) | 2019-03-29 |
CN109542353B true CN109542353B (zh) | 2022-04-01 |
Family
ID=65850441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811412514.2A Active CN109542353B (zh) | 2018-11-23 | 2018-11-23 | 一种面向广域分布式存储系统的一致性算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109542353B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102739440A (zh) * | 2012-05-24 | 2012-10-17 | 大唐移动通信设备有限公司 | 一种硬件设备的访问方法及装置 |
CN103514031A (zh) * | 2012-11-26 | 2014-01-15 | Tcl集团股份有限公司 | 多终端并发操作时文件名冲突的处理方法及系统 |
CN106354566A (zh) * | 2015-07-14 | 2017-01-25 | 华为技术有限公司 | 一种命令处理的方法以及服务器 |
CN106980476A (zh) * | 2017-04-01 | 2017-07-25 | 广东浪潮大数据研究有限公司 | 一种分布式系统的数据一致性方法及装置 |
CN108170763A (zh) * | 2017-12-25 | 2018-06-15 | 江南大学 | 一种低延迟的分布式计算共识算法 |
CN108322459A (zh) * | 2018-01-31 | 2018-07-24 | 北京信息科技大学 | 一种基于EPaxos的去中心化网络域名服务方法及系统 |
-
2018
- 2018-11-23 CN CN201811412514.2A patent/CN109542353B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102739440A (zh) * | 2012-05-24 | 2012-10-17 | 大唐移动通信设备有限公司 | 一种硬件设备的访问方法及装置 |
CN103514031A (zh) * | 2012-11-26 | 2014-01-15 | Tcl集团股份有限公司 | 多终端并发操作时文件名冲突的处理方法及系统 |
CN106354566A (zh) * | 2015-07-14 | 2017-01-25 | 华为技术有限公司 | 一种命令处理的方法以及服务器 |
CN106980476A (zh) * | 2017-04-01 | 2017-07-25 | 广东浪潮大数据研究有限公司 | 一种分布式系统的数据一致性方法及装置 |
CN108170763A (zh) * | 2017-12-25 | 2018-06-15 | 江南大学 | 一种低延迟的分布式计算共识算法 |
CN108322459A (zh) * | 2018-01-31 | 2018-07-24 | 北京信息科技大学 | 一种基于EPaxos的去中心化网络域名服务方法及系统 |
Non-Patent Citations (1)
Title |
---|
There Is More Consensus in Egalitarian Parliaments;Iulian Moraru;《Proceedings of the Twenty-Fourth ACM Symposium on Operating Systems Principles》;20131103;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109542353A (zh) | 2019-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11360854B2 (en) | Storage cluster configuration change method, storage cluster, and computer system | |
US8538923B2 (en) | Method, node and system for controlling version in distributed system | |
US10749954B2 (en) | Cross-data center hierarchical consensus scheme with geo-aware leader election | |
CN108280080B (zh) | 一种数据同步方法、装置以及电子设备 | |
CN113535656B (zh) | 数据访问方法、装置、设备及存储介质 | |
CN101751415B (zh) | 元数据服务系统、元数据同步方法与写服务器更新方法 | |
CN107919977B (zh) | 一种基于Paxos协议的在线扩容、在线缩容的方法和装置 | |
CN109739435B (zh) | 文件存储和更新方法及装置 | |
CN112654978A (zh) | 分布式异构存储系统中数据一致性实时检查的方法、设备和系统 | |
CN113064764B (zh) | 在区块链系统中执行区块的方法及装置 | |
CN107038192B (zh) | 数据库容灾方法和装置 | |
US20230110826A1 (en) | Log execution method and apparatus, computer device and storage medium | |
CN110661841B (zh) | 微服务架构中分布式服务发现集群的数据一致性方法 | |
AU2019371362B2 (en) | Methods, devices and systems for non-disruptive upgrades to a distributed coordination engine in a distributed computing environment | |
CN109542353B (zh) | 一种面向广域分布式存储系统的一致性算法 | |
CN113204424A (zh) | 一种优化Raft集群的方法、装置及存储介质 | |
CN111966650B (zh) | 一种运维大数据共享数据表的处理方法、装置及存储介质 | |
CN113254511A (zh) | 一种分布式向量检索系统及方法 | |
CN113297168A (zh) | 分布式系统中数据迁移方法及装置 | |
US20240121297A1 (en) | Method and apparatus for distributed synchronization | |
CN111666338B (zh) | 数据复制方法、控制节点及电子设备 | |
CN117478300B (zh) | 基于节点确定的跨链共识方法、装置和计算机设备 | |
EP2645675B1 (en) | Broker cluster and method of operating a broker cluster | |
Lin et al. | An optimized multi-Paxos protocol with centralized failover mechanism for cloud storage applications | |
US20230283663A1 (en) | Randomization of heartbeat communications among multiple partition groups |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |