CN110442573A - 一种分布式容错键值存储的方法及装置 - Google Patents
一种分布式容错键值存储的方法及装置 Download PDFInfo
- Publication number
- CN110442573A CN110442573A CN201910580772.XA CN201910580772A CN110442573A CN 110442573 A CN110442573 A CN 110442573A CN 201910580772 A CN201910580772 A CN 201910580772A CN 110442573 A CN110442573 A CN 110442573A
- Authority
- CN
- China
- Prior art keywords
- node
- deletions
- additions
- task
- looking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
Abstract
本发明涉及了分布式容错键值存储的方法,包括以下步骤:基于Cassandra构架建立键值存储的环形拓扑;设置环形拓扑中各节点的协调服务架构;响应于接收到多个增删改查任务,从基于协调服务架构的节点中选择至少两个节点作为协调节点;在协调节点处理增删改查任务。协调服务架构赋予所有节点均具备实现全部的功能的能力,能够完成作为协调节点以及作为服务节点的工作。同时,存储将包含多个节点,建立多个副本,各副本互为备份。数据的读写请求可以分布到多个节点、多个副本,从而实现了分布式容错功能,提高数据一致性,解决了节点负载的均衡以及任务延时的问题。
Description
技术领域
本发明涉及大数据数据存储技术领域。本发明进一步涉及一种分布式容错键值存储的方法及装置。
背景技术
分布式系统中的数据存储器通常可以包括跨分布式系统的多个存储结构实施键值存储,其中键可以表示索引并且值可以表示存储和/或检索的对象。通过分布式系统的协调节点可以对指定的键值存储结构进行访问。NoSQL的结构通常提供弱一致性的保证,如最终一致性,或仅限于单个的数据项。这些特性意味着NoSQL数据库、Key-Value键值存储给予最终更多的自由度去选择更高性能、高可用以及更好扩展性的数据存储方法及方案。在对数据库中的数据进行CRUD增删改查操作时,基于Cassandra构架建立拓扑结构,Cassandra使用了分布式的Hash-Table环,这个环实现了Key->Server Node键-服务节点的映射,映射到这个环的键被关联到了特定的服务器节点。分配、映射键使用了某种特定的算法,如hash、基于键范围选值或者某种更复杂的方法。在环中的所有服务器节点中有一个协调节点,通过类似于Paxos的一致性算法选出。
然而,基于键值存储的关系型数据库在执行规模小而读写频繁、者大批量极少写访问的事务时,表现出来的性能通常不够理想,一致性不足、容错能力较差并且节点资源负载不均衡。
因此,需要提供一种在基于键值存储的关系型数据库执行大批量、小型读写任务时提高一致性、增强容错能力并均衡节点负载的解决方案。
发明内容
一方面,本发明基于上述目的提出了一种分布式容错键值存储的方法,包括以下步骤:
基于Cassandra构架建立键值存储的环形拓扑;
设置环形拓扑中各节点的协调服务架构;
响应于接收到多个增删改查任务,从基于协调服务架构的节点中选择至少两个节点作为协调节点;
在协调节点处理增删改查任务。
根据本发明的分布式容错键值存储的方法的实施例,其中协调服务架构包括私有成员协议、虚拟环拓扑和增删改查功能组件。
根据本发明的分布式容错键值存储的方法的实施例,其中私有成员协议由传输层协议和故障检测协议组成,传输层协议配置为以组播的方式通知各节点环形拓扑的拓扑信息;故障检测协议配置为通过节点对于节点恢复请求的响应判断节点的故障情况。
根据本发明的分布式容错键值存储的方法的实施例,其中还包括:基于拓扑信息通过哈希算法计算得出虚拟环拓扑。
根据本发明的分布式容错键值存储的方法的实施例,其中在协调节点处理增删改查任务进一步包括:
将多个增删改查任务分配至至少两个协调节点;
至少两个协调节点并行地根据所分配到的增删改查任务基于增删改查功能组件生成执行指令;
将执行指令发送至相应的服务节点,使服务节点按照写时复制机制和/或读时同步机制执行增删改查任务。
根据本发明的分布式容错键值存储的方法的实施例,其中写时复制机制包括在执行写操作时,通过键-服务节点机制将数据映射写入到三个服务节点上形成同一数据的三个副本。
根据本发明的分布式容错键值存储的方法的实施例,其中读时同步机制包括在执行读操作时,读取三个副本的数据并进行比较,若相同则反馈该数据;若不相同则反馈时间戳最新的副本的数据,并以该时间戳最新的副本同步三个副本的数据。
根据本发明的分布式容错键值存储的方法的实施例,其中该方法适用于低于百万级数据存储的小型分布式键值存储。
另一方面,本发明还提出了一种分布式容错键值存储的装置,包括:
至少一个处理器;和
存储器,存储有处理器可运行的程序代码,该程序代码在被处理器执行时实现以下步骤:
基于Cassandra构架建立键值存储的环形拓扑;
设置环形拓扑中各节点的协调服务架构;
响应于接收到多个增删改查任务,从基于协调服务架构的节点中选择至少两个节点作为协调节点;
在协调节点处理增删改查任务。
根据本发明的分布式容错键值存储的装置的实施例,其中在协调节点处理增删改查任务进一步包括:
将多个增删改查任务分配至至少两个协调节点;
至少两个协调节点并行地根据所分配到的增删改查任务基于增删改查功能组件生成执行指令;
将执行指令发送至相应的服务节点,使服务节点按照写时复制机制和/或读时同步机制执行增删改查任务。
采用上述技术方案,本发明至少具有如下有益效果:本发明的技术方案成功的实现了一个最小化的Key-Value键值数据存储,可以提供多点写入、多点读取,实现了成员间的内部私有协议,并提供快速复制及高一致性功能。在基于键值存储的关系型数据库执行大批量、小型读写任务时,根据本发明的方法创建的数据存储结构基于执行CRUD增删改查任务时的写时复制机制和读时同步机制能够提高数据一致性、增强容错能力。同时由于本发明的拓扑环中的所有节点均具备作为协调节点的能力,并且在发起了多个CRUD增删改查任务时,从所有节点中选取多个节点作为协调节点,进而在多个协调节点上并行处理所发起的CURD任务,解决了节点负载的均衡以及任务延时的问题。
本发明提供了实施例的各方面,不应当用于限制本发明的保护范围。根据在此描述的技术可设想到其它实施方式,这对于本领域普通技术人员来说在研究以下附图和具体实施方式后将是显而易见的,并且这些实施方式意图被包含在本申请的范围内。
下面参考附图更详细地解释和描述了本发明的实施例,但它们不应理解为对于本发明的限制。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对现有技术和实施例描述中所需要使用的附图作简单地介绍,附图中的部件不一定按比例绘制,并且可以省略相关的元件,或者在一些情况下比例可能已经被放大,以便强调和清楚地示出本文描述的新颖特征。另外,如本领域中已知的,结构部件可以被不同地布置。
在图中:
图1示出了根据本发明的分布式容错键值存储的方法的实施例的示意性框图;
图2示出了根据本发明的用于分布式容错键值存储的节点的协调服务架构的实施例的示意图。
具体实施方式
虽然本发明可以以各种形式实施,但是在附图中示出并且在下文中将描述一些示例性和非限制性实施例,但应该理解的是,本公开将被认为是本发明的示例并不意图将本发明限制于所说明的具体实施例。
图1示出了根据本发明的分布式容错键值存储的方法的实施例的示意性框图。如图1所示,该方法的实施例包括以下步骤:
S1:基于Cassandra构架建立键值存储的环形拓扑;
S2:设置环形拓扑中各节点的协调服务架构;
S3:响应于接收到多个增删改查任务,从基于协调服务架构的节点中选择至少两个节点作为协调节点;
S4:在协调节点处理增删改查任务。
具体地说,在步骤S1中,基于Cassandra构架建立Key-Value键值存储的环形拓扑。在此,根据Cassandra构架中的Key->Server node键-服务节点的映射机制,通过哈希算法将数据的键值映射到服务节点环中,关联到特定的节点,完成环形拓扑。
为了均衡节点负载,在步骤S2中对环形拓扑的各节点设置协调服务架构,以使各节点具备作为协调节点的能力。优选地,环形拓扑中的所有节点均设置协调服务架构,从而所有的节点均具有作为协调节点的可能性。
随后步骤S3开始响应于接收到发起的多个CRUD增删改查任务,从基于协调服务架构的节点中选择至少两个节点作为协调节点。也就是说,在发生大批量CRUD任务的时候,从所有具备协调服务架构即具有协调功能的节点中按照合适的算法选择出至少两个作为协调节点。更具需求,可以选择更多个节点作为协调节点。计算协调节点的算法可以包括但不限于Paxos算法、hash哈希算法等,在本发明中优选基于hash哈希算法选择协调节点。
在步骤S3选出了至少两个协调节点之后,在步骤S4以所选出的至少两个协调节点处理所接收到的CRUD任务。
在本发明的分布式容错键值存储的方法的一些实施例中,步骤S2为各节点所设置的协调服务架构包括私有成员协议、虚拟环拓扑和增删改查功能组件。图2示出了根据本发明的用于分布式容错键值存储的节点的协调服务架构100的实施例的示意图。如图2所示,该协调服务架构100主要分为以下几个虚拟层:私有成员协议10、虚拟环拓扑20和增删改查功能组件30。下面具体说明上述几个虚拟层的具体实施例。
首先,在环中的各节点需要一直知晓彼此的状态,为此专门定义了私有成员协议10。在每个节点,key-value存储与私有成员协议10交互,可以用来周期性的更新环的状态视图。私有成员协议层10是其它虚拟层建立的基础。
在本发明的分布式容错键值存储的方法的一些实施例中,私有成员协议10由传输层协议和故障检测协议组成。其中,传输层协议配置为以组播的方式通知各节点(即私有成员协议的成员)环形拓扑的拓扑信息。传输层协议规定每个新成员与一个介绍成员通信从而加入组,然后介绍成员将会广播新成员消息,从而其余的成员能够知晓新成员的加入。此外,私有成员协议满足健壮性要求,在新成员加入以及成员故障时,仍能快速的完成通信。同时消息传输非常精确,没有时延以及丢失。为此,故障检测协议配置为通过节点对于节点恢复请求的响应判断节点的故障情况。故障检测规定各节点通过一个peer-to-peer的周期性、随机的请求协议所监控,当某个节点恢复请求协议的响应时间超时,且超过一定的次数即会被判定为故障。请求协议的响应超时时间以及每个成员的承受故障检测负载压力不会随着server-node服务节点环的增大而增长。同时为了减少故障的误判,故障检测层允许server-node服务节点环在认为某个server node服务节点故障前,发起一个简单的读操作来确认。
其次,基于私有成员层协议10,节点间可以实时的通信,知晓节点状态。依赖于成员列表,每个节点都可以通过一定的算法计算出虚拟环状拓扑20。在本发明的方法的一些实施例中,方法还包括:基于拓扑信息通过哈希算法计算得出虚拟环拓扑20。由此,每一个配备了虚拟环拓扑20的节点都可以得到一致的拓扑信息。
最后,为了使得各节点都能具备CRUD处理能力,协调服务架构100还包括增删改查功能组件30。支持增删改查操作,该增删改查功能组件30进一步地至少需要三个组件:存储、复制/一致性以及稳定组件。基于以上三个组建,每个集群中的节点需要同时支持client用户CURD操作和server服务CRUD操作。Client CRUD的过程是控制客户端请求并将操作传递到所有的副本,结果返回后,将结果返回给客户端。当作为协调节点时,节点需要这个功能。Server CRUD被每个键的副本(即服务节点)所使用,当协调节点发送CRUD请求到键副本时,这个模块实现了实际的存储操作。
下面具体解释增删改查功能组件30中的存储、复制/一致性以及稳定组件:
a)存储组件:存储模块主要处理当往一个节点写入时序列化的操作,在节点的本地存储触发一个变更操作。相对于性能问题最主要的优化了故障恢复功能。系统顺序的处理提交操作时,每个节点的恢复功能可以确保在某个节点出现故障时数据可以被持久化到存储中而不出现数据丢失。为了实现故障恢复功能,在数据提交到数据库过程之前,采用了内存结构作为中间步骤。此故障恢复主要是为了避免例如当执行数据commit确认操作时,对应的节点出现故障,此时数据不能被保存到节点的持久化存储中,从而导致数据的丢失。为了解决这个问题主要采用了内存缓存技术,现先将数据缓存到协调节点的内存中,直到commit确认操作在对应节点完成时,缓存才会被清除。若commit过程中,节点出现故障,会重新执行key-node映射,将数据写入新计算出的节点。
b)复制/一致性组件:系统中实现的一致性为最终一致性。最终一致性意味着如果所有的写操作结束后,每个键的所有副本将最终有相同的值。这将由后台当两个值读不匹配时的读修复操作以及稳定性协议完成。写操作是被每个键的协调主机管理,从而保证了针对每个键的写操作是顺序的。协调节点将使用key-node映射发送查询请求到所有属于此key的副本节点。当法定副本返回响应,协调节点将返回确认到客户端。法定副本是存储数据的三个节点(副本节点)经过数据比对,存储数据的时间戳为最新的节点中的任一节点(副本节点)。读操作与写操作类似,协调节点从法定副本中返回的值中返回时间戳最新的值。如果有任何两个副本有不同的值,系统更新较老的值。在服务器端,请求将被ServerCRUD模块控制,此模块将包含相当数量的功能来完成故障恢复、优化性能以及完成部分分布式系统功能。
c)稳定性组件:最后涉及稳定性算法,当一个节点故障,key->node映射会丢失一些key。但故障发生时,将会有n-1个节点存在并接收key的分配,意味着很多key将会分布到不同与之前的节点集合上。在这种状况下,稳定性算法将会恢复、复制那些副本故障的key。稳定性算法的实现是遍历每个节点的所有键值,首先检测键值是否仍属于此节点,如果仍然属于,执行维护、更新操作,告知所有节点。如果不属于,在将此键值确认保存到对应的正确节点后从本地存储中删除此键值。从而保持了key-node映射的稳定性及数据的一致性。
在本发明的分布式容错键值存储的方法的一些实施例中,步骤S4在协调节点处理增删改查任务进一步包括:
S41:将多个增删改查任务分配至至少两个协调节点;
S42:至少两个协调节点并行地根据所分配到的增删改查任务基于增删改查功能组件生成执行指令;
S43:将执行指令发送至相应的服务节点,使服务节点按照写时复制机制和/或读时同步机制执行增删改查任务。
基于步骤S41和步骤S42将任务分配给不同的协调节点以处理,避免了大批量CRUD任务集中在一个协调节点,导致该节点负载过大、任务延时过长等一系列可能出现的问题,从而均衡了拓扑中的节点的负载情况。所选择的协调节点越多,节点负载的均衡效果越明显。同时,多个协调节点并行处理大批量CRUD也会显著缩短任务的延时情况。
利用步骤S43中的写时复制机制和/或读时同步机制,也同时提高了键值存储的一致性,加强了容错能力,保证了系统的稳定性。
在本发明的分布式容错键值存储的方法的若干实施例中,写时复制机制包括在执行写操作时,通过键-服务节点机制将数据映射写入到三个服务节点上形成同一数据的三个副本。具体地说,当对数据库执行写操作(create/update/delete)时,通过key->Servernode键-服务节点机制,数据会被映射、写入到三个server node服务节点上,一份数据会同时保存三份,即建立三个副本。
在本发明的分布式容错键值存储的方法的一些实施例中,读时同步机制包括在执行读操作时,读取三个副本的数据反馈时间戳最新的副本的数据,并对三个副本进行比较,若不相同则以该时间戳最新的副本同步三个副本的数据。即,当执行读取数据操作(select)时,请求会依次的发送给保存三个副本的服务节点,并返回时间戳为最新的数据副本。同时执行读操作时,会自动比对三份数据的差异,如果不同,则以最新的数据为标准,同步其他副本数据。
在本发明的分布式容错键值存储的方法的实施例中,该方法适用于低于百万级数据存储的小型分布式键值存储。本发明的小型Key-Value存储遵循最小化原则,即最小实现,实现的数据库的性能及数据存储量标准较低,理论上支持不超过百万级的数据存储。
另一方面,本发明还提出了一种分布式容错键值存储的装置,包括:至少一个处理器;和存储器,存储有处理器可运行的程序代码,该程序代码在被处理器执行时实现以下步骤:
S1:基于Cassandra构架建立键值存储的环形拓扑;
S2:设置环形拓扑中各节点的协调服务架构;
S3:响应于接收到多个增删改查任务,从基于协调服务架构的节点中选择至少两个节点作为协调节点;
S4:在协调节点处理增删改查任务。
在本发明的分布式容错键值存储的装置的一个或多个实施例中,步骤S4在协调节点处理增删改查任务进一步包括:
S41:将多个增删改查任务分配至至少两个协调节点;
S42:至少两个协调节点并行地根据所分配到的增删改查任务基于增删改查功能组件生成执行指令;
S43:将执行指令发送至相应的服务节点,使服务节点按照写时复制机制和/或读时同步机制执行增删改查任务。
利用根据本发明的装置,所有节点均具备实现全部的功能的能力,都能够完成作为协调节点以及作为服务节点的工作。同时,存储将包含多个节点,建立多个副本,各副本互为备份。数据的读写请求可以分布到多个节点、多个副本,从而实现了分布式容错功能。
本发明实施例公开所述的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(PDA)、平板电脑(PAD)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开所述的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。
本文所述的计算机可读存储介质(例如存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDR SDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
采用上述技术方案,本发明至少具有如下有益效果:本发明的技术方案成功的实现了一个最小化的Key-Value键值数据存储,可以提供多点写入、多点读取,实现了成员间的内部私有协议,并提供快速复制及高一致性功能。在基于键值存储的关系型数据库执行大批量、小型读写任务时,根据本发明的方法创建的数据存储结构基于执行CRUD增删改查任务时的写时复制机制和读时同步机制能够提高数据一致性、增强容错能力。同时由于本发明的拓扑环中的所有节点均具备作为协调节点的能力,并且在发起了多个CRUD增删改查任务时,从所有节点中选取多个节点作为协调节点,进而在多个协调节点上并行处理所发起的CURD任务,解决了节点负载的均衡以及任务延时问题。
应当理解的是,在技术上可行的情况下,以上针对不同实施例所列举的技术特征可以相互组合,从而形成本发明范围内的另外实施例。此外,本文所述的特定示例和实施例是非限制性的,并且可以对以上所阐述的结构、步骤、顺序做出相应修改而不脱离本发明的保护范围。
在本申请中,反意连接词的使用旨在包括连接词。定或不定冠词的使用并不旨在指示基数。具体而言,对“该”对象或“一”和“一个”对象的引用旨在表示多个这样对象中可能的一个。然而,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。此外,可以使用连接词“或”来传达同时存在的特征,而不是互斥方案。换句话说,连接词“或”应理解为包括“和/或”。术语“包括”是包容性的并且具有与“包含”相同的范围。
上述实施例,特别是任何“优选”实施例是实施方式的可能示例,并且仅仅为了清楚理解本发明的原理而提出。在基本上不脱离本文描述的技术的精神和原理的情况下,可以对上述实施例做出许多变化和修改。所有修改旨在被包括在本公开的范围内。
Claims (10)
1.一种分布式容错键值存储的方法,其特征在于,所述方法包括以下步骤:
基于Cassandra构架建立所述键值存储的环形拓扑;
设置所述环形拓扑中各节点的协调服务架构;
响应于接收到多个增删改查任务,从基于所述协调服务架构的所述节点中选择至少两个所述节点作为协调节点;
在所述协调节点处理所述增删改查任务。
2.根据权利要求1所述的方法,其特征在于,所述协调服务架构包括私有成员协议、虚拟环拓扑和增删改查功能组件。
3.根据权利要求2所述的方法,其特征在于,所述私有成员协议由传输层协议和故障检测协议组成,所述传输层协议配置为以组播的方式通知各节点所述环形拓扑的拓扑信息;所述故障检测协议配置为通过所述节点对于节点恢复请求的响应判断所述节点的故障情况。
4.根据权利要求3所述的方法,其特征在于,还包括:基于所述拓扑信息通过哈希算法计算得出所述虚拟环拓扑。
5.根据权利要求2所述的方法,其特征在于,所述在所述协调节点处理所述增删改查任务进一步包括:
将所述多个增删改查任务分配至至少两个所述协调节点;
所述至少两个协调节点并行地根据所分配到的所述增删改查任务基于所述增删改查功能组件生成执行指令;
将所述执行指令发送至相应的所述服务节点,使所述服务节点按照写时复制机制和/或读时同步机制执行所述增删改查任务。
6.根据权利要求5所述的方法,其特征在于,所述写时复制机制包括在执行写操作时,通过键-服务节点机制将数据映射写入到三个服务节点上形成同一数据的三个副本。
7.根据权利要求6所述的方法,其特征在于,所述读时同步机制包括在执行读操作时,读取所述三个副本的数据、反馈时间戳最新的副本的数据,并对所述三个副本的数据进行比较,若不相同则以所述时间戳最新的副本的数据同步三个副本的数据。
8.根据权利要求1所述的方法,其特征在于,所述方法适用于低于百万级数据存储的小型分布式键值存储。
9.一种分布式容错键值存储的装置,其特征在于,所述装置包括:
至少一个处理器;和
存储器,存储有处理器可运行的程序代码,所述程序代码在被处理器执行时实现以下步骤:
基于Cassandra构架建立所述键值存储的环形拓扑;
设置所述环形拓扑中节点的协调服务架构;
响应于接收到多个增删改查任务,从基于所述协调服务架构的所述节点中选择至少两个所述节点作为协调节点;
在所述协调节点处理所述增删改查任务。
10.根据权利要求9所述的装置,其特征在于,所述在所述协调节点处理所述增删改查任务进一步包括:
将所述多个增删改查任务分配至至少两个所述协调节点;
所述至少两个协调节点并行地根据所分配到的所述增删改查任务基于增删改查功能组件生成执行指令;
将所述执行指令发送至相应的所述服务节点,使所述服务节点按照写时复制机制和/或读时同步机制执行所述增删改查任务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910580772.XA CN110442573A (zh) | 2019-06-29 | 2019-06-29 | 一种分布式容错键值存储的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910580772.XA CN110442573A (zh) | 2019-06-29 | 2019-06-29 | 一种分布式容错键值存储的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110442573A true CN110442573A (zh) | 2019-11-12 |
Family
ID=68428739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910580772.XA Pending CN110442573A (zh) | 2019-06-29 | 2019-06-29 | 一种分布式容错键值存储的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110442573A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114785714A (zh) * | 2022-03-01 | 2022-07-22 | 阿里巴巴(中国)有限公司 | 一种报文传输时延检测方法、存储介质及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160314212A1 (en) * | 2015-04-23 | 2016-10-27 | Fujitsu Limited | Query mediator, a method of querying a polyglot data tier and a computer program execuatable to carry out a method of querying a polyglot data tier |
US20170337224A1 (en) * | 2012-06-06 | 2017-11-23 | Rackspace Us, Inc. | Targeted Processing of Executable Requests Within A Hierarchically Indexed Distributed Database |
CN109241161A (zh) * | 2018-08-09 | 2019-01-18 | 深圳市雅码科技有限公司 | 一种气象数据管理方法 |
-
2019
- 2019-06-29 CN CN201910580772.XA patent/CN110442573A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170337224A1 (en) * | 2012-06-06 | 2017-11-23 | Rackspace Us, Inc. | Targeted Processing of Executable Requests Within A Hierarchically Indexed Distributed Database |
US20160314212A1 (en) * | 2015-04-23 | 2016-10-27 | Fujitsu Limited | Query mediator, a method of querying a polyglot data tier and a computer program execuatable to carry out a method of querying a polyglot data tier |
CN109241161A (zh) * | 2018-08-09 | 2019-01-18 | 深圳市雅码科技有限公司 | 一种气象数据管理方法 |
Non-Patent Citations (2)
Title |
---|
刘超等: "面向海量非结构化数据的非关系型存储管理机制", 《计算机应用》 * |
赵刚等: "NoSQL在企业人力资源管理系统中的应用", 《内蒙古科技大学学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114785714A (zh) * | 2022-03-01 | 2022-07-22 | 阿里巴巴(中国)有限公司 | 一种报文传输时延检测方法、存储介质及设备 |
CN114785714B (zh) * | 2022-03-01 | 2023-08-22 | 阿里巴巴(中国)有限公司 | 一种报文传输时延检测方法、存储介质及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200257593A1 (en) | Storage cluster configuration change method, storage cluster, and computer system | |
US10860547B2 (en) | Data mobility, accessibility, and consistency in a data storage system | |
US10846305B2 (en) | Large distributed database clustering systems and methods | |
US10713275B2 (en) | System and method for augmenting consensus election in a distributed database | |
US10366106B2 (en) | Quorum-based replication of data records | |
CN101334797B (zh) | 一种分布式文件系统及其数据块一致性管理的方法 | |
CN105324770B (zh) | 有效读出副本 | |
US11841844B2 (en) | Index update pipeline | |
US7299378B2 (en) | Geographically distributed clusters | |
US8874505B2 (en) | Data replication and failure recovery method for distributed key-value store | |
US9547706B2 (en) | Using colocation hints to facilitate accessing a distributed data storage system | |
US10180812B2 (en) | Consensus protocol enhancements for supporting flexible durability options | |
CN104281506A (zh) | 一种文件系统的数据维护方法及系统 | |
US8090683B2 (en) | Managing workflow communication in a distributed storage system | |
US9733869B1 (en) | Provisioning a slave for data storage using metadata with updated references | |
EP4213038A1 (en) | Data processing method and apparatus based on distributed storage, device, and medium | |
CN112084258A (zh) | 一种数据同步方法和装置 | |
CN112162846B (zh) | 事务处理方法、设备及计算机可读存储介质 | |
US10452680B1 (en) | Catch-up replication with log peer | |
CN113360456B (zh) | 数据归档方法、装置、设备以及存储介质 | |
CN111984696A (zh) | 一种新型数据库和方法 | |
CN113010549A (zh) | 基于异地多活系统的数据处理方法、相关设备及存储介质 | |
CN109726211B (zh) | 一种分布式时序数据库 | |
CN110442573A (zh) | 一种分布式容错键值存储的方法及装置 | |
Pankowski | Consistency and availability of Data in replicated NoSQL databases |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191112 |
|
RJ01 | Rejection of invention patent application after publication |