CN115174498A - 锁服务处理方法、装置和数据处理系统 - Google Patents
锁服务处理方法、装置和数据处理系统 Download PDFInfo
- Publication number
- CN115174498A CN115174498A CN202211086592.4A CN202211086592A CN115174498A CN 115174498 A CN115174498 A CN 115174498A CN 202211086592 A CN202211086592 A CN 202211086592A CN 115174498 A CN115174498 A CN 115174498A
- Authority
- CN
- China
- Prior art keywords
- lock
- node
- storage
- service processing
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L49/00—Packet switching elements
- H04L49/10—Packet switching elements characterised by the switching fabric construction
- H04L49/103—Packet switching elements characterised by the switching fabric construction using a shared central buffer; using a shared memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/66—Arrangements for connecting between networks having differing types of switching systems, e.g. gateways
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L49/00—Packet switching elements
- H04L49/35—Switches specially adapted for specific applications
- H04L49/356—Switches specially adapted for specific applications for storage area networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L49/00—Packet switching elements
- H04L49/90—Buffering arrangements
Abstract
本发明提供一种锁服务处理方法、装置和数据处理系统,涉及数据存储技术领域,其中锁服务处理方法包括:设置第一元数据区;将锁信息存储于所述第一元数据区中,以将所述第一元数据区作为所述存储系统向所述至少一个其他节点共享锁信息的数据通信缓冲区,其中所述锁信息为所述存储系统中各存储区对应的锁信息。通过在数据后端的存储系统中提供锁信息共享通道,使得各个节点可获知锁信息后高效协同工作,避免各个节点对存储系统进行繁琐的加锁、解锁等操作,提高数据处理效率,降低数据处理延时。
Description
技术领域
本发明涉及数据存储技术领域,特别涉及一种锁服务处理方法、装置和数据处理系统。
背景技术
随着智能时代的来临,数据已呈现爆炸式增长态势,而且应用中对海量数据处理的实时性要求日益明显。
目前,虽然存储介质的性能有了近百倍提升,比如采用SSD(solid state disk,固态硬盘)技术后极大提高了数据读写性能(如高速、低延时),但是为了保证数据一致性,数据处理系统中各个节点(如网络结构上的每个数据处理单元可称为一个节点,如服务器节点、网关节点、存储单元节点等)在访问数据时,需要基于锁服务(lock service)机制进行协同。
因此,现有锁服务处理制约了各节点网络协同性能,使得各个节点在数据协同中成了数据中心性能提升的瓶颈。
基于此,为满足数据中心建设中各个节点对海量数据的实时性能提升需要,亟需一种数据协同中低延时的锁服务处理方案。
发明内容
有鉴于此,本说明书实施例提供一种锁服务处理方法、装置和存储系统,更有效地协调存储系统各个节点访问存储系统的数据,提高各节点数据访问性能,避免繁琐的加锁、解锁操作,提高数据处理效率,降低数据处理延时。
本说明书实施例提供以下技术方案:
本说明书实施例提供一种锁服务处理方法,应用于存储系统,所述存储系统与至少一个其他节点存在通信连接,所述锁服务处理方法包括:
设置第一元数据区;
将锁信息存储于所述第一元数据区中,以将所述第一元数据区作为所述存储系统向所述至少一个其他节点共享锁信息的数据通信缓冲区,其中所述锁信息为所述存储系统中各存储区对应的锁信息。
本说明书实施例还提供一种锁服务处理方法,应用于第一网关节点,所述第一网关节点与至少一个其他节点存在通信连接,所述至少一个其他节点包括用于数据存储的至少一个存储系统,所述锁服务处理方法包括:
通过所述通信连接获取锁信息,其中所述锁信息存储于第一元数据区,所述第一元数据区设置于所述存储系统中,所述第一元数据区用于存储所述存储系统中各存储区对应的锁信息,以作为所述存储系统向所述第一网关节点和/或所述至少一个其他节点共享所述锁信息的数据通信缓冲区。
本说明书实施例还提供一种锁服务处理装置,应用于存储系统,所述存储系统与至少一个其他节点存在通信连接,所述锁服务处理装置包括:
锁信息共享模块,设置第一元数据区,以作为所述存储系统向所述至少一个其他节点共享锁信息的数据通信缓冲区,其中所述锁信息为所述存储系统中各存储区对应的锁信息;
锁信息存储模块,将所述锁信息存储于所述第一元数据区中。
本说明书实施例还提供一种锁服务处理装置,应用于第一网关节点,所述第一网关节点与至少一个其他节点存在通信连接,所述至少一个其他节点包括用于数据存储的至少一个存储系统,所述锁服务处理装置包括:
获取模块,通过所述通信连接获取锁信息,其中所述锁信息存储于第一元数据区,所述第一元数据区设置于所述存储系统中,所述第一元数据区用于存储所述存储系统中各存储区对应的锁信息,以作为所述存储系统向所述第一网关节点和/或所述至少一个其他节点共享所述锁信息的数据通信缓冲区。
本说明书实施例还提供一种数据处理系统,包括服务器节点和存储节点,所述服务器节点与所述存储节点通信连接,所述存储节点被配置为执行前述任意一项所述的应用于存储系统的锁服务处理方法,以向所述服务器节点提供锁信息。
与现有技术相比,本说明书实施例采用的上述至少一个技术方案能够达到的有益效果至少包括:
通过在数据后端的存储系统中共享锁服务通道的共享方式,可以在数据处理中,无需去额外设置一个集中式管理模块,也不需要网关之间互相通信询问锁状态,以及锁信息的发送接收直接由存储系统通过共享方式提供,其他节点获取锁信息操作免锁,又不占用网关节点之间通信链路,各节点之间基于共享锁信息进行协同数据处理,提高各节点数据访问性能,避免各个节点对存储系统进行繁琐的加锁、解锁等操作,提高数据处理效率,降低数据处理延时,避免各个节点对数据中心建设带来的约束,使得锁服务方案可成为通用的锁服务方案,有利于加快不同应用场景下的数据中心建设。
还有,存储系统使用SSD存储数据,掉电数据不会消失,克服了集中式锁服务里面主从模块一旦毁坏系统无法运作的缺点,保证锁信息的持久化。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是现有数据处理系统的结构示意图;
图2是现有方案锁服务方案中数据访问冲突过程的示意图;
图3是现有方案的中心化锁服务方案的结构示意图;
图4是现有方案的非中心化锁服务方案的结构示意图;
图5是本说明书实施例提供的一种锁服务处理方案的结构示意图;
图6是本说明书实施例提供的一种锁服务处理方法的流程图;
图7是本说明书实施例提供的一种锁服务处理方法中队列队头、队尾指针原子操作的示意图;
图8是本说明书实施例提供的一种锁服务处理方法中进行KV持久化存储的示意图;
图9是本说明书实施例提供的一种锁服务处理装置的结构示意图;
图10是本说明书实施例提供的一种锁服务处理方法中锁服务方案的结构示意图;
图11是本说明书实施例提供的一种锁服务处理方法的流程图;
图12是本说明书实施例提供的一种锁服务处理装置的结构示意图;
图13是本说明书实施例提供的一种数据处理系统的结构示意图。
具体实施方式
下面结合附图对本申请实施例进行详细描述。
以下通过特定的具体实例说明本申请的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本申请的其他优点与功效。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。本申请还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本申请的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本申请,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目和方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本申请的基本构想,图式中仅显示与本申请中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等描述的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
目前,NVMe(Non-Volatile Memory Express,非易失性内存主机控制器接口规范)是目前最新的存储设备通信协议,其定义了如何在计算机与存储设备之间传输数据,该协议应用于PCIe接口(peripheral component interconnect express,高速串行计算机扩展总线标准接口);
NVMe-oF(NVMe over Fabrics)使用RDMA(Remote Direct Memory Access,远程直接数据存取)或光纤通道(FC)架构等Fabrics技术取代PCIe传输,描述了如何将 NVMe 协议由 PCIe 接口的使用场景扩展至透过网络的使用场景,是一种架构以及包含RDMA在内的数种相关网络协议。
基于NVMe或者NVMe-oF协议的现有网络传输方案,需要依赖传统锁机制来保证数据一致性。但是中心化锁机制或者是非中心化锁机制,都对海量数据在网络透传中带来限制。
如图1所示,服务器池中的各个服务器可以通过网关(gateway)集群访问数据后端的存储系统池中的存储系统中的数据,比如存储系统为EBOF(Ethernet Bunch of Flash,下文可称为闪存簇、闪存扩展柜等,其中EBOF可以基于以太网传输协议,也可以基于其他传输协议,如InfiniBand、Fibre Channel等)。
如图2所示,网关可以由多个网关交换机构成,如网关A、网关B、网关C等,其中每个网关交换器都包含有:NVMe目标器(NVMe Target)、空间服务(Space Service)、缓存(Cache)、存储池(Storage pool)、块设备管理(BDM)、NVMe启动器(NVMe initiator)、数据镜像(Data peering)和集群管理(Cluster Manager)等功能单元;存储集群(即存储系统)由多个EBOF盘片构成,如EBOF A Disks、EBOF B Disks、EBOF C Disks等,每个EBOF盘片都包含多个数据库用于存放数据。因此,当两个服务器通过相应网关同时访问存储集群中同一地址的数据时,服务器访问该数据的过程如下:服务器提出读取或者写入数据请求(下面以写请求为例),网关接到该请求后相应地访问某一块存储设备,其中网关中处理步骤如下:
步骤1,网关中NVME Target收到主机写请求后,将该请求转发到Space service处理,NVMe(Non-Volatile Memory express)是一种协议,专门为闪存类存储设计的协议;
步骤2,Space service根据访问地址和长度,将请求分拆打散到各网关(如GatewayA、GatewayB、GatewayC)上, 通过Data peering请求转发,Data peering查询集群状态,将访问请求发送到各网关的Cache中,进而对同一逻辑地址的AA进行写操作,此时将发生冲突(conflict);
步骤3,各网关的Cache将写数据保存本地内存的同时,并将脏数据同步到镜像节点的Cache中,其中可根据数据可靠性要求选择2~4副本cache镜像;
步骤4,回写流程完成后通过Cache->Space Servie->NVMe Target->主机返回写成功;
步骤5,Cache下刷脏数据到Storage pool,即Storage pool->BDM->NVMeinitialtor下发到各自归属EBOF的SSD中,且网关Cache镜像数据不用刷盘。
因此,需要依靠锁服务机制对数据访问进行协同处理,避免多个节点同时访问同一个地址的数据时发生访问冲突而产生数据一致性问题。
如图3所示,现有中心化锁服务机制是,即由主机节点(lockservicemaster)和从机节点(lockserviceslave)构成高可用(High Availability,简称HA)的锁(lockHA)方案,即分布式锁服务的连续性可以由高可用性保证,其中主机节点和从机节点提供分布式锁服务,服务集群(Servicecluster)中各个节点(如node0、node1至nodeN等)分别连接主机节点和从机节点,以根据锁服务的锁消息(如Lockmsg或者unlockmsg)进行协同工作,因而这种情况下如果提供分布式锁服务的工作节点(如主机节点)出现故障,需要启动备用节点(如从机节点)接管服务,而从故障主机节点切换到备用从机节点需要较长时间。因此,中心化锁服务方案不仅需要设置主机、从机节点,结构复杂,建设成本高,而且主从机之间切换时间较长。
如图4所示,现有非中心化锁服务机制由服务集群中的各个节点提供锁服务,即各个节点需要专用的节点间消息通道,如节点开设lockservice通道来提供锁服务,以在各个节点之间基于专用消息通道,在读写一致性成员间进行分布式加解锁(如Lockmsg、unlockmsg)的消息广播。因此,不仅增大了节点间的网络通信压力大,加解锁操作也增加开销,增大读写延迟。
因此,现有的锁服务机制在实际应用中均存在各自限制,如中心化锁机制中需要设置主从节点,并在主机故障时切换到备份从机,切换时间也大,比如非中心化锁机制需要专用的节点间消息通道,加大了各节点的开销、通信压力及读写延时等,使得现有锁服务方案以及基于锁服务的传输方案等在实际应用中存在诸多限制,应用灵活性不高,而且数据延时大。
另外,传统数据访问处理方案通常是基于传统网络进行访问协同,但传统网络在改造应用到海量数据场景时,目前改造进展缓慢且建设难度大、成本高,并不适合快速、低成本地灵活应用于各种新出现的海量数据处理应用场景。
有鉴于此,在对锁机制进行深入研究及改进后,基于现有的两种锁服务方式进行优化和改进,提出了一种灵活性高的通用锁服务方案:如图5所示,在现有的被访问存储节点(如图中示出的存储器集群NVMeSSDs)上设置一块区域(如图中示出的lockstatus)用于存储锁信息,并作为多个网关节点之间的锁消息交流通道,使得所有的网关节点(如图中示出的控制器(controller)/网关(gateway)),都可以同时看到同一存储节点存储的所有锁信息,即各个节点内的锁服务(lockservice)进程都可以访问并得知同一块存储区域的锁信息,其中存储节点可为基于NVMe或者NVMe-oF的SSD池。
通过在存储节点中设置一块共享区域用于存储该存储节点的锁信息,即通过处于后端的存储节点中设置锁信息共享通道实现锁服务共享方案,这样既不需要如中心化锁管理模式需要设置主从节点,又不需要如非中心化锁管理模式中依靠各网关节点之间互相通信访问,因而无需额外设置一个集中式管理模块,也不需要网关之间互相通信询问而占用网关节点之间链路,以及节点之间通信仍可基于传统传输网络进行通信,可充分发挥存储节点读写性能优势同时,可降低数据中心建设难度、成本,提高建设速度和效率。
另外,网关和存储节点(如SSD)之间可以透过网络进行数据访问传输,比如基于NVMe-oF架构来支持NVMe协议在网络中透传,数据速度更快,节省更多通信时间,降低上下文传输延迟,避免了锁服务对数据处理中各节点的性能制约。
还有,在使用SSD作为存储系统,既可快速、低延时地读写海量数据,又可避免掉电后数据消失,克服了现有方案中可能因当前处理节点毁坏而导致整体系统无法顺利运行的不足。
因此,改进后的锁服务方案可为数据中心建设提供一种性能高、灵活性好的低成本快速应用方案。
需要说明的是,使用NVMe协议意味着需要使用基于PCIe交换机的服务器机架,虽然存储扩展的范围相对小一些,但也是一种完全有效的存储扩展方式;NVMe-oF是允许在数据中心范围内连接无数的存储空间,存储扩展范围不受限制,以及NVMe-oF的优势可以在计算和存储完全分开的应用场景中可完全发挥出来,因而可通过以太网网络将一个NVMe SSD池提供给一个服务器池实现用途更广的应用方案,比如可以允许按需提供计算和存储,计算和存储的分解提升了存储的可伸缩性和可共享性,并支持可组合性。因此,存储节点(如闪存柜)及其扩展方案可根据实际应用需要选用NVMeSSD池或者NVMe-oFSSD池。
以下结合附图,说明本申请各实施例提供的技术方案。
本说明书实施例提供应用于存储系统的一种锁服务处理方法,存储系统与至少一个其他节点存在通信连接,其中所述至少一个其他节点可以包括至少一个网关节点和/或服务器节点和/其他存储系统节点,作为优选实施方式,所述至少一个其他节点可以包括至少一个网关节点,以便存储系统通过网关节点向外广播共享锁信息。
如图6所示,所述锁服务处理方法,可包括:
步骤S202、设置第一元数据区;
步骤S204、将锁信息存储于所述第一元数据区中。
实施中,在存储系统中开辟出一个专用的元数据区,并可将该元数据区作为存储系统向外部共享锁信息的数据通信缓冲区,使得与存储系统通信连接的其他节点(比如服务器、网关、其他存储系统等),均可通过该元数据区获知该存储系统的锁信息,有利于其他节点在数据处理(如读数据、写数据等)中高效、可靠地协同。
实施中,锁信息可为所述存储系统中各存储区对应的锁信息,该锁信息用于锁服务中,外部其他节点对该存储系统的加锁、解锁等信息可反映于锁信息中,因而锁信息可用于在数据处理中,反映存储系统中各存储区被外部其他节点请求加解锁时的请求内容、锁状态等。
例如,在前述图5所示的NVMeSSDs(即基于NVMe协议的SSD池)构成的存储系统中,可在多个disk(存储盘片)构成的SSD池中开辟出一个lockstatus存储区,以作为用于存储锁信息的第一元数据区,这样存储系统可向与其具有数据通信连接的控制器(controller)或者网关(gateway)的锁服务(如服务线程)共享锁信息,使得各个锁服务都可以同时去获取锁信息。
实施中,锁信息可作为元数据存储于第一元数据区中。需要说明的是,元数据可指结构化数据,以用结构化数据表征另一数据的数据特征,这里将存储系统中各存储区的锁信息形成为结构化数据(即作为元数据),并存储于元数据区中。因此,元数据的具体结构形式、元数据区的组织形式、大小等,本领域的技术人员可根据实际应用需要进行设置,这里不作限定。
一些实施方式中,可在存储系统中的指定存储区中开辟第一元数据区,其中指定存储区可为存储系统中专门存储锁信息的存储区,比如指定存储区为指定的SSD(固体硬盘)。
通过在将第一元数据区在指定存储区中进行开辟,可有利于快速形成第一元数据区,并且有利于将第一元数据区域其他数据区分存放,也利于快速、准确地读写锁信息。
还有,在进行存储扩展时,也可方便地将扩展的存储区所对应锁信息,快速地从第一元数据区中读写,降低读写延时,提高读写效率。
需要说明的是,指定存储区可为某个存储区,也可为某个存储区中的某段地址对应的存储空间,这里不作限定。
一些实施方式中,锁信息可通过数据队列方式进行共享,即所述锁服务处理方法还可包括:在所述第一元数据区中设置第一数据传输队列。因此,将所述锁信息存储于所述第一元数据区,可包括:将所述锁信息存储于所述第一数据传输队列。
实施中,可在通信缓冲区内部,根据分布式集群的拓扑关系,生成节点P2P(peertopeer)的数据传输队列,比如可分成发送队列(如节点A向节点B发送信息的传输队列,记为A->B),比如接收队列(如节点A接收节点B发送信息的传输队列,记为B->A)。
需要说明的是,第一数据传输队列可为接收队列、发送队列,以及可根据实际应用需要设置该数据传输队列,比如队列地址、队列大小、队列结构等,这里不作限定。
一些实施方式中,可通过指针操作对队列的入列和出列进行操作处理。
实施中,所述第一数据传输队列设置有指向队列内部地址的队尾(tail)指针和队头(head)指针,这样对于每个队列,都有一个队头和队尾指针作为队列维护(即入列、出列)的操作指针。其中,指针均为指向队列内部的地址,队头指针指向队列头部,可作为接收者维护的对象;队尾指针指向队列尾部,作为发送者维护的对象。
通过设置队头指针、队尾指针后,存储系统可向外部其他节点提供队列维护接口,使得其他节点可在数据处理中直接操作指针,及时进行加锁、解锁请求及操作,降低数据处理的延时。
此时,所述锁服务处理方法还可包括:
当接收到所述其他节点申请加锁请求时,由作为发送者的所述其他节点执行:将加锁消息加入所述第一数据传输队列和修改所述队尾指针;
当向所述其他节点发送所述锁消息时,由作为接收者的所述其他节点执行:轮询读取所述队尾指针和在获取新的锁消息出队处理后修改所述队头指针。
例如,节点申请加锁时,由发送者线程将消息内容入队列后,修改队尾指针,完成入队操作;
例如,节点接收消息,由接收者线程轮询读取队尾指针,获取新消息出队处理,修改队头指针,完成出队操作。
需要说明的是,这里的发送者和接收者均为相对存储系统来说,比如网关节点需要从存储系统获取共享的锁信息,则网关节点为接收者;比如网关节点请求加锁、解锁等操作,此时网关节点为发送者。
一些实施方式中,在元数据区内对发送队列和/或接收队列进行入列操作中,可采用顺序循环写模式。
实施中,将所述锁信息存储于所述第一数据传输队列,可包括:采用顺序循环写模式将所述锁信息存储于所述第一数据传输队列。
实施中,数据传输队列可为循环队列,可对该队列进行顺序循环写,可保证消息数据的高性能写入,降低延时,也可对介质的磨损进行均衡。
一些实施方式中,可将锁信息(即队列中的队列元素)放在不同的page中。
实施中,将所述锁信息存储于所述第一数据传输队列,可包括:将所述锁信息在队列中的每个元素存储于所述第一元数据区中不同存储页。
通过将队列中的每个元素放在不同的存储页(page)中,可方便存储扩展,也可保证每次写操作的磨损均衡。
一些实施方式中,在新的锁信息写入队列时,即新写入队列数据时,可将当前的事务ID一起写入队列数据中。
实施中,将所述锁信息存储于所述第一元数据区,可包括:将所述锁信息和当前事务ID存储于所述第一元数据区。
实施中,可将事务ID写入到队列中的空域中,当队头和队尾数据损坏时,在锁信息对应的队列元素损坏时,可以扫描事务ID数据对队列恢复,可保证队列数据的完整一致。
一些实施方式中,可将队头指针和队尾指针值和当前的事务ID一起写入队列数据的空闲域中,当队头和队尾数据损坏时,可以扫描数据队列进行恢复,保证了队头和队尾指针内容和队列数据的完整一致。
一些实施方式中,可采用原子操作将所述锁信息存储于所述第一元数据区。由于是原子操作,使得读到写可以一气呵成,且不被中断,比如网关节点访问数据时,可在读完数据后,立刻(比如极短时间内)把下一个锁信息(如锁状态)写进元数据区中,使得加锁、解锁的时间可大幅度减少,同时数据一致性也得到保障。
在一些实施中,在队列的队头或者队尾指针维护中,可采用原子操作,保证修改队头或者队尾指针不被中断,即使修改队列数据的操作被打断,但是仍可以队头和队尾指向的内容为有效值,保证了数据一致性。
需要说明的是,原子操作(atomic operation)可指不可以被中断的一个或一系列操作,这里不作限定。
如图7所示,相关节点(如控制器/网关节点,如node0、nodeN)在对队头指针、队尾指针进行原子操作维护中,可以通过NVMe SSD RW接口(即NVMe SSD读写接口)对队尾和队头指针的原子读写操作,比如发送节点(如图中的nodeN)可以先从队列中读取队尾指针(Read tail pointer),然后向数据区写锁请求(write lock request),接着通过原子写操作修改队列的队尾指针(Atomic write tail pointer),比如接收节点从队列中读取队头指针(Read head pointer),以及从数据区读取锁请求(Read lock request),然后通过原子写操作修改队头指针(Atomic write head pointer)。
一些实施方式中,可通过NVMe SSD KV(Key Value,键值对)共享接口实现锁信息的持久化存储,其中KV中保存有加锁请求内容和状态,KV为键值、键值对。
通过KV持久化存储锁信息进行,既可以利用传统的分布式系统的配置实现方式,又能利用NVMe KV接口,可以获取到更好的性能,实现加解锁状态持久化存储。
一些实施方式中,可以通过哈希(hash)算法确定合适的锁服务节点通过原子操作实现KV持久化存储。
具体地,锁客户节点对需要加锁的资源ID,通过一致性hash算法在集群中选择一个锁服务节点,并向所述锁服务节点所在的KV中尝试写入加锁请求内容。
其中,各锁服务节点可以分配自身对应的唯一ID标识(即资源ID),这时锁客户节点可以通过hash算法来确定该ID对应的锁服务节点是否适合用于进行KV持久化存储原子操作,当确定出适合时,锁客户节点向锁服务节点所在的KV中尝试写入加锁请求内容。
需要说明的是,锁服务节点和锁客户节点之间存储数据通信,因而基于该数据通信实现数据交互,具体通信方式不作限定。
一些实施方式中,锁客户节点可以通过所述资源ID进行轮询,确定加锁是否就绪。另外,在轮询到加锁请求就绪状态时,锁客户节点可以执行下一步业务流程,比如将需要锁服务节点处理的业务向锁服务节点发送等。
一些实施方式中,可采用数据版本号的方式检测冲突,实现Get/Set操作免锁。具体地,在所述锁客户节点尝试写入加锁请求内容时,所述锁服务节点读取加锁请求和版本号,并进行互斥判断,当判断出当前允许加锁时,则修改请求就绪状态和版本号后写入KV中。
一些实施方式中,在锁服务节点进行原子操作的KV持久化存储中,当出现故障、请求超时等处理,可以由锁服务节点内部完成。
一些实施方式中,如图8所示,基于NVMe SSD KV共享接口进行锁信息持久化存储中,锁客户节点可以先获取锁数据(比如Get lock data的数据版本为version1),当锁客户节点需要修改锁数据(change lock data)时,通过将锁数据设置为新版本,比如set lockdata version1为version2,可以通过定期查询数据区中锁状态修改情况(Subscribe thelock status change),及时获知锁状态;另外,锁服务节点获取到锁数据(get lock data)比如获取到新版本version2的锁数据,进而对锁数据进行冲突检查完成互斥检测判断,当判断出允许加锁时,则修改请求就绪状态和版本号后写入KV中,最后锁客户节点通过轮询而被告知锁已准备就绪,从而完成整个锁信息持久化存储。
一些实施方式中,前述任意一项实施例所述的锁服务处理方案,可应用于NVMe-oF全闪存系统。
实施中,所述存储系统包括NVMe-oF全闪存系统,所述存储系统与至少一个其他节点存在通信连接,可包括:所述NVMe-oF全闪存系统与至少一个其他节点存在以太网通信连接。
通过NVMe-oF全闪存系统与至少一个其他节点进行以太网通信连接,各网关和SSD之间可透过NVMe-oF架构来支持NVMe协议,不仅可基于传统以太网(比如网关之间仍用TCP-IP协议)进行数据处理,而且NVMe协议速度快,有效节省通信时间,降低延时,也可避免各节点对数据中心建设带来的约束,提高了锁服务方案在不同应用场景的灵活性。
一些实施方式中,处于数据中心后端的存储系统可使用智能EBOF(智能的以太网闪存柜),提高数据读写效率的同时,可防止单点盘的单点故障造成数据丢失,也可提高存储扩展的灵活性。
实施中,NVMe-oF全闪存系统可包括以太网闪存柜(EBOF),其中EBOF中可包括若干SSD。
一些实施方式中,可通过智能EBOF,使得存储节点对内部可作盘间数据冗余存储,对外部可提供跨盘的固态硬盘原子写操作,即所述以太网闪存柜用于在所述NVMe-oF全闪存系统中作为盘间数据冗余的存储单元;和/或,所述以太网闪存柜用于在所述NVMe-oF全闪存系统中对所述其他节点提供固态硬盘原子写操作的存储单元。
基于相同发明构思,本说明书实施例还提供与前述应用于存储系统的所述锁服务处理方法相对应的锁服务处理装置。
如图9所示,本说明书实施例提供的锁服务处理装置,应用于存储系统中,其中所述存储系统与至少一个其他节点200存在通信连接,其中所述锁服务处理装置110可包括:锁信息共享模块111,设置第一元数据区,以作为所述存储系统100向所述至少一个其他节点200共享锁信息的数据通信缓冲区,其中所述锁信息为所述存储系统100中各存储区对应的锁信息;锁信息存储模块113,将所述锁信息存储于所述第一元数据区中。
通过将锁信息存储于第一元数据区,并通过第一元数据区对存储系统外部的其他节点进行共享,使得其他节点可同时获知该存储系统中的锁信息,从而在数据处理中高效协同工作,而且在数据中心建设中,仅需要存储系统共享锁信息,存储系统及其他节点改造工作小,建设难度和成本低,也可灵活满足不同应用场合需求。
可选地,锁信息共享模块111还被配置为执行:在所述第一元数据区中设置第一数据传输队列;
将所述锁信息存储于所述第一元数据区,包括:将所述锁信息存储于所述第一数据传输队列。
可选地,所述第一数据传输队列设置有指向队列内部地址的队尾指针和队头指针;
锁信息共享模块111还被配置为执行:
当接收到所述其他节点申请加锁请求时,由作为发送者的所述其他节点执行:将加锁消息加入所述第一数据传输队列和修改所述队尾指针;
当向所述其他节点发送所述锁消息时,由作为接收者的所述其他节点执行:轮询读取所述队尾指针和在获取新的锁消息出队处理后修改所述队头指针。
可选地,将所述锁信息存储于所述第一数据传输队列,包括:采用顺序循环写模式将所述锁信息存储于所述第一数据传输队列。
可选地,将所述锁信息存储于所述第一数据传输队列,包括:将所述锁信息在队列中的每个元素存储于所述第一元数据区中不同存储页。
可选地,将所述锁信息存储于所述第一元数据区,包括:采用原子操作将所述锁信息存储于所述第一元数据区。
可选地,将所述锁信息存储于所述第一元数据区,包括:将所述锁信息和当前事务ID存储于所述第一元数据区。
可选地,所述存储系统包括NVMe-oF全闪存系统;
所述存储系统与至少一个其他节点存在通信连接,包括:所述NVMe-oF全闪存系统与至少一个其他节点存在以太网通信连接。
可选地,所述NVMe-oF全闪存系统包括以太网闪存柜。
可选地,所述以太网闪存柜用于在所述NVMe-oF全闪存系统中作为盘间数据冗余的存储单元;
和/或,所述以太网闪存柜用于在所述NVMe-oF全闪存系统中对所述其他节点提供固态硬盘原子写操作的存储单元。
可选地,设置第一元数据区,包括:在所述存储系统的指定存储区设置第一元数据区。
基于相同发明构思,本说明书实施例还提供应用于网关的锁服务处理方案。下面以应用于第一网关节点为例进行示意说明。
如图10所示,本说明书实施例提供的一种锁服务处理方法,可应用于第一网关节点(如图中的网关),所述第一网关节点与至少一个其他节点存在通信连接,所述至少一个其他节点包括用于数据存储的至少一个存储系统(如图中的存储系统),其中存储系统可为被配置执行前述任意一个实施例中所述的应用于存储系统的锁服务处理方法。
实施中,应用于网关节点的所述锁服务处理方法,可包括:通过所述通信连接获取锁信息,其中所述锁信息存储于第一元数据区,所述第一元数据区设置于所述存储系统中,所述第一元数据区用于存储所述存储系统中各存储区对应的锁信息,以作为所述存储系统向所述第一网关节点和/或所述至少一个其他节点共享所述锁信息的数据通信缓冲区。
通过存储系统共享锁信息,以及网关节点通过与存储系统之间的通信连接(比如以太网的网络连接),可以获取到存储系统对外共享的所述锁信息,进而根据锁信息各个网关节点在数据处理中进行协同工作,提高数据处理效率,降低数据传输延时,同时可降低网关节点的建设难度和成本,提高数据中心建设中网关节点建设的灵活性。
需要说明的是,这里的通信连接可为数据中心建设中传统传输网络、专用传输网络等通信连接,这里不作限定。
一些实施方式中,网关节点可通过协同工作,提高数据处理效率,降低数据处理延时。
实施中,所述至少一个其他节点还可包括至少一个第二网关节点,即第一网关节点和第二网关节点协同工作;
如图11所示,所述锁服务处理方法还可包括:
步骤S402、接收第一服务器发送的待处理任务;
步骤S404、根据所述锁信息,确定所述待处理任务需要使用的目标存储区是否被所述第二网关节点锁住;若是,则执行步骤S406;若否,则执行步骤S408;
步骤S406、将所述待处理任务向所述第二网关节点分配,以使所述第二网关节点对所述待处理任务进行处理;
步骤S408、按预设的处理策略处理所述待处理任务。
需要说明的是,步骤S408中预设的处理策略可为第一网关节点处理任务时对应的处理策略,比如加锁策略、解锁策略等,可根据实际应用进行预设、调整,这里不作限定。
如前述图7所示,在网关节点(如图中示出的控制器/网关节点,如nodeN)查到某一个需要使用到的存储节点被另一网关节点(如图中示出的控制器/网关节点,如node0)锁住时,可以把从服务器接收到的任务发送(send,也可称为分配)给具有该锁资源的node0去进行处理。
通过基于锁信息共享实现任务协同转移处理,既无需nodeN等待Node0解锁后再进行加解锁处理后才进行任务处理,而且nodeN在将任务转移给node0后,还可以再去接收服务器给予的下一个新任务,提高任务处理效率,减低任务延时。
一些实施方式中,可将存储系统共享的锁信息存储于网关节点中,便于网关节点根据存储的锁信息进行协同工作。因此,所述锁服务处理方法还可包括:存储所述锁信息。
需要说明的是,锁信息在网关中存储的形式可根据实际应用而设置,这里不作限定。
一些实施方式中,可通过更新方案及时获取最新的锁信息,即通过所述通信连接获取锁信息,可包括:按预设的更新策略通过所述通信连接获取锁信息。其中,更新策略可根据实际应用进行设置,比如周期性地更新,比如接收存储系统在存在新的锁信息后向各个网关节点广播锁信息的更新策略等等,这里不作限定。
一些实施方式中,可基于以太网采用NVMe-oF透传NVMe协议,实现快速数据处理方案。
实施中,所述第一网关节点为以太网网关节点,所述存储系统包括NVMe-oF全闪存系统,所述通信连接包括以太网通信连接,通过以太网将各个节点进行通信连接,可兼容现有分布式锁服务在不同节点执行的情况,并将NVMe-oF下的EBOF(以太网闪存柜)中所设置的第一元数据区,作为共享的加解锁消息存储转发通道,原有TCP消息卸载到NVMe-oF RDMA通道上,并且将消息持久化到EBOF上,而加锁解锁处理逻辑仍可以由原有的节点进行处理。
还有,该锁服务处理方案并不局限于分布式锁应用,所有节点间需要进行可靠收发的消息,其收发通信也可通过共享该锁信息的此通道进行,实现高可用性的数据处理方案。
基于相同发明构思,本说明书实施例还提供与前述应用于网关节点的所述锁服务处理方法相对应的锁服务处理装置。
如图12所示,本说明书实施例提供的锁服务处理装置310,应用于第一网关节点300,所述第一网关节点300与至少一个其他节点存在通信连接,所述至少一个其他节点包括用于数据存储的至少一个存储系统400,其中存储系统400可被配置执行前述任意一个实施例中所述的应用于存储系统的锁服务处理方法。
所述锁服务处理装置310可包括:获取模块311,通过所述通信连接获取锁信息,其中所述锁信息存储于第一元数据区,所述第一元数据区设置于所述存储系统中,所述第一元数据区用于存储所述存储系统中各存储区对应的锁信息,以作为所述存储系统向所述第一网关节点和/或所述至少一个其他节点共享所述锁信息的数据通信缓冲区。
可选地,所述至少一个其他节点还包括至少一个第二网关节点;
所述锁服务处理方法还包括:
接收第一服务器发送的待处理任务;
根据所述锁信息,确定所述待处理任务需要使用的目标存储区是否被所述第二网关节点锁住;
若是,则将所述待处理任务向所述第二网关节点分配,以使所述第二网关节点对所述待处理任务进行处理。
可选地,所述锁服务处理方法还包括:存储所述锁信息。
可选地,通过所述通信连接获取锁信息,包括:按预设的更新策略通过所述通信连接获取锁信息。
可选地,所述第一网关节点为以太网网关节点,所述存储系统包括NVMe-oF全闪存系统,所述通信连接包括以太网通信连接。
基于相同发明构思,本说明书实施例还提供一种基于前述任意一个实施例提供的锁信息共享方案进行数据处理的数据处理系统。
如图13所示,本说明书实施例提供的数据处理系统,包括服务器节点和存储节点,所述服务器节点与所述存储节点通信连接,所述存储节点被配置为执行前述任意一项应用于存储系统的所述锁服务处理方法的节点,以向所述服务器节点提供锁信息。
通过存储节点设置锁信息共享的通信通道,用于数据任务处理的服务器节点均可获知存储系统中同一地址的数据是否被锁、被哪个处理节点加锁等锁信息,从而各个节点之间可高效地协同工作,降低数据处理延时,避免各个处理节点对数据中心建设带来的约束,简化建设难度和成本,提高数据中心在不同应用场景中灵活性。
一些实施方式中,所述数据处理系统还可包括至少一个网关节点,所述服务器节点通过所述网关节点与所述存储节点通信连接。
实施中,网关节点可被配置执行前述任意一个实施例中所述的应用于第一网关节点的锁服务处理方法。
通过网关节点,可高效地在服务器节点之间、服务器节点与存储节点之间、网关节点之间等进行协同工作,提高数据处理效率,降低数据处理延时。
一些实施方式中,所述数据处理系统还可包括RoCE节点,所述存储节点包括NVMe-oF全闪存系统,所述NVMe-oF全闪存系统通过RoCE节点通信连接于所述网关节点。
如图中所示,RoCE节点可包括位于网关前端的RoCE路由器(如图中示出的RoCE前端交换机,记为FrontendRoCESwitch)和位于网关后端的RoCE路由器(如图中示出的RoCE后端交换机,记为BackendRoCESwitch),可在NVMe-oF透传NVMe协议中,原有TCP消息卸载到NVMe-oF RDMA通道上,并且将消息持久化到存储系统(如EBOF)上,而加锁解锁处理逻辑仍可以由原有的节点进行处理。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例侧重说明的是与其他实施例的不同之处。尤其,对于后面说明的产品实施例而言,由于其与方法是对应的,描述比较简单,相关之处参见方法实施例的部分说明即可。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
应当说明的是,上述实施例均可根据需要自由组合。以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (25)
1.一种锁服务处理方法,其特征在于,应用于存储系统,所述存储系统与至少一个其他节点存在通信连接,所述锁服务处理方法包括:
设置第一元数据区;
将锁信息存储于所述第一元数据区中,以将所述第一元数据区作为所述存储系统向所述至少一个其他节点共享锁信息的数据通信缓冲区,其中所述锁信息为所述存储系统中各存储区对应的锁信息。
2.根据权利要求1所述的锁服务处理方法,其特征在于,所述锁服务处理方法还包括:在所述第一元数据区中设置第一数据传输队列;
将所述锁信息存储于所述第一元数据区,包括:将所述锁信息存储于所述第一数据传输队列。
3.根据权利要求2所述的锁服务处理方法,其特征在于,所述第一数据传输队列设置有指向队列内部地址的队尾指针和队头指针;
所述锁服务处理方法还包括:
当接收到所述其他节点申请加锁请求时,由作为发送者的所述其他节点执行:将加锁消息加入所述第一数据传输队列和修改所述队尾指针;
当向所述其他节点发送所述锁消息时,由作为接收者的所述其他节点执行:轮询读取所述队尾指针和在获取新的锁消息出队处理后修改所述队头指针。
4.根据权利要求2所述的锁服务处理方法,其特征在于,将所述锁信息存储于所述第一数据传输队列,包括:采用顺序循环写模式将所述锁信息存储于所述第一数据传输队列。
5.根据权利要求2所述的锁服务处理方法,其特征在于,将所述锁信息存储于所述第一数据传输队列,包括:将所述锁信息在队列中的每个元素存储于所述第一元数据区中不同存储页。
6.根据权利要求1所述的锁服务处理方法,其特征在于,所述锁服务处理方法还包括:通过NVMe的SSD键值对共享接口,对所述锁信息进行持久化存储,其中键值对中保存有加锁请求内容和状态。
7.根据权利要求6所述的锁服务处理方法,其特征在于,锁客户节点对需要加锁的资源ID,通过一致性哈希算法在集群中选择一个锁服务节点,并向所述锁服务节点所在的键值对中尝试写入加锁请求内容。
8.根据权利要求7所述的锁服务处理方法,其特征在于,在所述锁客户节点尝试写入加锁请求内容时,所述锁服务节点读取加锁请求和版本号,并进行互斥判断,当判断出当前允许加锁时,则修改请求就绪状态和版本号后写入键值对中。
9.根据权利要求7所述的锁服务处理方法,其特征在于,锁客户节点通过所述资源ID轮询加锁是否就绪。
10.根据权利要求1所述的锁服务处理方法,其特征在于,将所述锁信息存储于所述第一元数据区,包括:采用原子操作将所述锁信息存储于所述第一元数据区。
11.根据权利要求1所述的锁服务处理方法,其特征在于,将所述锁信息存储于所述第一元数据区,包括:将所述锁信息和当前事务ID存储于所述第一元数据区。
12.根据权利要求1所述的锁服务处理方法,其特征在于,所述存储系统包括NVMe-oF全闪存系统;
所述存储系统与至少一个其他节点存在通信连接,包括:所述NVMe-oF全闪存系统与至少一个其他节点存在以太网通信连接。
13.根据权利要求12所述的锁服务处理方法,其特征在于,所述NVMe-oF全闪存系统包括以太网闪存柜。
14.根据权利要求13所述的锁服务处理方法,其特征在于,所述以太网闪存柜用于在所述NVMe-oF全闪存系统中作为盘间数据冗余的存储单元;
和/或,所述以太网闪存柜用于在所述NVMe-oF全闪存系统中对所述其他节点提供对于固态硬盘原子写操作的存储单元。
15.根据权利要求1所述的锁服务处理方法,其特征在于,设置第一元数据区包括:在所述存储系统的指定存储区设置第一元数据区。
16.一种锁服务处理方法,其特征在于,应用于第一网关节点,所述第一网关节点与至少一个其他节点存在通信连接,所述至少一个其他节点包括用于数据存储的至少一个存储系统,所述锁服务处理方法包括:
通过所述通信连接获取锁信息,其中所述锁信息存储于第一元数据区,所述第一元数据区设置于所述存储系统中,所述第一元数据区用于存储所述存储系统中各存储区对应的锁信息,以作为所述存储系统向所述第一网关节点和/或所述至少一个其他节点共享所述锁信息的数据通信缓冲区。
17.根据权利要求16所述的锁服务处理方法,其特征在于,所述至少一个其他节点还包括至少一个第二网关节点;
所述锁服务处理方法还包括:
接收第一服务器发送的待处理任务;
根据所述锁信息,确定所述待处理任务需要使用的目标存储区是否被所述第二网关节点锁住;
若是,则将所述待处理任务向所述第二网关节点分配,以使所述第二网关节点对所述待处理任务进行处理。
18.根据权利要求16所述的锁服务处理方法,其特征在于,所述锁服务处理方法还包括:存储所述锁信息。
19.根据权利要求16所述的锁服务处理方法,其特征在于,通过所述通信连接获取锁信息,包括:按预设的更新策略通过所述通信连接获取锁信息。
20.根据权利要求16所述的锁服务处理方法,其特征在于,所述第一网关节点为以太网网关节点,所述存储系统包括NVMe-oF全闪存系统,所述通信连接包括以太网通信连接。
21.一种锁服务处理装置,其特征在于,应用于存储系统,所述存储系统与至少一个其他节点存在通信连接,所述锁服务处理装置包括:
锁信息共享模块,设置第一元数据区,以作为所述存储系统向所述至少一个其他节点共享锁信息的数据通信缓冲区,其中所述锁信息为所述存储系统中各存储区对应的锁信息;
锁信息存储模块,将所述锁信息存储于所述第一元数据区中。
22.一种锁服务处理装置,其特征在于,应用于第一网关节点,所述第一网关节点与至少一个其他节点存在通信连接,所述至少一个其他节点包括用于数据存储的至少一个存储系统,所述锁服务处理装置包括:
获取模块,通过所述通信连接获取锁信息,其中所述锁信息存储于第一元数据区,所述第一元数据区设置于所述存储系统中,所述第一元数据区用于存储所述存储系统中各存储区对应的锁信息,以作为所述存储系统向所述第一网关节点和/或所述至少一个其他节点共享所述锁信息的数据通信缓冲区。
23.一种数据处理系统,包括服务器节点和存储节点,所述服务器节点与所述存储节点通信连接,其特征在于,所述存储节点被配置为执行如权利要求1至15中任意一项所述的锁服务处理方法,以向所述服务器节点提供锁信息。
24.根据权利要求23所述的数据处理系统,其特征在于,所述数据处理系统还包括至少一个网关节点,所述服务器节点通过所述网关节点与所述存储节点通信连接。
25.根据权利要求24所述的数据处理系统,其特征在于,所述数据处理系统还包括RoCE节点,所述存储节点包括NVMe-oF全闪存系统,所述NVMe-oF全闪存系统通过RoCE节点通信连接于所述网关节点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211086592.4A CN115174498B (zh) | 2022-09-07 | 2022-09-07 | 锁服务处理方法、装置和数据处理系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211086592.4A CN115174498B (zh) | 2022-09-07 | 2022-09-07 | 锁服务处理方法、装置和数据处理系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115174498A true CN115174498A (zh) | 2022-10-11 |
CN115174498B CN115174498B (zh) | 2022-12-09 |
Family
ID=83480990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211086592.4A Active CN115174498B (zh) | 2022-09-07 | 2022-09-07 | 锁服务处理方法、装置和数据处理系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115174498B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103731485A (zh) * | 2013-12-26 | 2014-04-16 | 华为技术有限公司 | 一种网络设备、集群存储系统及分布式锁管理方法 |
US20160259811A1 (en) * | 2015-03-06 | 2016-09-08 | Superna Business Consulting, Inc. | Method and system for metadata synchronization |
US20190082010A1 (en) * | 2017-09-11 | 2019-03-14 | E8 Storage Systems Ltd. | Shared Volumes in Distributed RAID over Shared Multi-Queue Storage Devices |
CN114356215A (zh) * | 2021-11-30 | 2022-04-15 | 苏州浪潮智能科技有限公司 | 一种分布式集群及分布式集群锁的控制方法 |
-
2022
- 2022-09-07 CN CN202211086592.4A patent/CN115174498B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103731485A (zh) * | 2013-12-26 | 2014-04-16 | 华为技术有限公司 | 一种网络设备、集群存储系统及分布式锁管理方法 |
US20160259811A1 (en) * | 2015-03-06 | 2016-09-08 | Superna Business Consulting, Inc. | Method and system for metadata synchronization |
US20190082010A1 (en) * | 2017-09-11 | 2019-03-14 | E8 Storage Systems Ltd. | Shared Volumes in Distributed RAID over Shared Multi-Queue Storage Devices |
CN114356215A (zh) * | 2021-11-30 | 2022-04-15 | 苏州浪潮智能科技有限公司 | 一种分布式集群及分布式集群锁的控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115174498B (zh) | 2022-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108268208B (zh) | 一种基于rdma的分布式内存文件系统 | |
CN110113420B (zh) | 基于nvm的分布式消息队列管理系统 | |
CN107888657B (zh) | 低延迟分布式存储系统 | |
US7653668B1 (en) | Fault tolerant multi-stage data replication with relaxed coherency guarantees | |
US10530855B2 (en) | Lock state synchronization for non-disruptive persistent operation | |
CN103268318B (zh) | 一种强一致性的分布式键值数据库系统及其读写方法 | |
CA2512312C (en) | Metadata based file switch and switched file system | |
US6986015B2 (en) | Fast path caching | |
US7013379B1 (en) | I/O primitives | |
US6959373B2 (en) | Dynamic and variable length extents | |
US7788335B2 (en) | Aggregated opportunistic lock and aggregated implicit lock management for locking aggregated files in a switched file system | |
US7512673B2 (en) | Rule based aggregation of files and transactions in a switched file system | |
US9158779B2 (en) | Multi-node replication systems, devices and methods | |
US6889249B2 (en) | Transaction aggregation in a switched file system | |
US7509322B2 (en) | Aggregated lock management for locking aggregated files in a switched file system | |
US7280536B2 (en) | Fast path for performing data operations | |
US7383288B2 (en) | Metadata based file switch and switched file system | |
US20060053139A1 (en) | Methods, systems, and computer program products for implementing single-node and cluster snapshots | |
JP2010250813A (ja) | ストレージシステムのための方法及びシステム | |
CN108762668B (zh) | 一种处理写入冲突的方法及装置 | |
CN112988680A (zh) | 数据加速方法、缓存单元、电子设备及存储介质 | |
CN112052230B (zh) | 多机房数据同步方法、计算设备及存储介质 | |
CN109062727B (zh) | 一种数据同步系统及方法 | |
CN113449065A (zh) | 一种面向数据删重的去中心化存储方法及存储装置 | |
US11386015B2 (en) | Methods for managing storage systems with dualport solid-state disks accessible by multiple hosts and devices thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |