CN114844912A - 数据链路分配方法、装置及分布式块存储系统 - Google Patents
数据链路分配方法、装置及分布式块存储系统 Download PDFInfo
- Publication number
- CN114844912A CN114844912A CN202210432177.3A CN202210432177A CN114844912A CN 114844912 A CN114844912 A CN 114844912A CN 202210432177 A CN202210432177 A CN 202210432177A CN 114844912 A CN114844912 A CN 114844912A
- Authority
- CN
- China
- Prior art keywords
- data link
- service node
- access service
- access
- mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000012545 processing Methods 0.000 claims abstract description 27
- 230000008569 process Effects 0.000 claims abstract description 21
- 238000007726 management method Methods 0.000 claims description 28
- 238000012546 transfer Methods 0.000 claims description 9
- 238000013523 data management Methods 0.000 claims description 7
- 238000004140 cleaning Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 abstract description 8
- 238000004891 communication Methods 0.000 abstract description 5
- 230000008901 benefit Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 230000000737 periodic effect Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 241000023450 Anastatus Species 0.000 description 2
- 241001522296 Erithacus rubecula Species 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000010355 oscillation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 208000021005 inheritance pattern Diseases 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1097—Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2854—Wide area networks, e.g. public data networks
- H04L12/2856—Access arrangements, e.g. Internet access
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种数据链路分配方法、装置及分布式块存储系统,涉及通信的技术领域,应用于数据链路分配服务器,包括:先接收分布式存储管理前端发送的数据链路分配请求,并基于数据链路分配请求,利用继承模式或均衡模式确定最优接入服务节点;然后利用预设拓扑感知的环形分配方式确定次级接入服务节点;最后基于最优接入服务节点和次级接入服务节点,确定目标客户端与Subsystem之间的数据链路分配结果。本发明在不同场景下通过继承模式或均衡模式均能够保证在数据链路分配过程中充分利用整个存储集群的处理能力,并且采用预设基于拓扑感知的环形分配方式确定的次级接入服务节点能够保证分布式块存储系统的高可用性。
Description
技术领域
本发明涉及通信技术领域,尤其是涉及一种数据链路分配方法、装置及分布式块存储系统。
背景技术
分布式存储集群一般会被多个Host共同访问。在此基础上,如何为Host分配数据链路,不仅影响每个Host的性能,还影响整个存储集群的性能。现有技术提出了一种简单的数据链路分配策略,该策略为:每次集群接收到一个新的连接,均以轮转方式将数据链路均衡地分散到存储集群所有节点上,使得每个Target Server处理的数据链路均衡。
目前以轮转方式分配数据链路的策略具有以下缺陷:单个Host无法利用整个存储集群的性能。对于Host访问单个Subsystem场景,由于多个路径中只有一个最优路径,因此Host对同一个Subsystem的所有Namespace访问都只能经过同一个Target Server,无法利用其他Target Server的处理能力。对于Host访问多个Subsystem场景,Host的最优路径分配受连接顺序影响而不可控,不一定能够利用多个Target Server的处理能力。因此现有的以轮转方式分配数据链路的策略在不同场景下均存在分配过程中无法充分利用整个存储集群的处理能力且分配结果导致存储系统不具有高可用性的技术缺陷。
发明内容
本发明的目的在于提供一种数据链路分配方法、装置及分布式块存储系统,以缓解现有技术中存在的分配过程中无法充分利用整个存储集群的处理能力且分配结果导致存储系统不具有高可用性的技术问题。
第一方面,本发明提供的一种数据链路分配方法,其中,应用于数据链路分配服务器,包括:接收分布式存储管理前端发送的数据链路分配请求,并基于所述数据链路分配请求,利用最优接入点分配模式确定最优接入服务节点;其中,所述数据链路分配请求中携带目标客户端的标识符,所述最优接入点分配模式由所述分布式存储管理前端在创建Namespace所属的Subsystem时根据场景需求确定为继承模式或均衡模式;利用预设拓扑感知的环形分配方式确定次级接入服务节点;基于所述最优接入服务节点和所述次级接入服务节点,确定所述目标客户端与所述Subsystem之间的数据链路分配结果。
进一步的,当所述最优接入点分配模式为继承模式时,所述基于所述数据链路分配请求,利用最优接入点分配模式确定最优接入服务节点,包括:根据所述数据链路分配请求携带的目标客户端的标识符和Subsystem的名称信息,在预设数据库中查询是否存在所述目标客户端与所述Subsystem之间的分配记录;若否,则查找所述Subsystem相关的数据链路数量最少的第一接入点服务列表,并将所述第一接入点服务列表所属的接入服务节点确定为第一接入服务节点;当所述第一接入服务节点为多个时,查找所述目标客户端相关的数据链路数量最少的第二接入点服务列表,并将所述第二接入点服务列表所属的接入服务节点确定为第二接入服务节点;当所述第二接入服务节点为多个时,查找所有数据链路总数量最少的第三接入点服务列表,并将所述第三接入点服务列表所属的接入服务节点确定为最优接入服务节点;若是,则将所述分配记录中的接入服务节点确定为最优接入服务节点。
进一步的,当所述最优接入点分配模式为均衡模式时,所述基于所述数据链路分配请求,利用最优接入点分配模式确定最优接入服务节点,包括:查找Namespace Group相关的数据链路数量最少的第四接入点服务列表,并将所述第四接入点服务列表所属的接入服务节点确定为第四接入服务节点;当所述第四接入服务节点为多个时,查找Namespace相关的数据链路数量最少的第五接入点服务列表,并将所述第五接入点服务列表所属的接入服务节点确定为最优接入服务节点。
进一步的,所述的数据链路分配方法还包括:周期性触发检查已有的数据链路,并在检查过程中根据与最优接入点分配模式对应的方式进行数据链路调整。
进一步的,当所述最优接入点分配模式为继承模式时,所述根据与最优接入点分配模式对应的方式进行数据链路调整,包括:扫描所有的数据链路记录,并清理预设时间段内未进行过连接的数据链路记录;判断各个接入服务节点的数据链路数量之差是否超过第一预设阈值;若是,则按照第一转移条件将第五接入服务节点的数据链路转移到其他接入服务节点;其中,所述第五接入服务节点的数据链路数量比所述其他接入服务节点多。
进一步的,当所述最优接入点分配模式为均衡模式时,所述根据与最优接入点分配模式对应的方式进行数据链路调整,包括:判断各个接入服务节点承载的均衡模式的Namespace数量之差是否超过第二预设阈值;若是,则按照第二转移条件将第六接入服务节点的数据链路转移到其他接入服务节点;其中,所述第六接入服务节点承载的均衡模式的Namespace数据链路数量比所述其他接入服务节点多。
进一步的,所述的数据链路分配方法还包括:当确定发生节点移除事件时,选择新的接入服务节点承载与被移除的接入服务节点相关的数据链路记录和Namespace;通知被移除的接入服务节点删除所述Namespace,并通知新的接入服务节点创建所述Namespace。
第二方面,本发明提供的一种数据链路分配装置,其中,应用于数据链路分配服务器,包括:接收确定单元,用于接收分布式存储管理前端发送的数据链路分配请求,并基于所述数据链路分配请求,利用最优接入点分配模式确定最优接入服务节点;其中,所述数据链路分配请求中携带目标客户端的标识符,所述最优接入点分配模式由所述分布式存储管理前端在创建Namespace所属的Subsystem时根据场景需求确定为继承模式或均衡模式;第一确定单元,用于利用预设拓扑感知的环形分配方式确定次级接入服务节点;第二确定单元,用于基于所述最优接入服务节点和所述次级接入服务节点,确定所述目标客户端与所述Subsystem之间的数据链路分配结果。
第三方面,本发明提供的一种分布式块存储系统,其中,包括如第一方面任一项所述的数据链路分配服务器、分布式存储管理前端、目标客户端和存储服务器;其中,所述存储服务器通过接入网络连接目标客户端;所述目标客户端,用于向所述存储服务器提供的虚拟块设备发送数据访问请求;所述分布式存储管理前端,用于提供界面,通过用户的操作在所述界面上创建Namespace和Namespace所属的Subsystem,并向所述数据链路分配服务器发送携带目标客户端的标识符的数据链路分配请求。
进一步的,所述存储服务器包括接入服务节点、数据管理服务节点和磁盘;所述接入服务节点,用于在本地创建Namespace,并按照优先级更新数据链路的ANA状态;所述数据管理服务节点,用于管理虚拟块设备的元数据信息和处理所述数据访问请求;磁盘,用于存储物理服务器的物理数据。
本发明提供的一种数据链路分配方法、装置及分布式块存储系统,先接收分布式存储管理前端发送的数据链路分配请求,并基于数据链路分配请求,利用最优接入点分配模式确定最优接入服务节点;其中,数据链路分配请求中携带目标客户端的标识符,最优接入点分配模式由分布式存储管理前端在创建Namespace所属的Subsystem时根据场景需求确定为继承模式或均衡模式;然后利用预设拓扑感知的环形分配方式确定次级接入服务节点;最后基于最优接入服务节点和次级接入服务节点,确定目标客户端与Subsystem之间的数据链路分配结果。本申请在不同场景下通过继承模式或均衡模式均能够保证在数据链路分配过程中充分利用整个存储集群的处理能力,并且采用预设基于拓扑感知的环形分配方式确定的次级接入服务节点能够保证分布式块存储系统的高可用性。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为NVMe-oF协议相关的对象的结构示意图;
图2为分布式存储集群下多路径的示意图;
图3为本发明实施例提供的一种分布式块存储系统的结构示意图;
图4为分布式块存储系统的工作流程图;
图5为本发明实施例提供的一种数据链路分配方法的流程图;
图6为本发明实施例采用继承模式分配最优接入点的流程图;
图7为本发明实施例采用继承模式分配最优接入点的示例图;
图8为本发明实施例采用均衡模式分配最优接入点的流程图;
图9为本发明实施例采用均衡模式分配最优接入点的示例图;
图10为根据与继承模式对应的方式进行数据链路调整的流程图;
图11为根据与均衡模式对应的方式进行数据链路调整的流程图;
图12为本发明实施例提供的一种数据链路分配装置的结构示意图。
图标:
1-目标客户端;2-分布式存储管理前端;3-数据链路分配服务器;4-存储服务器;41-接入服务节点;42-数据管理服务节点;43-磁盘;11-接收确定单元;12-第一确定单元;13-第二确定单元。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
分布式块存储系统将分布在集群中多个物理节点的存储资源聚合为一个统一的资源池,对外提供虚拟块设备服务。用户从存储资源池中申请分配期望容量的块设备,通过标准的SAN(StorageAreaNetwork)存储协议访问块设备。常见的SAN存储协议有iSCSI、FCoE(Fibre Channel over Ethernet)、NVMe-oF(NVMe overFabrics)等。
NVMe协议支持主机使用PCIe接口直接访问本地NVMe存储。NVMe-oF是NVMe协议的拓展,支持主机通过网络发送NVMe指令访问远端的虚拟块设备,只要这些虚拟块设备支持NVMe的管理指令集和IO指令集。目前NVMe-oF支持的网络传输方式有TCP/IP、RDMA、FibreChannel。
图1示意了NVMe-oF协议相关的一些对象。将提供存储服务的服务端称为NVMe-oFTarget Server,访问存储服务的客户端称为NVMe-oF Host。Target Server维护着多个NVMe Subsystem,每个Subsystem包含多个NVMe Namespace。Namespace对应一个虚拟块设备。Host访问Namespace的过程是,Host与Target Server上该Namespace所属的Subsystem建立NVMe-oF数据链路,将Namespace映射为本地的一个NVMe磁盘,之后就可以以类似本地磁盘的方式访问该Namespace。在整个访问过程中,数据链路会始终保持,并且通过心跳机制确保链路健康。
如果NVMe-oF数据链路发生网络失联,那么Host将无法正常访问Namespace。NVMe-oF协议支持Multipath,允许Host建立多个数据链路连接同一个Subsystem,不同数据链路之间起到Failover的作用。例如,如果Host和Target Server各自有多张网卡,那么可以在不同网卡之间建立多个数据链路。
上述过程的Target Server只涉及单个物理节点,但也可以拓展到包含多个物理节点的分布式存储集群,以避免单节点故障问题。如图2所示,集群有五个Target Server节点,每个Target Server有一个同名的Subsystem1,其下的Namespace1对应分布式存储提供的同一个虚拟卷。Host1同时连接到这五个Target Server的Subsystem1后,会认为访问Namespace1有三个路径,不管从哪个路径Host1都能够访问到Namespace1的同一份数据。
在分布式存储集群中,对于Host访问的一个Namespace,一般提供三个路径就足够了,允许最多两个路径同时不可用。三个路径中的一个为最优路径,在图中以实线连接,表示Host1会优先使用Target Server 1访问Namespace1;另外两个为次优路径,在图中以虚线连接,表示Host1只有在最优路径不可用时才会使用Target Server 2或者TargetServer 3访问Namespace1。
分布式存储集群一般会被多个Host共同访问。在此基础上,如何为Host分配数据链路,不仅影响每个Host的性能,还影响整个存储集群的性能。现有技术提出了一种简单的数据链路分配策略,该策略为:每次集群接收到一个新的连接,均以轮转方式将数据链路均衡地分散到存储集群所有节点上,使得每个Target Server处理的数据链路均衡。
目前以轮转方式分配数据链路的策略具有以下缺陷:单个Host无法利用整个存储集群的性能。对于Host访问单个Subsystem场景,由于多个路径中只有一个最优路径,因此Host对同一个Subsystem的所有Namespace访问都只能经过同一个Target Server,无法利用其他Target Server的处理能力。对于Host访问多个Subsystem场景,Host的最优路径分配受连接顺序影响而不可控,不一定能够利用多个Target Server的处理能力。因此现有的以轮转方式分配数据链路的策略在不同场景下均存在分配过程中无法充分利用整个存储集群的处理能力且分配结果导致存储系统不具有高可用性的技术缺陷。
基于此,本发明的目的在于提供一种数据链路分配方法、装置及分布式块存储系统,可以实现整个存储集群的处理能力的充分利用,并且保证分布式块存储系统的高可用性。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种分布式块存储系统进行详细描述。
实施例1:
根据本发明实施例,提供了一种分布式块存储系统的实施例,该分布式块存储系统是一种基于分布式存储架构的系统结构。如图3所示,该分布式块存储系统,包括目标客户端1、分布式存储管理前端2、数据链路分配服务器3、和存储服务器4;其中,目标客户端1,用于向存储服务器4提供的虚拟块设备发送数据访问请求;分布式存储管理前端2,用于提供界面,通过用户的操作在界面上创建Namespace和Namespace所属的Subsystem,并向数据链路分配服务器3发送携带目标客户端1的标识符的数据链路分配请求。存储服务器4通过接入网络连接目标客户端1。
上述目标客户端1可以为NVMe-oF Host服务器,简称为Host。Host是访问分布式存储服务的客户端,可以有多个,本发明实施例对Host的数量不作具体限制。Host通过接入网络连接到存储服务器4的NVMe-oF接入服务节点,向存储服务器4提供的虚拟块设备发送数据访问请求。上述分布式存储管理前端2或称为分布式存储服务前端,对外提供Web界面,用户使用该界面可以管理Subsystem和Namespace对象,例如对这些对象的增删改查等操作。数据链路分配服务器3负责处理数据链路的分配请求。为了实现高可用性,该服务器提供的服务可以实现多个实例部署在集群中的若干个物理服务器中,一般情况下,只有一个服务实例处于运行状态,其他实例处于备用状态。
在一个可选的实施例中,如图3所示,存储服务器4自顶向下可以包括以下三个模块:接入服务节点41(即上述NVMe-oF接入服务节点,或称为NVMe-oF Target Server)、数据管理服务节点42和磁盘43;接入服务节点41,用于接收和处理Host的连接请求、接收Host到虚拟块设备的数据访问请求,接入服务节点41,还用于在本地创建Namespace,并按照优先级更新数据链路的ANA状态;数据管理服务节点42,用于管理虚拟块设备的元数据信息和处理数据访问请求;磁盘43,用于存储物理服务器的物理数据。
如图4所示,该分布式块存储系统的工作流程是使用NVMe-oF协议访问分布式块存储的流程,包括以下步骤S1~步骤S5,其中:
步骤S1,用户在分布式存储管理前端的界面上创建Subsystem和Namespace。需要注意的是,创建Namespace时,可以弹出窗口使用户填写期望访问该Namespace的Host名称。Host名称(即上述目标客户端的标识符)以HostNQN(NVMe QualifiedName)表示,该NQN能够唯一确定一个Host,由用户保证这一约束。该管理前端向数据链路分配服务器发送携带HostNQN的数据链路分配请求。
步骤S2,数据链路分配服务器为Host和Namespace分配数据链路。具体的,接收到该请求,并根据实施例2中的接入点分配策略确定Host访问该Namespace的三个路径,包括一个最优路径和两个次优路径,然后通知这三个路径对应的接入服务节点。
步骤S3,接入服务节点在本地创建该Namespace,并按照分配的优先级更新其路径的ANA状态。更新完成后通知数据链路分配服务器,数据链路分配服务器又继续通知管理前端,以使管理前端确定创建Namespace完成,用户可以开始访问该Namespace。
步骤S4,Host通过发现机制确定所有接入服务节点的接入信息(包括Subsystem名称、IP、端口号、网络传输协议等)并进行连接。上述发现机制的实现方式可以有多种,例如基于NVMe-oF的发现服务或者依靠人为提前告知,本发明实施例对此并不加以限制。由于数据链路分配服务器可能在任意三个接入服务节点中分配Namespace,并且在后续过程中动态调整,为了降低管理成本,本发明实施例设置Host连接到所有的接入服务节点上。
步骤S5,Host获取Namespace的ANA状态,开始访问。具体的,Host连接所有接入服务节点的Subsystem后,会发现其中三个接入服务节点提供了该Namespace的访问路径。Host向它们分别询问该Namespace的ANA状态,确定哪个路径是最优的。Host优先使用最优路径进行数据访问,在数据链路故障时自动进行路径切换。
为了区分不同路径的优先级,NVMe协议定义了五种ANA(AsymmetricNamespaceAccess)状态。本发明实施例主要涉及其中的两种状态,即Optimized(最优路径)和Non-Optimized(次优路径)。Host在访问Namespace前,向Target Server询问该Namespace每个路径的ANA状态;获得ANA状态后,Host将优先使用最优路径进行IO。当最优路径失联时,Host自动切换到次优路径继续IO;一旦最优路径恢复时,Host自动切换回最优路径继续IO。
具体而言,分布式块存储系统可以提供以下4个主要功能:最优接入点分配、次级接入点分配、已有数据链路动态平衡和节点移除处理。基于上述分布式块存储系统的架构、工作流程以及主要功能,提出本发明实施例中的一种分布式存储的NVMe-oF数据链路分配策略,该策略包含最优接入点分配模式(即继承模式、均衡模式)以及次级接入点分配方式(预设拓扑感知的环形分配方式),通过该策略能够实现如下3个目标:1)既要保证Host充分利用整个集群的存储性能,又要保证各个接入服务节点的负载均衡;2)保证数据链路的高可用性,避免单点故障影响用户业务;3)保证数据链路的稳定性,使得数据链路更接近数据的位置,缩短读请求的IO(Input Output,输入输出)路径,提高性能。
实施例2:
根据本发明实施例,提供了一种数据链路分配方法的实施例,应用于实施例1中的数据链路分配服务器,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图5为本发明实施例提供的一种数据链路分配方法的流程图,如图5所示,该方法包括如下步骤S101~步骤S103,其中:
步骤S101,接收分布式存储管理前端发送的数据链路分配请求,并基于数据链路分配请求,利用最优接入点分配模式(或称为最优接入点分配策略)确定最优接入服务节点。其中,数据链路分配请求中携带目标客户端的标识符,最优接入点分配模式由分布式存储管理前端在创建Namespace所属的Subsystem时根据场景需求确定为继承模式或均衡模式。
最优接入点分配策略有以下3个目标:目标1:对于单个Host,允许Host利用多个接入服务节点的处理能力,最大化IO性能;目标2:对于多个Host,保证不同Host的公平性,避免出现个别Host占用了所有接入服务节点的处理能力;目标3:对于接入服务,保持各个接入服务节点的负载基本均衡,同时又尽可能地发挥多个接入服务节点的处理能力。在这些目标中,目标1和目标2存在着冲突,如果不限制Host对接入点(接入服务节点的简称)的访问,那么就会出现个别Host占用所有接入点的处理能力,导致其他Host体验较差。在不同的使用场景中,各个目标的优先级也会有差异。下面针对Namespace的两种典型使用场景讨论下各个目标的重要性,如表1所示:
表1不同场景下各个目标的优先级
为此,本发明实施例提供的接入点分配策略提供了两种模式来满足不同场景的需求。在创建Subsystem时,用户需要指定这个Subsystem的接入点分配模式,该模式会影响Subsystem下所有Namespace的接入点分配方式。
步骤S102,利用预设拓扑感知的环形分配方式确定次级接入服务节点。
本发明实施例以三条路径为例,三条路径中有一个最优路径和两个次优路径,因此在确定好最优接入点后,本发明实施例需要为Namespace确定剩下的两个次级接入点(即次级接入服务节点)。次级接入点的分配采用预设基于拓扑感知的环形分配方式,能够带来如下好处:1)由于考虑了拓扑感知,各个接入点服务器共享的硬件设置(例如电源、磁盘连接的背板、架顶交换机等)很少,当个别接入点由于部分硬件设置故障而不可用时,其他接入点大概率仍旧能够正常工作,因此保证高可用性。2)由于采用了环形分配方式,因此本发明实施例一旦确定了最优接入点,那么两个次级接入点就是固定的。换言之,由于最优接入点在集群的分布是均衡的,因此次级接入点的分配也是均衡的,进而保证了集群负载均衡。3)由于该分配方式与数据分配策略类似,因此各个接入点本地的物理磁盘大概率有Namespace对应的数据副本,能够避免跨网络访问数据的缺陷,提高性能。
步骤S103,基于最优接入服务节点和次级接入服务节点,确定目标客户端(Host)与Subsystem之间的数据链路分配结果。
在本发明实施例中,与最优接入服务节点对应的数据链路为最优路径,与次级接入服务节点对应的数据链路为次优路径,本发明实施例可以将一个最优路径和两个次优路径作为Host与Subsystem之间的数据链路分配结果。
通过上述步骤S101~步骤S103可知,本发明实施例针对分布式存储中常见的两种NVMe Namespace使用场景,提出了相应的两种NVMe-oF数据链路分配策略:继承模式限制单个Host访问同一个Subsystem只能使用同一个接入服务节点,优先保证多个Host的公平性和各个接入服务节点的负载基本均衡,适合大多数场景;均衡模式允许单个Host使用不同的接入服务访问同一个Subsystem的多个Namespace,优先保证单个Host能够利用整个存储集群的处理能力,适合LVM场景。另外,本发明实施例采用了基于拓扑感知的环形分配方式分配次级接入点,这样在个别数据链路发生异常时,其他数据链路大概率处于可用状态,Host可以快速切换到其他数据链路继续IO,避免业务中断。同时,这种方式与Namespace对应的副本分配方式一致,各个接入服务节点在本地的磁盘大概率有Namespace对应的数据副本,能够避免跨网络访问数据的发生,提高性能。
上述最优接入点分配模式为继承模式或均衡模式。针对继承模式进行如下分析:对于单个Subsystem,同一个Host访问的所有Namespace使用同一个接入点,不同Host尽可能使用不同的接入点。对于一对Subsystem和Host,数据链路分配服务器会保存一条记录,记录分配的接入服务节点的ID。Namespace继承Host的接入点,当为Namespace分配接入点时,直接返回Host的接入点。继承模式优先满足目标2和目标1,同时兼顾目标3,适用于大多数场景。
在一个可选的实施例中,当最优接入点分配模式为继承模式时,如图6所示,步骤S101,基于数据链路分配请求,利用最优接入点分配模式确定最优接入服务节点,包括以下步骤S201~步骤S205:步骤S201,根据目标客户端的标识符和Subsystem的名称信息,在预设数据库中查询是否存在目标客户端与Subsystem之间的分配记录;该步骤中的目标客户端的标识符和Subsystem的名称信息由数据链路分配请求携带;若是,则执行步骤S205,若否,则依次进行步骤S202~步骤S204提供的决策:步骤S202,查找Subsystem相关的数据链路数量最少的第一接入点服务列表,并将第一接入点服务列表所属的接入服务节点确定为第一接入服务节点;步骤S203,当第一接入服务节点为多个时,查找目标客户端相关的数据链路数量最少的第二接入点服务列表,并将第二接入点服务列表所属的接入服务节点确定为第二接入服务节点;步骤S204,当第二接入服务节点为多个时,查找所有数据链路总数量最少的第三接入点服务列表,并将第三接入点服务列表所属的接入服务节点确定为最优接入服务节点;步骤S205,将分配记录中的接入服务节点确定为最优接入服务节点。
在本发明实施例中,继承模式的流程如上述步骤S201~步骤S205,上述步骤S202中的Subsystem为指定Subsystem,该步骤可以理解为找到处理指定Subsystem数据链路最少的接入点服务列表;该步骤用于将不同Host NQN对于同一个Subsystem的数据链路分散到各个接入服务节点,保证公平性;上述步骤S203中的目标客户端具有指定Host NQN,因此该步骤可以理解为,在上述结果有多个选择的情况下,从以上结果中继续找到处理指定HostNQN数据链路最少的接入点服务列表,目的是将同一HostNQN的数据链接分散到各个接入服务节点,使得同一个Host可以利用多个接入服务节点的处理能力;上述步骤S204,可以理解为,从以上结果中找到处理数据链路最少的接入点服务节点,能够确保接入服务节点负载均衡,上述步骤S204还可以包括记录该数据链路的操作,目的是将数据链路分配记录持久化至数据库,用于保证后续分配的稳定性。如图7所示,在继承模式下,不同Host(即Host1、Host2、Host3)使用不同的接入服务节点访问Subsystem1的Namespace。图中带箭头的三条实线分别表示Host1与Namespace1之间的最优路径,Host2与Namespace2之间的最优路径,Host3与Namespace3之间的最优路径。而虚线则表示各个Host与Namespace之间的次优路径。
在介绍完继承模式的应用之后,本发明实施例针对均衡模式进行如下分析:均衡模式主要适用于多个Namespace构建LVM的场景。用户一般提前创建多个Namespace,数量等同于集群的存储节点数量,然后将这些Namespace构建成一个LVM卷,后续的数据访问请求直接对LVM卷操作。LVM卷可以配置条带化,如果这些Namespace的最优接入点分散到集群所有接入服务节点上,对LVM卷进行的批量的数据访问请求就能够分散到所有节点上,能够提高单个Host的IO带宽。
数据链路分配服务器需要提前确定用户期望构建LVM的Namespace成员,本发明实施例引入了Namespace Group的概念。在均衡模式下,用户需要先创建一个NamespaceGroup,然后才能创建Namespace。创建Namespace时需要指定其所属的Namespace Group。数据链路分配服务器能够保证属于同一个Group的Namespace尽量使用不同的接入点。该模式满足目标1和目标3,适用于多个Namespace构建LVM的场景。
在一个可选的实施例中,当最优接入点分配模式为均衡模式时,如图8所示,步骤S101,基于数据链路分配请求,利用最优接入点分配模式确定最优接入服务节点,包括以下步骤S301~步骤S302:步骤S301,查找Namespace Group(简称为NS Group)相关的数据链路数量最少的第四接入点服务列表,并将第四接入点服务列表所属的接入服务节点确定为第四接入服务节点;步骤S302,当第四接入服务节点为多个时,查找Namespace相关的数据链路数量最少的第五接入点服务列表,并将第五接入点服务列表所属的接入服务节点确定为最优接入服务节点。
在本发明实施例中,上述步骤S301可以理解为找到处理该NS Group(即NamespaceGroup)数据链路最少的接入点服务列表,目的是将属于同一个NS Group的多个Namespace的数据链路分散到各个接入服务节点,保证Namespace Group内的负载均衡;上述步骤S302可以理解为从以上结果中,找到处理均衡策略Namespace数据链路最少的接入点服务列表,确保接入服务节点负载均衡,上述步骤S302还包括:更新NS Group数据链路记录,返回最优接入点,目的是将数据链路分配记录持久化至数据库,便于后续分配。如图9所示,在均衡模式下,同一个Host使用不同的接入服务节点访问同一Group下的多个Namespace。
上述接入服务节点分配只关注分配时刻的负载情况,当集群接入服务节点的负载发生变化时,需要相应调整数据链路。有如下三种情况需要触发已有数据链路动态平衡:
情况一,集群扩容节点,当新的接入服务节点已经分配的数据链路数量为0时,需要将已有的数据链路迁移到新的接入服务节点;
情况二,对于继承模式,如果Host长期没有连接Subsystem,那么需要清理其数据链路记录,并按照更新后的数据链路记录为已有的数据链路重新分配;
情况三,对于均衡模式,如果有Namespace被删除,Namespace Group内部失衡或者每个接入服务节点承担的均衡Namespace数量失衡的情况出现,都需要触发数据链路重新分配。
在一个可选的实施例中,该数据链路分配方法,还包括:步骤S104,周期性触发检查已有的数据链路,并在检查过程中根据与最优接入点分配模式对应的方式进行数据链路调整。周期性检查可以理解为定期检查,定期检查的周期可以设置为每分钟级别,避免对系统带来较大计算压力。需要注意的是,已有数据链路动态平衡由数据链路分配服务器进行定期触发检查。
在一个可选的实施例中,当最优接入点分配模式为继承模式时,如图10所示,步骤S104,根据与最优接入点分配模式对应的方式进行数据链路调整,包括以下步骤S401~步骤S403:步骤S401,扫描所有的数据链路记录,并清理预设时间段内未进行过连接的数据链路记录;步骤S402,判断各个接入服务节点的数据链路数量之差是否超过第一预设阈值;若是,则执行步骤S403,按照第一转移条件将第五接入服务节点的数据链路转移到其他接入服务节点;其中,第五接入服务节点的数据链路数量比其他接入服务节点多;若否,则结束。步骤S403可以理解为将承担较多数据链路的接入服务节点的部分链路转移至其他节点,并更新记录,在执行步骤S403之后,还可以通知相关的接入服务节点创建或删除该链路上Host访问的Namespace。
综上所述,对于继承模式,每个接入服务节点会定期向数据链路分配服务器上报自身的活跃数据链路,数据链路分配服务器更新对应数据链路记录的最后访问时间。在每一轮检查中,如果发现有数据链路记录长时间没有连接,例如,Host超过若干天没有连接过某Subsystem,那么该记录就是不活跃的,可以进行清理。剩下的数据链路记录认为是活跃的记录。对于继承模式,可以进一步检查当前所有活跃的数据链路记录,将承担较多数量链路的接入服务的部分链路转移至其他节点,保证各个接入服务承担的数据链路数量之差不超过某个阈值,例如2个。每个检查周期当中最多仅移动一条数据链路,避免集群剧烈的链路震荡,影响用户的业务性能。更新完数据链路的记录后,还需要为该链路上Host访问的Namespace更新最优接入服务节点,并通知相关的接入服务节点。例如,需要在新的接入点创建该Namespace,并在旧接入点删除该Namespace。
在一个可选的实施例中,当最优接入点分配模式为均衡模式时,如图11所示,步骤S104,根据与最优接入点分配模式对应的方式进行数据链路调整,包括以下步骤S501~步骤S502,其中:步骤S501,判断各个接入服务节点承载的均衡模式的Namespace数量之差是否超过第二预设阈值;步骤若是,则执行步骤S502,按照第二转移条件将第六接入服务节点的数据链路转移到其他接入服务节点;其中,第六接入服务节点承载的均衡模式的Namespace数据链路数量比其他接入服务节点多;若否,则结束。
上述步骤S502,可以理解为将承担较多均衡Namespace数据链路的接入服务节点的部分链路转移至其他节点。第一转移条件和第二转移条件均可以指转移部分链路,而不是全部。在执行完步骤S502之后,通知相关的接入服务节点创建或删除该链路上Host访问的Namespace。
上述第一预设阈值可以为2个,上述第二预设阈值可以为5个,本发明实施例对第一预设阈值和第二预设阈值的具体数值、第一转移条件和第二转移条件的具体内容不做具体限定。
对于均衡模式,扫描所有均衡模式的Namespace,将承担较多均衡Namespace数量链路的接入服务的部分链路转移至其他节点,保证各个接入服务承担的均衡Namespace之差不超过某个阈值,例如5个。在转移过程中同时要保证属于同一个Group的Namespace均匀放置到不同的接入点上。每个检查周期当中最多处理10组Namespace,避免集群发生剧烈的链路震荡,影响用户的业务性能。类似的,在这种情况下本发明实施例仍需要通知相关的接入服务节点创建或者删除该Namespace。
在一个可选的实施例中,该数据链路分配方法,还包括步骤S601~步骤S602,其中:步骤S601,当确定发生节点移除事件时,选择新的接入服务节点承载与被移除的接入服务节点相关的数据链路记录和Namespace;步骤S602,通知被移除的接入服务节点删除Namespace,并通知新的接入服务节点创建Namespace。
节点移除处理是分布式块存储系统的一个重要功能。在一些特殊场景下,可能需要将节点从存储集群中移除,例如节点发生故障后进行节点更换操作。当节点从存储集群中移除时,其上的接入服务节点不再提供接入服务,因此之前分配到该接入服务节点的Namespace将缺失一个路径而影响高可用性。为了避免该不良现象发发生,在发生节点移除事件时,数据链路分配服务器需要为以被移除节点作为接入点的数据链路记录和Namespace选择新的接入点。根据预设缺失接入点的优先级选择新的接入点,并通知相关的接入服务节点创建或者删除该Namespace。
本发明实施例提供的数据链路分配方法具有以下好处:继承模式和均衡模式根据不同Namespace场景设置,能够保证多个Host的公平性和各个接入服务节点的负载基本均衡,保证单个Host能够利用整个存储集群的处理能力。另外,本发明实施例采用了基于拓扑感知的环形分配方式分配次级接入点,这样在个别数据链路发生异常时,实现存储系统的高可用性。本发明实施例将已有数据链路动态平衡和节点移除考虑在内,能够自适应实现对数据链路的调整,对Namespace的增删。
实施例3:
本发明实施例提供了一种数据链路分配装置,该数据链路分配装置主要用于执行实施例2上述内容所提供的数据链路分配方法,以下对本发明实施例提供的数据链路分配装置做具体介绍。
图12为本发明实施例提供的一种数据链路分配装置的结构示意图。如图12所示,该数据链路分配装置,主要包括接收确定单元11,第一确定单元12和第二确定单元13,其中:
接收确定单元11,用于接收分布式存储管理前端发送的数据链路分配请求,并基于数据链路分配请求,利用最优接入点分配模式确定最优接入服务节点;其中,数据链路分配请求中携带目标客户端的标识符,最优接入点分配模式由分布式存储管理前端在创建Namespace所属的Subsystem时根据场景需求确定为继承模式或均衡模式;
第一确定单元12,用于利用预设拓扑感知的环形分配方式确定次级接入服务节点;
第二确定单元13,用于基于最优接入服务节点和次级接入服务节点,确定目标客户端与Subsystem之间的数据链路分配结果。
本发明实施例在不同场景下通过接收确定单元11提供的继承模式或均衡模式均能够保证在数据链路分配过程中充分利用整个存储集群的处理能力,并且通过第一确定单元12采用预设基于拓扑感知的环形分配方式确定的次级接入服务节点能够保证分布式块存储系统的高可用性。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在一个可选的实施例中,本实施例还提供一种电子设备,包括存储器、处理器,存储器中存储有可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述方法实施例方法的步骤。
在一个可选的实施例中,本实施例还提供了一种具有处理器可执行的非易失的程序代码的计算机可读介质,其中,所述程序代码使所述处理器执行上述方法实施例方法。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本实施例所提供的几个实施例中,应该理解到,所揭露的方法、装置及系统,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种数据链路分配方法,其特征在于,应用于数据链路分配服务器,包括:
接收分布式存储管理前端发送的数据链路分配请求,并基于所述数据链路分配请求,利用最优接入点分配模式确定最优接入服务节点;其中,所述数据链路分配请求中携带目标客户端的标识符,所述最优接入点分配模式由所述分布式存储管理前端在创建Namespace所属的Subsystem时根据场景需求确定为继承模式或均衡模式;
利用预设拓扑感知的环形分配方式确定次级接入服务节点;
基于所述最优接入服务节点和所述次级接入服务节点,确定所述目标客户端与所述Subsystem之间的数据链路分配结果。
2.根据权利要求1所述的数据链路分配方法,其特征在于,当所述最优接入点分配模式为继承模式时,所述基于所述数据链路分配请求,利用最优接入点分配模式确定最优接入服务节点,包括:
根据所述数据链路分配请求携带的目标客户端的标识符和Subsystem的名称信息,在预设数据库中查询是否存在所述目标客户端与所述Subsystem之间的分配记录;
若否,则查找所述Subsystem相关的数据链路数量最少的第一接入点服务列表,并将所述第一接入点服务列表所属的接入服务节点确定为第一接入服务节点;
当所述第一接入服务节点为多个时,查找所述目标客户端相关的数据链路数量最少的第二接入点服务列表,并将所述第二接入点服务列表所属的接入服务节点确定为第二接入服务节点;
当所述第二接入服务节点为多个时,查找所有数据链路总数量最少的第三接入点服务列表,并将所述第三接入点服务列表所属的接入服务节点确定为最优接入服务节点;
若是,则将所述分配记录中的接入服务节点确定为最优接入服务节点。
3.根据权利要求1所述的数据链路分配方法,其特征在于,当所述最优接入点分配模式为均衡模式时,所述基于所述数据链路分配请求,利用最优接入点分配模式确定最优接入服务节点,包括:
查找Namespace Group相关的数据链路数量最少的第四接入点服务列表,并将所述第四接入点服务列表所属的接入服务节点确定为第四接入服务节点;
当所述第四接入服务节点为多个时,查找Namespace相关的数据链路数量最少的第五接入点服务列表,并将所述第五接入点服务列表所属的接入服务节点确定为最优接入服务节点。
4.根据权利要求1所述的数据链路分配方法,其特征在于,还包括:
周期性触发检查已有的数据链路,并在检查过程中根据与最优接入点分配模式对应的方式进行数据链路调整。
5.根据权利要求4所述的数据链路分配方法,其特征在于,当所述最优接入点分配模式为继承模式时,所述根据与最优接入点分配模式对应的方式进行数据链路调整,包括:
扫描所有的数据链路记录,并清理预设时间段内未进行过连接的数据链路记录;
判断各个接入服务节点的数据链路数量之差是否超过第一预设阈值;
若是,则按照第一转移条件将第五接入服务节点的数据链路转移到其他接入服务节点;其中,所述第五接入服务节点的数据链路数量比所述其他接入服务节点多。
6.根据权利要求4所述的数据链路分配方法,其特征在于,当所述最优接入点分配模式为均衡模式时,所述根据与最优接入点分配模式对应的方式进行数据链路调整,包括:
判断各个接入服务节点承载的均衡模式的Namespace数量之差是否超过第二预设阈值;
若是,则按照第二转移条件将第六接入服务节点的数据链路转移到其他接入服务节点;其中,所述第六接入服务节点承载的均衡模式的Namespace数据链路数量比所述其他接入服务节点多。
7.根据权利要求1所述的数据链路分配方法,其特征在于,还包括:
当确定发生节点移除事件时,选择新的接入服务节点承载与被移除的接入服务节点相关的数据链路记录和Namespace;
通知被移除的接入服务节点删除所述Namespace,并通知新的接入服务节点创建所述Namespace。
8.一种数据链路分配装置,其特征在于,应用于数据链路分配服务器,包括:
接收确定单元,用于接收分布式存储管理前端发送的数据链路分配请求,并基于所述数据链路分配请求,利用最优接入点分配模式确定最优接入服务节点;其中,所述数据链路分配请求中携带目标客户端的标识符,所述最优接入点分配模式由所述分布式存储管理前端在创建Namespace所属的Subsystem时根据场景需求确定为继承模式或均衡模式;
第一确定单元,用于利用预设拓扑感知的环形分配方式确定次级接入服务节点;
第二确定单元,用于基于所述最优接入服务节点和所述次级接入服务节点,确定所述目标客户端与所述Subsystem之间的数据链路分配结果。
9.一种分布式块存储系统,其特征在于,包括如权利要求1~7任一项所述的数据链路分配服务器、分布式存储管理前端、目标客户端和存储服务器;其中,所述存储服务器通过接入网络连接目标客户端;
所述目标客户端,用于向所述存储服务器提供的虚拟块设备发送数据访问请求;
所述分布式存储管理前端,用于提供界面,通过用户的操作在所述界面上创建Namespace和Namespace所属的Subsystem,并向所述数据链路分配服务器发送携带目标客户端的标识符的数据链路分配请求。
10.根据权利要求9所述的分布式块存储系统,其特征在于,所述存储服务器包括接入服务节点、数据管理服务节点和磁盘;
所述接入服务节点,用于在本地创建Namespace,并按照优先级更新数据链路的ANA状态;
所述数据管理服务节点,用于管理虚拟块设备的元数据信息和处理所述数据访问请求;
磁盘,用于存储物理服务器的物理数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210432177.3A CN114844912B (zh) | 2022-04-22 | 2022-04-22 | 数据链路分配方法、装置及分布式块存储系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210432177.3A CN114844912B (zh) | 2022-04-22 | 2022-04-22 | 数据链路分配方法、装置及分布式块存储系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114844912A true CN114844912A (zh) | 2022-08-02 |
CN114844912B CN114844912B (zh) | 2022-12-09 |
Family
ID=82565723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210432177.3A Active CN114844912B (zh) | 2022-04-22 | 2022-04-22 | 数据链路分配方法、装置及分布式块存储系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114844912B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116155594A (zh) * | 2023-02-21 | 2023-05-23 | 北京志凌海纳科技有限公司 | 一种网络异常节点的隔离方法及系统 |
CN116962446A (zh) * | 2023-08-01 | 2023-10-27 | 北京志凌海纳科技有限公司 | 一种NVMe-oF链路动态管理方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101753478A (zh) * | 2008-12-05 | 2010-06-23 | 中国移动通信集团公司 | 一种分布式电子邮件系统及其服务方法 |
US20160352497A1 (en) * | 2015-06-01 | 2016-12-01 | Corning Optical Communications Wireless Ltd | Equalizing distributed antenna system equipped with multiple base station interface ports |
CN110213351A (zh) * | 2019-05-17 | 2019-09-06 | 北京航空航天大学 | 一种面向广域高性能计算环境的动态自适应io负载均衡方法 |
CN112445774A (zh) * | 2020-11-20 | 2021-03-05 | 网宿科技股份有限公司 | 一种分布式共享文件系统及其数据处理方法 |
CN112905341A (zh) * | 2021-02-08 | 2021-06-04 | 中国工商银行股份有限公司 | 分布式负载均衡服务信息持续继承方法及装置 |
-
2022
- 2022-04-22 CN CN202210432177.3A patent/CN114844912B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101753478A (zh) * | 2008-12-05 | 2010-06-23 | 中国移动通信集团公司 | 一种分布式电子邮件系统及其服务方法 |
US20160352497A1 (en) * | 2015-06-01 | 2016-12-01 | Corning Optical Communications Wireless Ltd | Equalizing distributed antenna system equipped with multiple base station interface ports |
CN110213351A (zh) * | 2019-05-17 | 2019-09-06 | 北京航空航天大学 | 一种面向广域高性能计算环境的动态自适应io负载均衡方法 |
CN112445774A (zh) * | 2020-11-20 | 2021-03-05 | 网宿科技股份有限公司 | 一种分布式共享文件系统及其数据处理方法 |
CN112905341A (zh) * | 2021-02-08 | 2021-06-04 | 中国工商银行股份有限公司 | 分布式负载均衡服务信息持续继承方法及装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116155594A (zh) * | 2023-02-21 | 2023-05-23 | 北京志凌海纳科技有限公司 | 一种网络异常节点的隔离方法及系统 |
CN116155594B (zh) * | 2023-02-21 | 2023-07-14 | 北京志凌海纳科技有限公司 | 一种网络异常节点的隔离方法及系统 |
CN116962446A (zh) * | 2023-08-01 | 2023-10-27 | 北京志凌海纳科技有限公司 | 一种NVMe-oF链路动态管理方法及系统 |
CN116962446B (zh) * | 2023-08-01 | 2024-02-23 | 北京志凌海纳科技有限公司 | 一种NVMe-oF链路动态管理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114844912B (zh) | 2022-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6600373B2 (ja) | トラフィックディレクタ環境におけるトラフィックのアクティブ−パッシブルーティングおよび制御のためのシステムおよび方法 | |
CN114844912B (zh) | 数据链路分配方法、装置及分布式块存储系统 | |
CN107078969B (zh) | 实现负载均衡的计算机设备、系统和方法 | |
CN111615066B (zh) | 一种基于广播的分布式微服务注册及调用方法 | |
JP5575641B2 (ja) | 共有データセンタ災害復旧システム及び方法 | |
US8112479B2 (en) | Method, system and device for establishing a peer to peer connection in a P2P network | |
JP5582344B2 (ja) | 接続管理システム、及びシンクライアントシステムにおける接続管理サーバの連携方法 | |
WO2014087850A1 (ja) | 自動障害対応キャッシュシステム及びキャッシュサーバの障害対応処理方法並びにキャッシュマネージャ | |
WO2012065426A1 (zh) | 一种分布式缓存系统中负荷分配方法、装置及服务器 | |
GB2407887A (en) | Automatically modifying fail-over configuration of back-up devices | |
WO2022105048A1 (zh) | 一种分布式共享文件系统及其数据处理方法 | |
JP2013090072A (ja) | サービス提供システム | |
JP2005031987A (ja) | コンテンツ配信システムにおけるコンテンツ配置管理システム及びコンテンツ配置管理プログラム | |
US9760370B2 (en) | Load balancing using predictable state partitioning | |
JP2016051446A (ja) | 計算機システム、計算機、負荷分散方法及びそのプログラム | |
WO2023207189A1 (zh) | 负载均衡方法及系统、计算机存储介质、电子设备 | |
JP4309321B2 (ja) | ネットワークシステムの運用管理方法及びストレージ装置 | |
US9015371B1 (en) | Method to discover multiple paths to disk devices cluster wide | |
WO2020235055A1 (ja) | 仮想マシン監視装置、仮想マシン監視方法およびプログラム | |
KR101883671B1 (ko) | 노드 분산 방법 및 이를 수행하는 관리 서버 | |
JP2012164185A (ja) | サーバ、クライアント、これらを有するバックアップシステム、及びこれらのバックアップ方法 | |
JP2024514467A (ja) | 地理的に分散されたハイブリッドクラウドクラスタ | |
JP2022092156A (ja) | アプリ間通信制御方法およびアプリ間通信制御プログラム | |
CN116962446B (zh) | 一种NVMe-oF链路动态管理方法及系统 | |
US20240154916A1 (en) | System, control apparatus, control method, and computer-readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 8b, building 1, No. 48, Zhichun Road, Haidian District, Beijing 100086 Patentee after: Beijing Zhiling Haina Technology Co.,Ltd. Country or region after: China Address before: 8b, building 1, No. 48, Zhichun Road, Haidian District, Beijing 100086 Patentee before: Beijing zhilinghaina Technology Co.,Ltd. Country or region before: China |