CN115225642A - 超融合系统的弹性负载均衡方法及系统 - Google Patents

超融合系统的弹性负载均衡方法及系统 Download PDF

Info

Publication number
CN115225642A
CN115225642A CN202210655207.7A CN202210655207A CN115225642A CN 115225642 A CN115225642 A CN 115225642A CN 202210655207 A CN202210655207 A CN 202210655207A CN 115225642 A CN115225642 A CN 115225642A
Authority
CN
China
Prior art keywords
data block
super
data
load
load state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210655207.7A
Other languages
English (en)
Other versions
CN115225642B (zh
Inventor
范扬
徐文豪
王弘毅
张凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhiling Haina Technology Co ltd
Original Assignee
SmartX Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SmartX Inc filed Critical SmartX Inc
Priority to CN202210655207.7A priority Critical patent/CN115225642B/zh
Publication of CN115225642A publication Critical patent/CN115225642A/zh
Application granted granted Critical
Publication of CN115225642B publication Critical patent/CN115225642B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1044Group management mechanisms 

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种超融合系统的弹性负载均衡方法及系统。其中,该种超融合系统的弹性负载均衡方法包括:将超融合系统中虚拟磁盘划分的若干个数据块的数据块副本的存储资源进行融合,并挂载至超融合系统的服务器集群的节点,通过实时监控分布在超融合系统中的计算负载对应的系统负载状态,根据系统负载的状态执行数据块中的数据块副本的分配,动态调整数据库副本的分配原则,为不同负载下的系统运行提供了合适的策略,根据系统负载的负载状态进行数据块的迁移,将非活跃数据迁移到可用空间更多的服务器节点,使得不同服务器节点之间的数据负载趋于均衡,提高了资源利用率,保证数据拓扑安全,使得存储系统在整个生命周期中处于合理的预期状态。

Description

超融合系统的弹性负载均衡方法及系统
技术领域
本发明涉及超融合系统技术领域,尤其涉及一种超融合系统的弹性负载均衡方法及系统。
背景技术
超融合基础架构是一种将计算、网络和存储等资源作为基础设施进行整合,可以根据具体业务系统需求进行选择组合和自定义,方便快捷地进行数据中心搭建和业务系统部署的一种技术架构。具体实现方式上一般是在单元节点(x86服务器)中融入软件虚拟化技术(包括计算、网络、存储、安全等虚拟化),而每一个单元节点可以通过网络聚合起来,实现模块化的无缝横向扩展(scale-out),构建统一的资源池。
在超融合基础架构中,某些服务器节点承载的数据块多,某些服务器节点承载的数据块少,计算负载需要访问的数据可能会分布在超融合系统的所有服务器节点上,计算负载每次访问这些不在当前节点上存储的数据块时,都需要从另一个服务器节点中通过网络进行远程的访问。某台物理服务器故障时,计算负载可以从故障的服务器迁移到正常工作的服务器上继续运行,通过正常工作的服务器访问其关联的虚拟磁盘获取数据。相比直接访问本地节点的数据,访问远程节点的数据经过的数据链路更长,延迟更高,效率更低。并且受限于网络本身的带宽,如10Gbps以太网理论上只能提供1.2GB/s的带宽。
由于存储系统需要兼容不同型号,不同容量的不同磁盘,因此每个虚拟磁盘实际上会被拆分为一组数据块。在一个通常的分布式存储系统中,这些数据块会被均匀放置在集群中的所有服务器上,当数据均匀分布在集群中所有服务器节点时,任意服务器节点故障都会影响所有的计算负载。当集群规模很大时,影响的面较大。因此为了降低故障面大小。
如图1所示,示出了一种数据块以两数据块副本形式均匀分布在服务器集群的示意图,三台服务器组成的超融合集群数据均匀分布在所有的服务器上以两副本方式,即存放每个虚拟磁盘的数据被均匀分布在集群中,使得故障面较大,出现严重故障的概率增高。当某个服务器节点出现故障时,所有的虚拟磁盘都会受到影响。此时采用副本技术,也有一定概率导致某个数据块完全丢失。由于底层的超融合存储软件只负责数据块的存储,在数据块因为服务器故障而无法恢复的情况下,使用虚拟磁盘构建的上层文件系统例如Ext4、NTFS等可能会受到影响,出现其它的数据块中的数据虽然存在,但数据无法从文件系统读取的情况。同时,均匀分配数据块中的数据块副本的策略,使得出现全远程访问的概率提高,这种访问模式导致磁盘的利用率低下,降低了计算负载的访存效率。
发明内容
基于现有技术中均匀分配数据块中的数据块副本的策略,导致某个服务器节点出现故障时,其他的虚拟磁盘会受到影响时,数据无法从文件系统读取造成故障面较大,同时计算负载出现全远程访问的概率提高,该种访问模式导致磁盘的利用率低下,降低了计算负载的访存效率等缺陷。本申请提出了一种超融合系统的弹性负载均衡方法及系统,具体包括:
本申请的第一方面提供了一种超融合系统的弹性负载均衡方法具体包括:
创建虚拟磁盘,将虚拟磁盘划分为若干个数据块,数据块包括多个数据块副本;
将若干个数据块的数据块副本的存储资源进行融合,并挂载至超融合系统的服务器集群的节点;
获取超融合系统的计算负载对应的服务器集群的节点;
通过超融合系统的性能监控模块,实时监控分布在超融合系统中的计算负载对应的系统负载状态,系统负载状态包括:低负载状态、中负载状态、高负载状态;
根据性能监控模块的系统负载状态,执行数据块中的数据块副本的分配。
在上述第一方面的一种可能的实现中,实时监控分布在超融合系统中的计算负载对应的系统负载状态包括:获取超融合系统的虚拟磁盘的预设存储容量以及超融合系统由于用户使用而占有的使用容量,使用容量至少包括:超融合系统中的CPU、内存和网络的计算负载信息;根据使用容量在预设存储容量的占有率,获取计算负载对应的系统负载状态。
在上述第一方面的一种可能的实现中,数据块中的数据块副本的分配依据数据块副本存储数据对应的硬件位置和/或,数据块中的数据块副本的网络拓扑结构确定。
在上述第一方面的一种可能的实现中,执行数据块中的数据块副本的分配包括:
判断数据块中是否存在第一待分配数据块副本;
若是,将数据块中的第一待分配数据块副本分配至计算负载所在的服务器集群的节点;
判断数据块中是否存在第二待分配数据块副本;
若是,将数据块中的第二待分配数据块副本分配至距离计算负载所在的服务器节点拓扑距离最远的服务器节点,拓扑距离最远为数据块副本之间共享最少的硬件设备;
判断数据块中是否存在未分配的第三待分配数据块副本;
若是,则将未分配空间的第三待分配数据块副本执行局部化分配或标准化分配。
在上述第一方面的一种可能的实现中,将未分配空间的第三数据块副本执行局部化分配包括:将未分配空间的第三数据块副本分配至距离计算负载所在的第一服务器集群的节点拓扑距离最小的第二服务器集群的节点;其中,拓扑距离最小为数据块副本之间共享最多的硬件设备。
在上述第一方面的一种可能的实现中,将未分配空间的第三数据块副本执行标准化分配包括:将未分配的第三数据块副本分配至大于预设可用空间阈值的服务器集群的节点。
在上述第一方面的一种可能的实现中,执行数据块中的数据块副本的分配之前包括:在系统负载状态表现为中负载状态的情况下,超融合存储系统将当前服务器集群的节点上所有计算负载的非本地、非活跃数据迁移至满足第一预设条件的服务器集群节点。
在上述第一方面的一种可能的实现中,执行数据块中的数据块副本的分配之前包括:
在系统负载状态表现为高负载状态的情况下,超融合存储系统将当前服务器集群的节点上所有计算负载的非活跃数据迁移至满足第二预设条件的服务器集群节点。
在上述第一方面的一种可能的实现中,执行数据块中的数据块副本的分配之后包括:
判断计算负载所在的服务器集群节点的当前可用空间是否小于预设可用空间阈值;
若是,再次执行数据块中的数据块副本的分配。
在上述第一方面的一种可能的实现中,根据虚拟磁盘的输入和/或输出,实时显示虚拟机所在主机运行状况以及迁移状况。
本申请的第二方面提供了一种超融合系统的弹性负载均衡系统,应用于前述超融合系统的弹性负载均衡方法,系统具体包括:
划分单元,创建虚拟磁盘,将虚拟磁盘划分为若干个数据块,数据块包括多个数据块副本;
挂载单元,将若干个数据块的数据块副本的存储资源进行融合,并挂载至超融合系统的服务器集群的节点;
获取单元,获取超融合系统的计算负载对应的服务器集群的节点;
监控单元,通过超融合系统中的性能监控模块,实时监控分布在超融合系统中的计算负载对应的系统负载状态,系统负载状态包括:低负载状态、中负载状态、高负载状态;
执行单元,根据性能监控模块的系统负载状态,执行数据块中的数据块副本的分配。
与现有技术相比,本申请具备以下有益技术效果:
通过本申请提出来的超融合系统的弹性负载均衡方法可获取当前系统负载,根据系统负载的不同负载状态动态调整数据块分配原则,为不同负载下的系统运行提供了合适的策略,通过不同服务器节点之间根据系统负载的负载状态进行数据块的迁移,识别服务器节点的活跃数据和非活跃数据,将不活跃使用的数据迁移到可用空间更多的服务器节点,使得不同服务器节点之间的数据负载趋于均衡,提高了资源利用率,同时通过数据块副本的分配原则保证了数据拓扑安全,使得在存储系统的整个使用生命周期中处于合理的预期状态。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1根据本申请的实施例,示出了一种数据块副本均匀分布在所有的服务器的示意图;
图2根据本申请的实施例,示出了一种超融合系统的弹性负载均衡方法流程示意图;
图3根据本申请的实施例,示出了一种执行数据分配的流程图;
图4根据本申请的实施例,示出了一种低负载状态下数据块副本局部化分配的示意图;
图5根据本申请的实施例中,示出了一种数据块副本分配前的流程示意图;
图6根据本申请的实施例,示出了一种超融合系统的弹性负载均衡系统框图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
为了解决现有技术中,超融合系统架构中,均匀分配数据块中的数据块副本的策略导致服务器出现故障时故障影响面比较大,出现全远程访问的概率提高,这种访问模式导致磁盘的利用率低下,降低了计算负载的访存效率等缺陷,本申请提出来一种超融合系统的弹性负载均衡方法及系统。通过本申请提出的超融合系统的弹性负载均衡方法,能够根据动态获取当前系统负载,获取当前计算负载对应的系统负载状态,根据对应的系统负载状态动态调整数据块中数据块副本的分配原则,实现使得在存储系统的整个使用生命周期中能分别达到合理的预期。
具体地,如图2所示,根据本申请的实施例,示出了一种超融合系统的弹性负载均衡方法流程示意图,具体包括:
步骤100:创建虚拟磁盘,将虚拟磁盘划分为若干个数据块,数据块包括多个数据块副本。可以理解的是,于超融合系统中,提供的虚拟磁盘的容量可以超过单台物理服务器中可承载磁盘总量的上限,由于超融合系统中的存储系统需要兼容不同型号,不同容量的不同磁盘,因此每个虚拟磁盘实际上会被拆分为一组数据块,由于服务器在运行过程中随时存在包括供电故障、网络断开和磁盘损坏等可能性导致数据丢失的风险,超融合存储系统会设计一些容错,如采用副本技术等方式,对数据块本身进行多个数据块副本的设计以冗余存储进一步提高存储服务的可靠性,
步骤200:将若干个数据块的数据块副本的存储资源进行融合,并挂载至超融合系统的服务器集群的节点。可以理解的是,一个数据中心中服务器集群承载的所有磁盘通过超融合系统存储软件进行融合,成为一个存储池。
步骤300:获取超融合系统的计算负载对应的服务器集群的节点。可以理解的是,计算负载可以通过超融合存储软件创建虚拟磁盘,因此计算负载对应地分布地超融合系统的服务器集群的节点中,该部分计算负载使用的虚拟磁盘的数据块对应为本地数据,而对于计算负载使用的虚拟磁盘的数据块不在计算负载所在的服务器集群节点上则为非本地数据,通过获取超融合系统的计算负载对应的服务器集群的节点将对应计算负载的系统负载数据分为本地数据和非本地数据。
步骤400:通过超融合系统的性能监控模块,实时监控分布在超融合系统中的计算负载对应的系统负载状态,系统负载状态包括:低负载状态、中负载状态、高负载状态。
可以理解的是,超融合系统的性能监控模块根据用户的访问数据生成的计算资源、存储资源、内存资源、网络资源等来获取当前系统的系统负载状态,并将系统负载状态按照在使用率划分为低负载状态、中负载状态、高负载状态,对应的各个负载状态可以为具体的数值或者数值范围,用户可以根据当前超融合系统的存储容量、用户访问量、访问类型进行设定。
步骤500:根据性能监控模块的系统负载状态,执行数据块中的数据块副本的分配。可以理解的是,于超融合系统中,某些服务器节点承载的数据块多,某些服务器节点承载的数据块少,服务器集群节点的当前的系统负载性综合考虑后确定每个新的数据块的各个副本放置位置,处于不同系统负载状态的情况下,动态调整数据块副本的位置,基于对应的数据块副本的分配原则可以进一步提升数据存储的安全性及超融合系统中计算负载的访存效率。
于上述步骤200中,实时监控分布在超融合系统中的计算负载对应的系统负载状态包括:获取超融合系统的虚拟磁盘的预设存储容量以及超融合系统由于用户使用而占有的使用容量,使用容量至少包括:超融合系统中的CPU、内存和网络的计算负载信息;根据使用容量在预设存储容量的占有率,获取计算负载对应的系统负载状态。
于上述步骤400中,获取超融合系统的虚拟磁盘的预设存储容量以及超融合系统由于用户使用而占有的使用容量,使用容量至少包括:超融合系统中的CPU、内存和网络的计算负载信息;根据使用容量在预设存储容量的占有率,获取计算负载对应的系统负载状态。可以理解的,在超融合系统中随着不同时段用户访问数量的变化,当前超融合系统存储的使用量发生变化,例如超融合系统的CPU、存储系统的IO压力、剩余的磁盘空间大小、内存和网络等的计算负载信息,随着系统使用容量的变化,其系统的可用容量不断变化,根据系统使用容量和系统预设容量的比值将系统负载按照一定的范围划分为低负载状态、高负载状态、中负载状态。
于本申请的一些实施例中,系统使用容量在系统预设容量占用率小于等于60%的情况下,标记当前系统负载为低负载状态,此时用户访问产生的数据量较少,此时超融合存储服务承载的数据量比较少,此时对于数据块中的数据副本的分配应该首要考虑为用户提供更高的性能,并且降低故障面保证数据块中数据副本的网络拓扑安全,具体数据块副本的分配原则将于下文中进行详述。
于本申请的一些实施例中,系统使用容量在系统预设容量占用率大于60%小于等于85%的情况下,标记当前系统负载为中负载状态。此时用户访问产生了一定的数据量,超融合系统中已经存储了一定量的数据,而此时服务器集群节点的计算负载并不可能同时使用所有的数据,可以按照计算负载在一定周期内对本地数据或者非本地数据的访问频率,将超融合系统的数据分为活跃数据和非活跃数据;其中,计算负载每次访问的数据可以位于当前服务器节点上存储的数据块时的数据块副本,也可以位于其他服务器节点上存储的数据块时的数据块副本,活跃数据和非活跃数据对应的数据可以为本地数据、非本地数据。
于本申请的一些实施例中,系统使用容量在系统预设容量占用率大于85%的情况下,标记当前系统负载处于高负载状态。此时用户访问产生的数据量已经较多,此时计算负载所在服务器集群的节点可能已经几乎无可用空间,而此时服务器集群节点的计算负载并不可能同时使用服务器集群的节点的所有的数据。
于本申请的一些实施例中,超融合存储服务之间会按照预设周期统计各自的可用空间。当一个服务器集群的节点的剩余可用空间在低、中、高负载状态的附近震荡时,为了避免数据块分配原则在不同的分配方案之间反复切换,导致数据从服务器集群的节点之间反复迁移,可以将低、中、高负载状态的阈值设置一定的振荡空间,比如当处于低负载状态的超融合系统的系统空间占有率振荡不超过65%的情况下或处于中负载状态的超融合系统的系统空间占有率振荡在55%---90%的情况下,或者中负载状态的超融合系统的系统空间占有率在振荡至不超过85%的情况下,不会触发数据块中的数据块副本分,使得可用空间在阈值边界附近震荡时,不会立即触发数据的再平衡,防止数据块副本在服务器集群的节点之间的反复迁移,保证了数据的稳定性。
上述步骤500中,所述数据块中的数据块副本的分配依据所述数据块副本存储数据对应的硬件位置和/或,所述数据块中的数据块副本的网络拓扑结构确定。可以理解的是,在超融合系统运行过程中系统存在故障的点包括:网络交换机故障导致服务器之间无法正常通信;服务器电源故障导致服务器无法正常工作;服务器磁盘故障导致单台服务器上的数据损毁;机架电源故障导致整个机架的服务器无法正常工作等故障。因此,在对数据块中的数据块副本进行分配时,需要考虑超融合系统中硬件设备的实际存放位置,因此,在数据块副本进行分配时,需要考虑数据实际的存放位置位于硬件设备例如机架、机框的位置,数据块副本的网络拓扑分布状况等,以达到事故发生时降低故障面的大小,保证数据拓扑的安全。其中,对于系统负载状态与执行数据块中数据块副本的分配之间的实现方法和步骤将于下述详细说明。
具体地,如图3所示,根据本申请的实施例,示出了一种执行数据分配的流程图。于上述步骤500中,执行所述数据块中的数据块副本的分配包括:
步骤501:判断数据块中是否存在第一待分配数据块副本。可以理解的是,第一待分配数据块副本对应当前系统可用存储空间可以满足当前数据块副本在所处的服务器集群节点中实现本地化空间分配,此时认为数据块中存在第一分配数据块副本;在当前系统可用存储空间不能支持数据块副本实现本地化空间分配的情况下或者当前系统可用存储空间现有对于系统存储空间而言已经处于高负载状态的情况下,则判断第一待分配数据块副本不存在。
步骤502:若是,将数据块中的第一待分配数据块副本分配至计算负载所在的服务器集群的节点。可以理解的是,在第一待分配数据块副本存在的情况下,对第一待分配数据块副本分配相应的本地化空间位置,使得当前计算负载对应的数据块中的第一待分配数据块副本处于其服务器集群节点上,实现本地数据的存储。
步骤503:判断数据块中是否存在第二待分配数据块副本。可以理解的是,当本地化空间位置的数据块副本已经分配完毕或者当前系统可用存储空间现有对于系统存储空间而言已经处于高负载状态的情况下,即本地化空间位置无法满足数据块副本的分配时,此时考虑第二待分配数据块副本的分配,进一步提升数据块的安全性,以及提高计算负载较高的存储服务器节点的空间使用效率。
步骤504:若是,将数据块中的第二待分配数据块副本分配至距离计算负载所在的服务器节点拓扑距离最远的服务器节点,拓扑距离最远为数据块副本之间共享最少的硬件设备。可以理解的是,在数据中心里,每个机框中会安装有若干个物理服务器,这些服务器共享机框的部分关键设置,例如电源,磁盘连接的背板、网线连接端口等等。如果这些共享设施发生异常,机框内的所有服务器都会受到影响。每个机架上会安装若干个这样的机框,在机架上安装有交换机及其他的网络设备。机架内的所有服务器会共享网络设备,设备异常时它们都会受到影响。因此,在考虑数据的副本分配时,需尽量将同一个数据块的不同副本放置在拓扑距离上尽量远的不同服务器上,这里的“远”指的是副本之间尽量共享最少的硬件设施,例如地,已经有一个副本在机架A上,另外可选的服务器分别在A与B上,此时B的服务器就是最远的服务器,因为它与先有的服务器没有共享硬件设施。
步骤505:判断数据块中是否存在未分配的第三待分配数据块副本。可以理解的是,当超融合系统中本地化空间配置完成,且数据副本实现拓扑距离最大化分配后,如果仍存在未分配的数据块副本,此时认为存在第三点待分配副本。
步骤506:若是,则将未分配空间的第三待分配数据块副本执行局部化分配或标准化分配。可以理解的是,第三待分配副本的分配需要根据系统可用存储空间而定,通过第三待分配数据块副本的局部化分配或者标准化分配可以实现在服务器出现故障时,减量对服务器集群中其他虚拟磁盘的影响,同时实现不同服务器节点之间承载计算负载的数据块副本的数据负载趋于均衡。
具体地,于上述步骤506中,局部化分配506a包括:将未分配空间的第三数据块副本分配至距离计算负载所在的第一服务器集群的节点拓扑距离最小的第二服务器集群的节点;其中,拓扑距离最小为数据块副本之间共享最多的硬件设备。可以理解的是,当系统性能处于低负载状态或者中负载状态的情况下,当数据块中的数据块副本分配至本地化空间及拓扑距离最大化完成以后,需要保证其余数据块副本的存储使得当前数据块副本的服务器出现故障的情况下,对于服务器集群的影响将至最小,实现超融合系统承载的计算负载的均衡性。例如地,如图4所示,对于包括机架A、机架B、机架C包括服务器节点[A、B、C、D、E、F]该种拓扑结构,一个同时满足上述局部化分配和拓扑安全的数据块分配结果是[A,B,E],服务器节点A拓扑距离最远的为服务器节点E,应当分配至机架A保证拓扑距离最小,以实现当副本数据出现故障时,对机架B不产生影响。A与B拓扑距离最小为数据块副本之间共享最多的硬件设备,以便同时实现局部化分配和拓扑安全的数据块副本分配。
于上述步骤506中,其中,标准化分配506b包括:将未分配的第三数据块副本分配至大于预设可用空间阈值的服务器集群的节点。可以理解的是,当系统性能处于高负载状态的情况下,系统可用存储空间非常有限,在数据块中的数据块副本分配至本地化空间及拓扑距离最大化完成时当前服务器的可用存储空间不能满足数据块副本的分配或者已经承载较多的数据,将系统中未分配的第三数据块副本分配至服务器中可用存储空间相对较多的服务器集群节点中,保证实现超融合系统承载的计算负载的均衡性。
如图5所示,根据本申请的实施例中,示出了一种数据块副本分配前的流程示意图。具体包括:在执行所述数据块中的数据块副本的分配之前,对当前超融合系统的负载状态进行判断,具体包括:
步骤5a:在负载状态为低负载状态的情况下,执行步骤500中数据块中的数据块副本的分配。
步骤5b:在负载状态为中负载状态的情况下,在系统负载状态表现为中负载状态的情况下,超融合存储系统将当前服务器集群的节点上所有计算负载的非本地、非活跃数据迁移至满足第一预设条件的服务器集群节点。
步骤5c:在系统负载状态表现为高负载状态的情况下,超融合存储系统将当前服务器集群的节点上所有计算负载的非活跃数据迁移至满足第二预设条件的服务器集群节点。
于本申请的一些实施例中,一种数据块副本分配后具体包括:判断计算负载所在的服务器集群节点的当前可用空间是否小于预设可用空间阈值;若是,再次执行数据块中的数据块副本的分配。可以理解的是,当系统负载处于高负载状态的情况下,系统的可用存储空间较少,在执行数据块副本的分配后,如果当前系统的可用存储空间依然小于预设可用空间阈值,则需要按照副本分配的原则,再次执行对应高负载状态下的数据块副本的分配,直至当前系统的可用存储空间已经满足当前预设可用空间阈值。具体地,该预设可用空间阈值可以为系统性能处于中负载状态对应的可用存储空间等,用户也可以根据超融合系统的性能进行设定。
可以理解的是,当服务器集群规模很大时,数据块副本一旦出现问题,均匀分配的数据块副本情况下,对于整个集群的影响比较大,因此需要将数据块进行局部化分配,即可以将数据块分配至计算负载相邻的节点上,应用于局部化分配使得某台服务器节点故障时,受影响的计算负载只与该故障服务器节点有关的计算负载受到影响。
于本申请的一些实施例中,根据所述虚拟磁盘的输入和/或输出,实时显示虚拟机所在主机运行状况以及迁移状况。可以理解的是,在存在新的物理服务器加入集群,新的磁盘加入到原有的物理服务器上,或者物理服务器发生故障,磁盘发生了故障,虚拟机发生了迁移等状态时,进而获取系统性能的负载状态实时变化,则通过副本分配原则动态地调整数据块的副本位置。
图6根据本申请的一些实例中,示出了一种超融合系统的弹性负载均衡系统框图。具体包括:
划分单元1,创建虚拟磁盘,将所述虚拟磁盘划分为若干个数据块,所述数据块包括多个数据块副本;
挂载单元2,将若干个所述数据块的所述数据块副本的存储资源进行融合,并挂载至所述超融合系统的服务器集群的节点;
获取单元3,获取所述超融合系统的计算负载对应的所述服务器集群的节点;
监控单元4,通过所述超融合系统中的性能监控模块,实时监控分布在所述超融合系统中的所述计算负载对应的系统负载状态,所述系统负载状态包括:低负载状态、中负载状态、高负载状态;
执行单元5,根据所述性能监控模块的所述系统负载状态,执行所述数据块中的数据块副本的分配。
可以理解的是,上述超融合系统的弹性负载均衡系统中的各个功能模块执行与前述实施例中超融合系统的弹性负载均衡方法相同的步骤流程,在此不做赘述。
本申请提出的技术方案涉及方法、装置、系统、芯片、电子设备、计算机可读存储介质和/或计算机程序产品。计算机程序产品可以包括用于执行本公开的各个方面的计算机可读程序指令。
本申请所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (11)

1.一种超融合系统的弹性负载均衡方法,其特征在于,所述的方法包括:
创建虚拟磁盘,将所述虚拟磁盘划分为若干个数据块,所述数据块包括多个数据块副本;
将若干个所述数据块的所述数据块副本的存储资源进行融合,并挂载至所述超融合系统的服务器集群的节点;
获取所述超融合系统的计算负载对应的所述服务器集群的节点;
通过所述超融合系统的性能监控模块,实时监控分布在所述超融合系统中的所述计算负载对应的系统负载状态,所述系统负载状态包括:低负载状态、中负载状态、高负载状态;
根据所述性能监控模块的所述系统负载状态,执行所述数据块中的数据块副本的分配。
2.根据权利要求1所述的一种超融合系统的弹性负载均衡方法,其特征在于,实时监控分布在所述超融合系统中的所述计算负载对应的系统负载状态包括:
获取所述超融合系统的所述虚拟磁盘的预设存储容量以及所述超融合系统由于用户使用而占有的使用容量,所述使用容量至少包括:所述超融合系统中的CPU、内存和网络的计算负载信息;
根据所述使用容量在所述预设存储容量的占有率,获取所述计算负载对应的所述系统负载状态。
3.根据权利要求1所述的一种超融合系统的弹性负载均衡方法,其特征在于,所述数据块中的数据块副本的分配依据所述数据块副本存储数据对应的硬件位置和/或,所述数据块中的数据块副本的网络拓扑结构确定。
4.根据权利要求1所述的一种超融合系统的弹性负载均衡方法,其特征在于,执行所述数据块中的数据块副本的分配包括:
判断所述数据块中是否存在第一待分配数据块副本;
若是,将所述数据块中的所述第一待分配数据块副本分配至所述计算负载所在的服务器集群的节点;
判断所述数据块中是否存在第二待分配数据块副本;
若是,将所述数据块中的所述第二待分配数据块副本分配至距离计算负载所在的服务器节点拓扑距离最远的服务器节点,所述拓扑距离最远为所述数据块副本之间共享最少的硬件设备;
判断所述数据块中是否存在未分配的第三待分配数据块副本;
若是,则将未分配空间的所述第三待分配数据块副本执行局部化分配或标准化分配。
5.根据权利要求4所述的一种超融合系统的弹性负载均衡方法,其特征在于,将未分配空间的所述第三数据块副本执行局部化分配包括:
将未分配空间的所述第三数据块副本分配至距离所述计算负载所在的第一服务器集群的节点拓扑距离最小的第二服务器集群的节点;
其中,拓扑距离最小为所述数据块副本之间共享最多的硬件设备。
6.根据权利要求4所述的一种超融合系统的弹性负载均衡方法,其特征在于,将未分配空间的所述第三数据块副本执行标准化分配包括:
将未分配的所述第三数据块副本分配至大于预设可用空间阈值的所述服务器集群的节点。
7.根据权利要求1所述的一种超融合系统的弹性负载均衡方法,其特征在于,执行所述数据块中的数据块副本的分配之前包括:在所述系统负载状态表现为中负载状态的情况下,所述超融合存储系统将当前所述服务器集群的节点上所有所述计算负载的非本地、非活跃数据迁移至满足第一预设条件的所述服务器集群节点。
8.根据权利要求1所述的一种超融合系统的弹性负载均衡方法,其特征在于,执行所述数据块中的数据块副本的分配之前包括:
在所述系统负载状态表现为高负载状态的情况下,所述超融合存储系统将当前所述服务器集群的节点上所有所述计算负载的非活跃数据迁移至满足第二预设条件的所述服务器集群节点。
9.根据权利要求1所述的一种超融合系统的弹性负载均衡方法,其特征在于,执行所述数据块中的数据块副本的分配之后包括:
判断所述计算负载所在的服务器集群节点的当前可用空间是否小于所述预设可用空间阈值;
若是,再次执行所述数据块中的数据块副本的分配。
10.根据权利要求1所述的一种超融合系统的弹性负载均衡方法,其特征在于,所述的方法还包括:
根据所述虚拟磁盘的输入和/或输出,实时显示虚拟机所在主机运行状况以及迁移状况。
11.一种超融合系统的弹性负载均衡系统,其特征在于,所述的系统包括:
划分单元,创建虚拟磁盘,将所述虚拟磁盘划分为若干个数据块,所述数据块包括多个数据块副本;
挂载单元,将若干个所述数据块的所述数据块副本的存储资源进行融合,并挂载至所述超融合系统的服务器集群的节点;
获取单元,获取所述超融合系统的计算负载对应的所述服务器集群的节点;
监控单元,通过所述超融合系统中的性能监控模块,实时监控分布在所述超融合系统中的所述计算负载对应的系统负载状态,所述系统负载状态包括:低负载状态、中负载状态、高负载状态;
执行单元,根据所述性能监控模块的所述系统负载状态,执行所述数据块中的数据块副本的分配。
CN202210655207.7A 2022-06-10 2022-06-10 超融合系统的弹性负载均衡方法及系统 Active CN115225642B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210655207.7A CN115225642B (zh) 2022-06-10 2022-06-10 超融合系统的弹性负载均衡方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210655207.7A CN115225642B (zh) 2022-06-10 2022-06-10 超融合系统的弹性负载均衡方法及系统

Publications (2)

Publication Number Publication Date
CN115225642A true CN115225642A (zh) 2022-10-21
CN115225642B CN115225642B (zh) 2023-09-15

Family

ID=83608353

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210655207.7A Active CN115225642B (zh) 2022-06-10 2022-06-10 超融合系统的弹性负载均衡方法及系统

Country Status (1)

Country Link
CN (1) CN115225642B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116088763A (zh) * 2023-02-09 2023-05-09 北京志凌海纳科技有限公司 一种最优化恢复速率的副本分配策略系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104506589A (zh) * 2014-12-10 2015-04-08 上海爱数软件有限公司 一种基于超融合存储的资源迁移调度方法
CN108196958A (zh) * 2017-12-29 2018-06-22 北京泽塔云科技股份有限公司 资源调度分配方法、计算机系统及超融合架构系统
CN110912991A (zh) * 2019-11-22 2020-03-24 北京中实信息技术有限公司 一种基于超融合双节点高可用的实现方法
CN112241304A (zh) * 2020-10-12 2021-01-19 北京计算机技术及应用研究所 龙芯集群内的超融合资源的调度方法、装置及龙芯集群
CN113535330A (zh) * 2021-07-26 2021-10-22 北京计算机技术及应用研究所 一种基于节点评价函数的超融合系统数据本地化存储方法
CN114003350A (zh) * 2022-01-04 2022-02-01 北京志凌海纳科技有限公司 超融合系统的数据分配方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104506589A (zh) * 2014-12-10 2015-04-08 上海爱数软件有限公司 一种基于超融合存储的资源迁移调度方法
CN108196958A (zh) * 2017-12-29 2018-06-22 北京泽塔云科技股份有限公司 资源调度分配方法、计算机系统及超融合架构系统
CN110912991A (zh) * 2019-11-22 2020-03-24 北京中实信息技术有限公司 一种基于超融合双节点高可用的实现方法
CN112241304A (zh) * 2020-10-12 2021-01-19 北京计算机技术及应用研究所 龙芯集群内的超融合资源的调度方法、装置及龙芯集群
CN113535330A (zh) * 2021-07-26 2021-10-22 北京计算机技术及应用研究所 一种基于节点评价函数的超融合系统数据本地化存储方法
CN114003350A (zh) * 2022-01-04 2022-02-01 北京志凌海纳科技有限公司 超融合系统的数据分配方法和系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116088763A (zh) * 2023-02-09 2023-05-09 北京志凌海纳科技有限公司 一种最优化恢复速率的副本分配策略系统及方法
CN116088763B (zh) * 2023-02-09 2023-07-18 北京志凌海纳科技有限公司 一种最优化恢复速率的副本分配策略系统及方法

Also Published As

Publication number Publication date
CN115225642B (zh) 2023-09-15

Similar Documents

Publication Publication Date Title
CN101118521B (zh) 跨越多个逻辑分区分布虚拟输入/输出操作的系统和方法
US8595364B2 (en) System and method for automatic storage load balancing in virtual server environments
JP6185486B2 (ja) 分散型計算環境において負荷均衡化を実行する方法
US11137940B2 (en) Storage system and control method thereof
US20150263983A1 (en) System and Method for Allocating Resources and Managing a Cloud Based Computer System
JP4405511B2 (ja) 複数のサービス・ポイントを有する自律コンピューティングにおける動的に構成可能な耐障害性
WO2012167378A1 (en) System and method of optimization of in-memory data grid placement
EP4029197B1 (en) Utilizing network analytics for service provisioning
CN112948063B (zh) 云平台的创建方法、装置、云平台以及云平台实现系统
CN115698954A (zh) 管理故障转移区域可用性以实施故障转移服务
CN109873714B (zh) 云计算节点配置更新方法及终端设备
WO2017097006A1 (zh) 一种实时数据容错处理方法及系统
CN111045602B (zh) 集群系统控制方法及集群系统
Sato et al. Experiment and availability analytical model of cloud computing system based on backup resource sharing and probabilistic protection guarantee
CN106385330A (zh) 一种网络功能虚拟化编排器的实现方法及装置
CN115225642B (zh) 超融合系统的弹性负载均衡方法及系统
CN110692043B (zh) 用于对备份数据进行负载平衡的系统和方法
CN105208111A (zh) 一种信息处理的方法及物理机
US20230222110A1 (en) Selecting interfaces for device-group identifiers
Jhawar et al. Dependability-oriented resource management schemes for cloud computing data centers
US11671486B1 (en) Managing availability zone utilizing redundancy validation
US20240069778A1 (en) Integrating mirrored storage to remote replication site
CN113434345A (zh) 硬件集群失效管理的方法、集群、设备、平台及存储介质
JP2023151189A (ja) ストレージシステム及びその制御方法
CN115048048A (zh) 数据存储系统、数据存储方法、存储介质及电子装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 8b, building 1, No. 48, Zhichun Road, Haidian District, Beijing 100098

Patentee after: Beijing Zhiling Haina Technology Co.,Ltd.

Country or region after: China

Address before: 8b, building 1, No. 48, Zhichun Road, Haidian District, Beijing 100098

Patentee before: Beijing zhilinghaina Technology Co.,Ltd.

Country or region before: China