CN110515724A - 资源配置方法、装置、监视器及机器可读存储介质 - Google Patents
资源配置方法、装置、监视器及机器可读存储介质 Download PDFInfo
- Publication number
- CN110515724A CN110515724A CN201910746709.9A CN201910746709A CN110515724A CN 110515724 A CN110515724 A CN 110515724A CN 201910746709 A CN201910746709 A CN 201910746709A CN 110515724 A CN110515724 A CN 110515724A
- Authority
- CN
- China
- Prior art keywords
- business
- osd
- read
- write
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
- G06F9/5088—Techniques for rebalancing the load in a distributed system involving task migration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/508—Monitor
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本申请提供一种资源配置方法、装置、监视器及机器可读存储介质,分布式存储系统中的监视器在监测到系统中的OSD拓扑发生变化时,可根据变化前后的OSD拓扑之间的差异确定需要执行数据均衡业务的目标OSD。再调用对应的目标调节参数,并将获得的目标调节参数发送至目标OSD所在的存储节点,以使该存储节点对目标OSD的读写业务和数据均衡业务进行资源配置。如此,使读写业务和数据均衡业务的处理达到良好的平衡,以防止难以有效对数据均衡业务及读写业务进行平衡,而影响对客户端的读写业务的处理的问题。
Description
技术领域
本申请涉及存储领域,尤其是涉及一种资源配置方法、装置、监视器及机器可读存储介质。
背景技术
分布式存储系统集成了对象存储、块存储和文件存储等服务,具有高可靠性、高度自动化以及高可扩展性等优点。
在分布式存储系统中,当分布式存储系统中的OSD(Object Storage Device,对象存储设备)拓扑发生变化时,例如出现OSD故障、新增OSD等,分布式存储系统中OSD所对应的数据管理组需要进行迁移。系统将重新组织发生故障的存储节点或OSD上的数据,数据将被重新分布到正常的OSD上,以进行数据均衡业务。然而,系统中的OSD同时也要处理与客户端之间的读写业务I/O(Input Output,输入输出),当OSD处理数据均衡业务I/O时,若均衡业务与读写业务之间未能得到有效的平衡调节,将影响其与客户端之间的读写业务I/O,导致客户端请求挂起,影响客户端的业务处理。
发明内容
有鉴于此,本申请的目的在于提供一种资源配置方法、装置、监视器及机器可读存储介质,以防止难以有效对数据均衡业务及读写业务进行平衡,而影响对客户端的读写业务的处理的问题。
第一方面,本申请实施例提供一种资源配置方法,应用于分布式存储系统中的监视器,所述分布式存储系统还包括多个存储节点,每个所述存储节点包括多个对象存储设备OSD,所述监视器与各所述存储节点通信连接,所述方法包括:
监测所述分布式存储系统中的OSD拓扑是否发生变化;
若监测结果为是,则根据变化前后的OSD拓扑之间的差异,确需要执行数据均衡业务的目标OSD;
调用对应的目标调节参数,并将获得的目标调节参数发送至所述目标OSD所在的存储节点,以使该存储节点根据所述目标调节参数对所述目标OSD的读写业务和数据均衡业务进行资源配置。
第二方面,本申请实施例提供一种资源配置装置,应用于分布式存储系统中的监视器,所述分布式存储系统还包括多个存储节点,每个所述存储节点包括多个对象存储设备OSD,所述监视器与各所述OSD通信连接,所述装置包括:
监测模块,用于监测所述分布式存储系统中的OSD拓扑是否发生变化;
确定模块,用于在监测结果为是时,根据变化前后的OSD拓扑之间的差异,确定需要执行数据均衡业务的目标OSD;
调用模块,用于调用对应的目标调节参数,并将获得的目标调节参数发送至所述目标OSD所在的存储节点,以使该存储节点根据所述目标调节参数对所述目标OSD的读写业务和数据均衡业务进行资源配置。
第三方面,本申请实施例提供一种监视器,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述所述的方法。
第四方面,本申请实施例提供一种机器可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述所述的方法。
本申请实施例中,分布式存储系统中的监视器在监测到系统中的OSD拓扑发生变化时,则根据变化前后的OSD拓扑之间的差异确定需要执行数据均衡业务的目标OSD。再调用对应的目标调节参数,并将获得的目标调节参数发送至目标OSD所在的存储节点,以使该存储节点根据目标调节参数对目标OSD的读写业务和数据均衡业务进行资源配置。如此,使读写业务和数据均衡业务的处理达到良好的平衡,以防止难以有效对数据均衡业务及读写业务进行平衡,而影响对客户端的读写业务的处理的问题。
本申请的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的基于分布式存储的组网架构图。
图2为本申请实施例提供的基于业务逻辑的分布式存储集群的逻辑架构图。
图3为本申请实施例提供的资源配置方法的流程图。
图4为图3中步骤S330的子步骤的流程图。
图5为本申请实施例提供的存储节点中网卡与CPU之间的对应关系示意图。
图6为本申请实施例提供的资源配置装置的功能模块框图。
图7为本申请实施例提供的监视器的硬件结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参阅图1,为本申请一示例性实施例示出的一种基于分布式存储系统的组网架构图。该组网中,包括分布式存储集群和客户端,该分布式存储集群可以是ceph集群。其中,该客户端主要用于与分布式存储集群进行交互,通过分布式存储集群处理该客户端的读写业务。例如,分布式存储集群可接收客户端发送的读写业务I/O(包括读I/O和写I/O),分布式存储集群根据接收到的客户端发送的读写业务I/O执行客户端的读写业务。
具体地,分布式存储集群接收到客户端发送的写I/O时,分布式存储集群可将该写I/O携带的数据写入本地。当分布式存储集群接收到客户端发送的读I/O,可根据该读I/O从本地读取数据,并将读取到的数据返回至客户端。
其中,分布式存储集群可包括监视器及多个存储节点,存储节点可以是计算机、物理服务器等物理设备。各个存储节点上设置有多个OSD,用于存放数据。当然应当理解,分布式存储集群还可包括其他设备,这里只是对分布式存储集群进行示例性地说明,并不对分布式存储集群包含的设备进行具体地限定。
其中,监视器主要用于管理分布式存储集群中的各个设备,监视器可以是一台物理设备,也可以是多台物理设备组成的集群,这里只是示例性地说明,不进行具体限定。
上述的OSD主要负责数据的存储,例如,在接收到写I/O请求后写入数据,在接收到读I/O请求后读取数据等。OSD通常为分布式存储集群中各存储节点上的硬盘,此处只是对OSD功能以及OSD的设备形态进行示例性地说明,不进行具体限定。
请参阅图2,为本申请一示例性实施例示出的一种基于业务逻辑的分布式存储集群的逻辑架构图。其中,客户端(包括vm1至vmn)可与各物理服务器(存储节点1至存储节点n)进行通信,从而与物理服务器上的OSD(本地磁盘)进行通信,其中,物理服务器可通过物理网卡1实现与客户端之间的通信,并且通过物理网卡1接入OSD的读写业务,即图2中客户端与各物理网卡1之间的连线指示的业务逻辑。物理服务器可通过物理网卡2实现OSD与OSD之间的数据均衡,即图2中点划线指示的业务逻辑。其中,图中示意性示出不同物理服务器的OSD之间分别通过其物理网卡2实现数据均衡。作为同一个物理服务器内部的OSD之间,也可通过各自的物理网卡2实现数据均衡。
物理网卡2除了可用于实现数据均衡之外,还可用于在客户端向某个OSD写入数据后,OSD将写入的数据备份至其他OSD时的数据备份流程,即图2中虚线所指示的业务逻辑。同样,需要说明的是,图2中只是示意性示出了两个物理服务器之间通过物理网卡2实现数据备份,而同一个物理服务器各自内部的OSD之间,也可通过各自的物理网卡2实现OSD与OSD之间的数据备份。
应当理解,图2中示出物理服务器包括物理网卡1和物理网卡2,以用于与客户端之间的读写业务处理以及均衡业务处理,实际上物理网卡1和物理网卡2还可集成在一起,此处并不对物理网卡1和物理网卡2的具体设置形式进行限定。
以下首先对分布式存储系统所涉及到的几个概念进行介绍。
(1)数据管理组(Data Management Group,简称为DMG),是一个逻辑概念,主要用于对其包含的对象块进行统一管理。在不同的分布式存储实现中有不同的称呼,例如在ceph集群(一种分布式存储集群)中称为归置组(Placement Group,PG)。DMG可以理解为一组数据的逻辑集合,DMG所包含的数据储存在该DMG对应的OSD组中。DMG对应的OSD组中包含多个OSD,DMG中的数据可被复制多份,分别存储在该DMG对应的OSD组中的每个OSD中。
例如,若DMG1对应三个OSD,包含一个主OSD,两个从OSD。当针对DMG1写入数据时,可将数据写入至DMG1对应的主OSD中,主OSD将写入的数据同步给两个从OSD,使得主OSD和两个从OSD都保存有一份该DMG1中的数据。
(2)DMG对应的OSD,即DMG对应的OSD组中的OSD,也被称为DMG对应的OSD副本。即上述的主OSD和两个从OSD为DMG1对应的OSD。
(3)读写业务I/O和均衡业务I/O,分布式存储集群中存在的I/O可包括:读写业务I/O和均衡业务I/O。读写业务I/O是指来自于客户端的I/O,主要用于指示分布式存储集群执行该客户端的读写业务。
读写业务I/O可包括来自客户端的读I/O及来自客户端的写I/O等。例如分布式存储集群接收到客户端发送的写I/O时,分布式存储集群可将该写I/O携带的数据写入本地。当分布式存储集群接收到客户端发送的读I/O时,分布式存储集群可根据该读I/O读取数据,并将读取到的数据返回至客户端。
均衡业务I/O,在将OSD上的DMG的数据进行迁移时,分布式存储集群内会产生均衡业务I/O,均衡业务I/O主要用于指导分布式存储集群中的DMG进行数据迁移。
(4)DMG中的数据迁移,当分布式存储集群中的OSD拓扑发生变化后,监视器可重新计算集群中各个DMG对应的OSD组,再针对每个DMG,若该DMG在OSD拓扑变化之前所对应的OSD组与重新计算出的OSD组不同,则该DMG即为待进行数据迁移的DMG。对待进行数据迁移的DMG中的数据进行迁移是指,将该DMG中的数据迁移到重新计算出的DMG对应的OSD组中的OSD上。
现有技术中,在进行数据均衡业务时,可通过软件的一些既有参数来对均衡业务处理进行限制,以避免均衡业务的处理对与客户端之间的读写业务的处理造成较大的影响。例如,现有的对ceph集群中的均衡业务的处理的调整参数主要包括osd_max_backfills,osd_recovery_max_active,osd_recovery_max_single_start等。其中,osd_max_backfills主要用于指示在一个OSD上最多能有多少个PG同时进行backfill(一种数据恢复类型)类型的数据恢复。osd_recovery_max_active主要用于指示在一个OSD上最多有多少个PG同时进行数据恢复。osd_recovery_max_single_start主要用于指示每个PG可以启动数据恢复操作的最大数。
现有技术中,主要通过上述的调整参数对均衡业务进行限制,现有技术中采用的调整方式仅仅考虑了对均衡业务的限制,并未考虑OSD与客户端之间的读写业务的具体情况,即在OSD与客户端之间的读写业务量很大的情况下以及与客户端之间的读写业务量较小的情况下,采用的调整参数都是不变的,且仅仅对均衡业务进行限制,缺乏对读写业务及均衡业务的适用性,难以实现数据均衡业务与正常读写业务之间的良好的平衡,对于不同的应用场景,调整参数也不能适用。
有鉴于此,本申请旨在提供一种配置方法,在监视器监测到分布式存储系统中的OSD拓扑发生变化时,则调用对应的目标调节参数,基于该目标调节参数可对OSD的读写业务和数据均衡业务进行资源配置,从而使读写业务和数据均衡业务的处理达到良好的平衡,以防止难以有效对数据均衡业务及读写业务平衡,而影响对客户端的读写业务的处理的问题。
本实施例提供的资源配置方法,得到的目标调节参数包含处理读写业务与处理数据均衡业务的资源占比,可避免采用固定不变的调整参数以限制数据均衡业务,而无法与实际读写业务相适应的缺陷。
请参阅图3,为本申请一示例性实施例示出的一种资源配置方法的流程图。该资源配置方法可应用于分布式存储系统中的监视器,该方法包括以下步骤:
步骤S310,监测所述分布式存储系统中的OSD拓扑是否发生变化,若监测结果为是,则执行以下步骤S330。
步骤S330,根据变化前后的OSD拓扑之间的差异,确定需要执行数据均衡业务的目标OSD。
步骤S350,调用对应的目标调节参数,并将获得的目标调节参数发送至所述目标OSD所在的存储节点,以使该存储节点根据所述目标调节参数对所述目标OSD的读写业务和数据均衡业务进行资源配置。
在分布式存储集群中,当集群中的OSD因网络异常而离线,或者集群中新增了OSD,或者OSD出现故障而离线,或者人为更换OSD等,均会引起分布式存储集群中的OSD拓扑发生变化。其中,监视器可通过多种方式监测集群中的OSD是否出现离线、故障等状态。例如,分布式存储集群中的OSD可自主上报自身状态,或者各个OSD之间通过投票的方式,以发现集群中离线的OSD,以上报至监视器。又或者,各个OSD可周期性地向监视器发送beacon消息进行保活,在超过预设时长未接收到OSD发送的beacon消息,监视器可将该OSD标记为离线。此处只是对常规的监测方式进行举例说明,并不用于对实际的监测方式进行限定。
例如,在ceph这种分布式存储系统中,监视器中存储有集群map(也即,Clustermap),用来描述集群状态,Cluster map包括monitor map、OSD map、PG map、CRUSH map及MDS map,分别维护着监视器节点间端到端的信息,OSD的相关信息(如数目、权重、状态等),归置组PG信息、集群故障域层次结构、数据存储规则及元数据服务器MDS(Metadataserver)信息等。
在出现OSD离线或新增OSD等情况时,都将会引起监视器中存储的OSD map发生变化,而OSD map发生变化就意味着ceph集群中OSD拓扑发生变化。
在分布式存储集群中OSD拓扑发生变化后,需要针对DMG进行数据迁移,而待进行数据迁移的DMG所对应的OSD组中的OSD则需要执行与该数据迁移相关的数据均衡业务。这就涉及到该些OSD上的数据均衡业务和读写业务之间的平衡。
监视器可根据OSD拓扑的变化前后差异从集群中的OSD中确定出目标OSD。并将获得的目标调节参数下发至目标OSD所在的存储节点。
目标OSD所在的存储节点即可依据得到的目标调节参数来对目标OSD的读写业务数据均衡业务进行资源配置,可有效地适应于不同读写业务情况与不同均衡业务情况,达到数据均衡业务与读写业务之间的良好的平衡。
本实施例中,存储节点上的各个OSD分别对应有DMG,在集群中的OSD拓扑发生变化时,监视器需确定出需要进行数据迁移的DMG,以及该DMG所对应的OSD。其中,该DMG所对应的OSD即为需要执行数据均衡业务的OSD,即上述的目标OSD。
请结合参阅图4,上述步骤S330具体可以包括以下子步骤:
步骤S331,针对各所述数据管理组,根据预设算法计算该数据管理组在OSD拓扑变化后重新对应的OSD。
步骤S333,检测该数据管理组在OSD拓扑变化前后所对应的OSD是否一致,若不一致,则执行以下步骤S335。
步骤S335,将该数据管理组在OSD拓扑变化前后所对应的且在线的OSD确定为所述目标OSD。
在OSD拓扑发生变化时,监视器可通过预设算法来重新计算数据管理组对应的OSD,该预设算法可为伪随机数据分布算法,例如Crush(Controlled Replication UnderScalable Hashing,可扩展散列下的受控复制算法)算法。针对每一个数据管理组,监视器可获取该数据管理组在OSD拓扑变化前所对应的OSD以及重新计算出的该数据管理组对应的OSD。若该数据管理组在OSD拓扑变化前所对应的OSD与重新计算得到的该数据管理组对应的OSD一致,则表明该数据管理组无需进行数据迁移,该数据管理组对应的OSD无需进行读写业务和数据均衡业务之间的处理资源的重新分配。若该数据管理组在OSD拓扑变化之前所对应的OSD与重新计算得到的该数据管理组对应的OSD不一致,则将该数据管理组确定为待进行数据迁移的目标数据管理组。
例如,若DMG1在OSD拓扑变化之前所对应的OSD组包含OSD1、OSD2以及OSD3,在集群中OSD拓扑发生变化后,监视器重新计算出的DMG1对应的OSD组包含OSD1、OSD2以及OSD4。由于DMG1在OSD拓扑变化之前对应的OSD与重新计算出的DMG1对应的OSD不一致,则监视器可确定DMG1为待进行数据迁移的目标DMG。
需要说明的是,目标DMG可以是一个,也可以是多个,对于目标DMG的数量不作具体限制。对应地,将目标DMG在OSD拓扑变化前后所对应的且在线的OSD确定为目标OSD。即目标OSD为目标DMG在拓扑变化前所对应的OSD以及OSD拓扑变化后目标DMG重新对应的OSD中在线的OSD。需要说明的是,目标OSD的数量也不限定于一个,具体数量可根据实际计算结果确定。在目标OSD包括多个时,目标OSD可以是同一个存储节点内的OSD,也可以包括不同存储节点中的OSD,具体不作限制。
在确定出待进行数据迁移的目标DMG对应的目标OSD之后,可根据上述得到的目标调节参数对确定的目标OSD的当前调节参数进行调节,将调节后得到的调节参数发送至目标OSD所在的存储节点,以使目标OSD所在的存储节点根据接收到的调节参数对目标OSD的读写业务和数据均衡业务进行资源配置。
例如,在ceph集群中,存储节点上的各个OSD分别对应有PG,PG同样可以理解为一组数据的逻辑集合。在ceph集群中的OSD拓扑发生变化后,针对各个PG,监视器可根据Crush算法计算该PG在OSD拓扑变化后重新对应的OSD。并检测该PG在OSD拓扑变化前后所对应的OSD是否一致。若不一致,则将该PG在OSD拓扑变化前后所对应的且在线的OSD确定为目标OSD。该PG上的数据将在确定出的目标OSD之间进行迁移。
其中,得到的目标调节参数包括读写业务与数据均衡业务之间的存储I/O参数比值,该存储I/O参数比值用于限制读写业务和数据均衡业务的数据存储的存储I/O时间、存储I/O带宽的比值和IOPS(Input/Output Operations Per Second,每秒的读写次数)的比值中的至少一种。
作为一种可能的实施方式,各个存储节点可预先创建不同的资源组,例如cgrouprw资源组以及cgroup balance资源组。将各OSD与客户端之间的读写业务进程加入至cgrouprw资源组中,将各OSD的数据均衡业务进程加入至cgroup balance资源组中。目标OSD所在的存储节点在获得监视器下发的调节参数后,可利用cgroup技术中的blkio子系统以实现对OSD的读写业务与数据均衡业务之间的存储I/O限制。blkio子系统可用于限制每个OSD的输入输出。利用blkio子系统可为各个OSD的读写业务进程组和数据均衡业务进程组设置不同的权重值来控制对应的OSD对其的I/O时间。
其中,读写业务进程组可以包括上述的cgrouprw资源组中的读写业务进程,数据均衡业务进程组可以包括上述的cgroup balance资源组中的数据均衡业务进程。此外,blkio子系统还可用于限制各个进程组的带宽或者是IOPS。
作为一种可能的实施方式,目标OSD所在的存储节点可根据获得的调节参数中的存储I/O参数比值,为目标OSD分配读写业务的处理资源及数据均衡业务的处理资源,从而使得读写业务和数据均衡业务之间的处理进程满足存储I/O参数比值中的读写业务和数据均衡业务之间的存储I/O时间的比值,或者是存储I/O带宽的比值,或者是IOPS之间的比值。
作为一种可能的实施方式,目标调节参数还可包括读写业务与数据均衡业务之间的网络I/O参数比值,该网络I/O参数比值包括用于限制读写业务和数据均衡业务的数据发送进程带宽的比值和数据接收进程带宽的比值。
可以理解,OSD与客户端之间的读写业务中涉及到数据发送及数据接收进程,以及读数据过程和写数据过程。而OSD在进行数据均衡时,由于数据需要进行迁移,则同样涉及OSD与OSD之间的数据发送、数据接收、写数据等过程。而本实施例中,上述的存储I/O参数比值则主要用于限制读数据过程、写数据过程中的控制参数,而网络I/O参数比值则主要用于限制数据发送、数据接收进程中的控制参数。
作为一种可能的实施方式,可利用cgroup技术中的net-cls子系统来实现读写业务和数据均衡业务之间的网络I/O的限制。net-cls子系统可提供对网络带宽的访问限制,目标OSD所在的存储节点可依据下发的网络I/O参数比值来为目标OSD读写业务进程和数据均衡业务进程分配数据收发的网络带宽。
上述对数据收发的限制主要是从进程角度来实现网络带宽限制,作为另一种实施方式,还可使用网卡多队列技术实现网络带宽限制。
其中,各个存储节点上包括多个CPU及网卡,各CPU可对应不同网卡,以处理对应网卡收发的数据包。例如,如图5中所示,存储节点包括网卡1及网卡2,还包括CPU1-CPU6。其中,CPU1-CPU4对应于网卡1,CPU5-CPU6对应于网卡2。各个网卡可分别用于收发读写业务的数据包或数据均衡业务的数据包。目标调节参数还可包括用于收发读写业务的网段对应的CPU个数与用于收发数据均衡业务的数据包的网段对应的CPU个数之间的比值。由上述可知,各个OSD为物理服务器上的硬盘,OSD与用户端之间的数据交互以及OSD与OSD之间的数据交互需要通过物理服务器上的网卡来实现。
本实施例中,物理服务器的主机内网配置有多个不同网段以分配给不同的网卡,例如192.168.1.X和192.168.2.X。其中,192.168.1.X可分配给收发读写业务的数据包的网卡(例如网卡1),192.168.2.X可分配给收发数据均衡业务的数据包的网卡(例如网卡2)。而经由各个网段收发的数据包可通过网段对应的CPU进行处理,不同的网段对应的CPU的个数可不同,而CPU的多少将影响数据包收发的快慢。目标OSD所在的存储节点在接收到调整之后的调节参数后,即可获得收发读写业务的数据包的网段对应的CPU个数与收发数据均衡业务的数据包的网段对应的CPU个数之间的比值,从而按该比值分配得到读写业务的网段对应的CPU以及数据均衡业务的网段对应的CPU。
例如,收发读写业务的数据包的网段对应的CPU可设置为4个,收发数据均衡业务的数据包的网段对应的CPU可设置为2个。将读写业务的数据包通过为读写业务分配的网卡进行收发,从而通过该网卡的网段对应的CPU进行处理,将数据均衡业务的数据包通过为数据均衡业务分配的网卡进行收发,从而通过该网卡的网段对应的CPU进行处理,从而对读写业务和数据均衡业务的网络带宽进行限速。
本实施例中,可分别从存储I/O、网络I/O来对读写业务和数据均衡业务进行限制,而网络I/O的限制可以利用net-cls子系统从业务进程角度来进行网络带宽限制,也可以利用网卡多队列技术从硬件资源上进行限制。通过多种不同维度来实现读写业务和数据均衡业务的平衡。
在本实施例中,由上述可知,监视器可根据目标调节参数对目标OSD的当前调节参数进行调节。为了避免调节参数的突变对业务造成影响,作为一种可能的实施方式,监视器可实现对调节参数的平滑调整,以尽可能降低影响。
监视器可在预设时段内对目标OSD的当前调节参数进行多次调节,直至得到的调节参数为所述的目标调节参数为止,并且将每次调整得到的调节参数发送至目标OSD所在的存储节点。例如,在预设时段内(例如10分钟),每间隔预设时长(如1分钟)调整目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比,直至得到的调整后的调节参数中读写业务和数据均衡业务的资源配比为目标调节参数中读写业务和数据均衡业务的资源配比为止。并且,将每次调整后得到的调节参数发送至目标OSD所在的存储节点,以使该存储节点根据每次得到的调节参数对目标OSD的读写业务和数据均衡业务进行资源配置。
如此,可通过多次的逐渐调节,以从当前调节参数逐渐调节至目标调节参数,通过平滑调节以避免调节参数突变造成业务处理变化太多而影响用户体验。
应当理解,无论系统中在线OSD增多还是在线OSD减少,均会触发数据均衡业务。在触发数据均衡业务时,需要对读写业务和数据均衡业务的资源配比进行调整,其目的都是为了避免数据均衡业务对正常读写业务造成影响。
在触发资源配比的调节时,需要考虑读写业务的实际情况以相应采取不同的调节策略,以实现在不同场景下读写业务和数据均衡业务之间的平衡。
在本实施例中,作为一种可能的实施方式,在基于目标调节参数对目标OSD的当前调节参数进行调整时,可检测OSD拓扑发生变化的时间点是否属于预设高峰时段。其中,该预设高峰时段可以是预先通过对历史一段时间内读写业务的统计分析,所获得的每天中读写业务量较大的时间段。由于一般情况下,白天的读写业务量往往较大,因此,该预设高峰时段也可以是所设定的一天中的白天时段,例如am9:00至pm6:00。
若OSD拓扑发生变化的时间点属于预设高峰时段,则表明当前读写业务量较大,为了避免触发的数据均衡业务的处理对读写业务造成影响,则可以增大目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比。可以在预设时段内,每间隔预设时长增大目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比,直至得到的增大后的调节参数中读写业务和数据均衡业务的资源配比为目标调节参数中读写业务和数据均衡业务的资源配比为止。
而若OSD拓扑发生变化的时间点不属于预设高峰时段时,则表明当前读写业务量较少,可为读写业务分配较少的处理资源,为数据均衡业务分配较多的处理资源,以加快数据均衡业务的处理速度。在这种情形下,可在预设时段内,每间隔预设时长减小目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比,直至得到的减小后的调节参数中读写业务和数据均衡业务的资源配比为目标调节参数中读写业务和数据均衡业务的资源配比为止。
此外,作为另一种可能的实施方式,在OSD拓扑发生变化触发数据均衡业务时,也可以通过检测系统中OSD的利用率的情况来判定读写业务量的大小。在触发数据均衡业务时,获取OSD拓扑未发生变化时分布式存储系统中所有OSD的平均利用率,例如可以是在OSD拓扑发生变化的前一刻的平均利用率,也可以是OSD拓扑发生变化的前预设时间内的平均利用率,对此不作具体限制。若其平均利用率大于或等于预设阈值(例如60%),则表明当前读写业务量较大,需保证正常的读写业务,以避免数据均衡业务对其造成影响。在这种情形下,可增大目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比。可以在预设时段内,每间隔预设时长增大目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比。
而若OSD拓扑未发生变化时分布式存储系统中所有OSD的平均利用率小于预设阈值时,则表明当前读写业务量较小,可为数据均衡业务分配较多的处理资源。在这种情形下,可在预设时段内,每间隔预设时长减小目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比。如此,在不影响读写业务处理的基础上,加快处理数据均衡业务。
本实施例中,在数据均衡业务处理完成之后,可将读写业务和数据均衡业务之间的资源配比恢复至OSD发生拓扑变化之前的配比,以保障系统中业务处理的稳定性。
在本实施例中,若目标OSD的当前调节参数为2:1,需要增大当前调节参数中读写业务和数据均衡业务之间的资源配比时,例如目标调节调节参数比值为3:1时。则在预设时段10分钟内,可每间隔预设时长,如1分钟,按预设规则增大目标OSD的当前调节参数。其中,预设规则可以是根据目标调节参数中读写业务的占比与当前调节参数比值中读写业务的占比之间的差值,再除以调节的次数得到每次的调节步长。在每次调节时,依次按该调节步长进行增大处理,以在多次调节后将当前调节参数调整为目标调节参数。
例如,当前调节参数为2:1,读写业务的占比为2/3,目标调节参数为3:1,读写业务的占比为3/4。计算两者之间的差值3/4-2/3=1/12,再利用两者之间的差值除以调节的次数得到调节步长1/12÷10=1/120。在当前调节参数2:1的基础上,每次调节时,按调节步长逐次增大读写业务的占比,例如第一次调节后得到读写业务的占比为2/3+1/120,按此调节方式,则在第十次调节之后得到读写业务的占比为2/3+10/120=3/4,即读写业务与数据均衡业务的资源配比为3:1。
此外,若需要减小当前调节参数中读写业务和数据均衡业务之间的资源配比时,可按上述同样的原理进行逐步调节,在此不再赘述。
综上,本申请实施例提供的资源配置方法,通过分布式存储集群的监视器监测集群中的OSD拓扑是否发生变化,若监测到集群中的OSD拓扑发生变化时,则根据变化前后的OSD拓扑之间的差异确定需要执行数据均衡业务的目标OSD。再调用对应的目标调节参数,并将获得的目标调节参数发送至目标OSD所在的存储节点,以使该存储节点可根据获得的目标调节参数对目标OSD的读写业务及数据均衡业务进行资源配置。如此,使读写业务和数据均衡业务的处理达到良好的平衡,以防止难以有效对均衡业务及数据读写业务进行平衡,而影响对客户端的读写业务的处理的问题。
请参阅图6,在本申请另一个实施例中,还提供一种应用于上述监视器的资源配置装置,该资源配置装置可包括监测模块、确定模块以及调用模块。
监测模块,用于监测所述分布式存储系统中的OSD拓扑是否发生变化。
确定模块,用于在监测结果为是时,根据变化前后的OSD拓扑之间的差异,确定需要执行数据均衡业务的目标OSD。
调用模块,用于调用对应的目标调节参数,并将获得的目标调节参数发送至所述目标OSD所在的存储节点,以使该存储节点根据所述目标调节参数对所述目标OSD的读写业务和数据均衡业务进行资源配置。
其中,所述调用模块可以用于在预设时段内,每间隔预设时长调整所述目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比,直至得到的调整后的调节参数中读写业务和数据均衡业务的资源配比为所述目标调节参数中读写业务和数据均衡业务的资源配比为止,并且将每次调整后得到的调节参数发送至所述目标OSD所在的存储节点,以使该存储节点根据每次得到的调节参数对所述目标OSD的读写业务和数据均衡业务进行资源配置。
本申请实施例所提供的资源配置装置中,各个模块与前述资源配置方法具有相同的技术特征,因此,同样可以实现上述功能。本装置中各个模块的具体工作过程参见上述方法实施例,在此不再赘述。
参见图7,图7是本申请实施例一示例性实施例示出的一种监视器的硬件结构图。该监视器包括:通信接口、处理器、机器可读存储介质和总线;其中,通信接口、处理器和机器可读存储介质通过总线完成相互间的通信。处理器通过读取并执行机器可读存储介质中与调节逻辑对应的机器可执行指令,可执行上文描述的资源配置方法。
本文中提到的机器可读存储介质可以是任何电子、磁性、光学或其它物理存储装置,可以包含或存储信息,如可执行指令、数据,等等。例如,机器可读存储介质可以是:易失存储器、非易失性存储器或者类似的存储介质。具体地,机器可读存储介质可以是RAM(Radom Access Memory,随机存取存储器)、闪存、存储驱动器(如硬盘驱动器)、固态硬盘、任何类型的存储盘(如光盘、DVD等),或者类似的存储介质,或者它们的组合。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
Claims (10)
1.一种资源配置方法,其特征在于,应用于分布式存储系统中的监视器,所述分布式存储系统还包括多个存储节点,每个所述存储节点包括多个对象存储设备OSD,所述监视器与各所述存储节点通信连接,所述方法包括:
监测所述分布式存储系统中的OSD拓扑是否发生变化;
若监测结果为是,则根据变化前后的OSD拓扑之间的差异,确定需要执行数据均衡业务的目标OSD;
调用对应的目标调节参数,并将获得的目标调节参数发送至所述目标OSD所在的存储节点,以使该存储节点根据所述目标调节参数对所述目标OSD的读写业务和数据均衡业务进行资源配置。
2.根据权利要求1所述的资源配置方法,其特征在于,所述目标调节参数包括读写业务和数据均衡业务之间的资源配比,所述将获得的目标调节参数发送至所述目标OSD所在的存储节点,以使该存储节点根据所述目标调节参数对所述目标OSD的读写业务和数据均衡业务进行资源配置的步骤,包括:
在预设时段内,每间隔预设时长调整所述目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比,直至得到的调整后的调节参数中读写业务和数据均衡业务的资源配比为所述目标调节参数中读写业务和数据均衡业务的资源配比为止,并且将每次调整后得到的调节参数发送至所述目标OSD所在的存储节点,以使该存储节点根据每次得到的调节参数对所述目标OSD的读写业务和数据均衡业务进行资源配置。
3.根据权利要求2所述的资源配置方法,其特征在于,所述在预设时段内,每间隔预设时长调整所述目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比,直至得到的调整后的调节参数中读写业务和数据均衡业务的资源配比为所述目标调节参数中读写业务和数据均衡业务的资源配比为止的步骤,包括:
在OSD拓扑发生变化的时间点属于预设高峰时段时,或者在OSD拓扑未发生变化时所述分布式存储系统中所有OSD的平均利用率大于或等于预设阈值时,在预设时段内,每间隔预设时长增大所述目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比,直至得到的增大后的调节参数中读写业务和数据均衡业务的资源配比为所述目标调节参数中读写业务和数据均衡业务的资源配比为止。
4.根据权利要求2所述的资源配置方法,其特征在于,所述在预设时段内,每间隔预设时长调整所述目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比,直至得到的调整后的调节参数中读写业务和数据均衡业务的资源配比为所述目标调节参数中读写业务和数据均衡业务的资源配比为止的步骤,包括:
在OSD拓扑发生变化的时间点不属于预设高峰时段时,或者OSD拓扑未发生变化时所述分布式存储系统中所有OSD的平均利用率小于预设阈值时,在预设时段内,每间隔预设时长减小所述目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比,直至得到的减小后的调节参数中读写业务和数据均衡业务的资源配比为所述目标调节参数中读写业务和数据均衡业务的资源配比为止。
5.根据权利要求1-4任意一项所述的资源配置方法,其特征在于,所述目标调节参数包括读写业务与数据均衡业务之间的存储I/O参数比值和/或网络I/O参数比值,其中,所述存储I/O参数比值包括用于限制读写业务和数据均衡业务的数据存储的存储I/O时间的比值、存储I/O带宽的比值和IOPS的比值中的至少一种,所述网络I/O参数比值包括网络带宽比值或CPU数量比值,所述网络带宽比值包括用于限制读写业务和数据均衡业务的数据收发进程带宽的比值,所述CPU数量比值包括用于收发读写业务及数据均衡业务的数据包的网段对应的CPU数量之间的比值。
6.一种资源配置装置,其特征在于,应用于分布式存储系统中的监视器,所述分布式存储系统还包括多个存储节点,每个所述存储节点包括多个对象存储设备OSD,所述监视器与各所述OSD通信连接,所述装置包括:
监测模块,用于监测所述分布式存储系统中的OSD拓扑是否发生变化;
确定模块,用于在监测结果为是时,根据变化前后的OSD拓扑之间的差异,确定需要执行数据均衡业务的目标OSD;
调用模块,用于调用对应的目标调节参数,并将获得的目标调节参数发送至所述目标OSD所在的存储节点,以使该存储节点根据所述目标调节参数对所述目标OSD的读写业务和数据均衡业务进行资源配置。
7.根据权利要求6所述的资源配置装置,其特征在于,所述调用模块,用于:
在预设时段内,每间隔预设时长调整所述目标OSD的当前调节参数中读写业务和数据均衡业务的资源配比,直至得到的调整后的调节参数中读写业务和数据均衡业务的资源配比为所述目标调节参数中读写业务和数据均衡业务的资源配比为止,并且将每次调整后得到的调节参数发送至所述目标OSD所在的存储节点,以使该存储节点根据每次得到的调节参数对所述目标OSD的读写业务和数据均衡业务进行资源配置。
8.根据权利要求6或7所述的资源配置装置,其特征在于,所述目标调节参数包括读写业务与数据均衡业务之间的存储I/O参数比值和/或网络I/O参数比值,其中,所述存储I/O参数比值包括用于限制读写业务和数据均衡业务的数据存储的存储I/O时间的比值、存储I/O带宽的比值和IOPS的比值中的至少一种,所述网络I/O参数比值包括网络带宽比值或CPU数量比值,所述网络带宽比值包括用于限制读写业务和数据均衡业务的数据收发进程带宽的比值,所述CPU数量比值包括用于收发读写业务及数据均衡业务的数据包的网段对应的CPU数量之间的比值。
9.一种监视器,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述权利要求1至5中任一项所述的方法。
10.一种机器可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910746709.9A CN110515724B (zh) | 2019-08-13 | 2019-08-13 | 资源配置方法、装置、监视器及机器可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910746709.9A CN110515724B (zh) | 2019-08-13 | 2019-08-13 | 资源配置方法、装置、监视器及机器可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110515724A true CN110515724A (zh) | 2019-11-29 |
CN110515724B CN110515724B (zh) | 2022-05-10 |
Family
ID=68625717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910746709.9A Active CN110515724B (zh) | 2019-08-13 | 2019-08-13 | 资源配置方法、装置、监视器及机器可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110515724B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111917823A (zh) * | 2020-06-17 | 2020-11-10 | 烽火通信科技股份有限公司 | 一种基于分布式存储Ceph的数据重构方法与装置 |
CN112486418A (zh) * | 2020-12-14 | 2021-03-12 | 重庆邮电大学 | 一种基于Ceph纠删码的异构混合负载均衡存储方法 |
CN112596669A (zh) * | 2020-11-25 | 2021-04-02 | 新华三云计算技术有限公司 | 一种基于分布式存储的数据处理方法及装置 |
CN113271323A (zh) * | 2020-02-14 | 2021-08-17 | 中移(苏州)软件技术有限公司 | 集群扩容方法、装置和存储介质 |
CN113282241A (zh) * | 2021-05-26 | 2021-08-20 | 上海仪电(集团)有限公司中央研究院 | 一种基于Ceph分布式存储的硬盘权重优化方法及装置 |
WO2021238250A1 (zh) * | 2020-05-28 | 2021-12-02 | 苏州浪潮智能科技有限公司 | 一种存储集群中存储介质变更减少重构数据的方法及系统 |
CN113946274A (zh) * | 2020-07-15 | 2022-01-18 | 浙江宇视科技有限公司 | 数据处理方法、装置、设备及介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150242150A1 (en) * | 2011-03-22 | 2015-08-27 | Amazon Technologies, Inc. | Methods and apparatus for optimizing resource utilization in distributed storage systems |
CN106095940A (zh) * | 2016-06-14 | 2016-11-09 | 齐鲁工业大学 | 一种基于任务负载的数据迁移方法 |
CN106293509A (zh) * | 2016-07-12 | 2017-01-04 | 乐视控股(北京)有限公司 | 数据存储方法及系统 |
CN106990924A (zh) * | 2017-04-07 | 2017-07-28 | 广东浪潮大数据研究有限公司 | 一种数据迁移方法和系统 |
CN108287669A (zh) * | 2018-01-26 | 2018-07-17 | 平安科技(深圳)有限公司 | 数据存储方法、装置及存储介质 |
CN109284220A (zh) * | 2018-10-12 | 2019-01-29 | 深信服科技股份有限公司 | 集群故障恢复时长估算方法、装置、设备及存储介质 |
CN109428913A (zh) * | 2017-08-25 | 2019-03-05 | 浙江宇视科技有限公司 | 一种存储扩容方法及装置 |
CN109542622A (zh) * | 2018-11-21 | 2019-03-29 | 新华三技术有限公司 | 一种数据处理方法及装置 |
-
2019
- 2019-08-13 CN CN201910746709.9A patent/CN110515724B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150242150A1 (en) * | 2011-03-22 | 2015-08-27 | Amazon Technologies, Inc. | Methods and apparatus for optimizing resource utilization in distributed storage systems |
CN106095940A (zh) * | 2016-06-14 | 2016-11-09 | 齐鲁工业大学 | 一种基于任务负载的数据迁移方法 |
CN106293509A (zh) * | 2016-07-12 | 2017-01-04 | 乐视控股(北京)有限公司 | 数据存储方法及系统 |
CN106990924A (zh) * | 2017-04-07 | 2017-07-28 | 广东浪潮大数据研究有限公司 | 一种数据迁移方法和系统 |
CN109428913A (zh) * | 2017-08-25 | 2019-03-05 | 浙江宇视科技有限公司 | 一种存储扩容方法及装置 |
CN108287669A (zh) * | 2018-01-26 | 2018-07-17 | 平安科技(深圳)有限公司 | 数据存储方法、装置及存储介质 |
CN109284220A (zh) * | 2018-10-12 | 2019-01-29 | 深信服科技股份有限公司 | 集群故障恢复时长估算方法、装置、设备及存储介质 |
CN109542622A (zh) * | 2018-11-21 | 2019-03-29 | 新华三技术有限公司 | 一种数据处理方法及装置 |
Non-Patent Citations (2)
Title |
---|
ZHOU, RUIJIN: "Towards Lightweight and Swift Storage Resource Management in Big Data Cloud Era", 《PROCEEDINGS OF THE 29TH ACM INTERNATIONAL CONFERENCE ON SUPERCOMPUTING (ICS"15)》 * |
蔡涛: "面向新型非易失存储器的文件级磨损均衡机制", 《计算机研究与发展》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113271323A (zh) * | 2020-02-14 | 2021-08-17 | 中移(苏州)软件技术有限公司 | 集群扩容方法、装置和存储介质 |
WO2021238250A1 (zh) * | 2020-05-28 | 2021-12-02 | 苏州浪潮智能科技有限公司 | 一种存储集群中存储介质变更减少重构数据的方法及系统 |
CN111917823A (zh) * | 2020-06-17 | 2020-11-10 | 烽火通信科技股份有限公司 | 一种基于分布式存储Ceph的数据重构方法与装置 |
CN111917823B (zh) * | 2020-06-17 | 2022-02-18 | 烽火通信科技股份有限公司 | 一种基于分布式存储Ceph的数据重构方法与装置 |
CN113946274A (zh) * | 2020-07-15 | 2022-01-18 | 浙江宇视科技有限公司 | 数据处理方法、装置、设备及介质 |
CN113946274B (zh) * | 2020-07-15 | 2024-02-02 | 浙江宇视科技有限公司 | 数据处理方法、装置、设备及介质 |
CN112596669A (zh) * | 2020-11-25 | 2021-04-02 | 新华三云计算技术有限公司 | 一种基于分布式存储的数据处理方法及装置 |
CN112486418A (zh) * | 2020-12-14 | 2021-03-12 | 重庆邮电大学 | 一种基于Ceph纠删码的异构混合负载均衡存储方法 |
CN113282241A (zh) * | 2021-05-26 | 2021-08-20 | 上海仪电(集团)有限公司中央研究院 | 一种基于Ceph分布式存储的硬盘权重优化方法及装置 |
CN113282241B (zh) * | 2021-05-26 | 2024-04-09 | 上海仪电(集团)有限公司中央研究院 | 一种基于Ceph分布式存储的硬盘权重优化方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110515724B (zh) | 2022-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110515724A (zh) | 资源配置方法、装置、监视器及机器可读存储介质 | |
US11115466B2 (en) | Distributed network services | |
CN108780386B (zh) | 一种数据存储的方法、装置和系统 | |
US20180091588A1 (en) | Balancing workload across nodes in a message brokering cluster | |
CN106375462B (zh) | 在分布式消息系统中实现消息持久化的方法及装置 | |
EP2710470B1 (en) | Extensible centralized dynamic resource distribution in a clustered data grid | |
US9860317B1 (en) | Throughput throttling for distributed file storage services with varying connection characteristics | |
CN103942112B (zh) | 磁盘容错方法、装置及系统 | |
CN108463988A (zh) | 负载均衡的网络文件访问 | |
CN104301404B (zh) | 一种基于虚拟机的调整业务系统资源的方法及装置 | |
US20150092561A1 (en) | Method and system for managing switch workloads in a cluster | |
US20120198455A1 (en) | System and method for supporting service level quorum in a data grid cluster | |
CN101984632A (zh) | 一种分布式缓存系统中负荷分配方法、装置及服务器 | |
CN106933868B (zh) | 一种调整数据分片分布的方法及数据服务器 | |
CN104050102B (zh) | 一种电信系统中的对象存储方法及装置 | |
CN110515539A (zh) | 基于云存储的云磁盘挂载方法、装置、设备和存储介质 | |
CN109918170A (zh) | 一种云数据中心虚拟机动态资源配置方法及系统 | |
CN107729185B (zh) | 一种故障处理方法及装置 | |
CN104092756A (zh) | 一种基于dht机制的云存储系统的资源动态分配方法 | |
CN108804039A (zh) | 自适应的数据恢复流控方法、装置、电子设备及存储介质 | |
CN104142871B (zh) | 用于数据备份的方法、装置和分布式文件系统 | |
CN107087031A (zh) | 一种存储资源负载均衡方法及装置 | |
CN105227489A (zh) | 一种带宽管理方法及电子设备 | |
CN109992206A (zh) | 数据分布存储方法及相关装置 | |
Wang et al. | Approaches for resilience against cascading failures in cloud datacenters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |