CN111858031B - 一种集群分布式资源调度方法、装置、设备及存储介质 - Google Patents

一种集群分布式资源调度方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111858031B
CN111858031B CN202010567625.1A CN202010567625A CN111858031B CN 111858031 B CN111858031 B CN 111858031B CN 202010567625 A CN202010567625 A CN 202010567625A CN 111858031 B CN111858031 B CN 111858031B
Authority
CN
China
Prior art keywords
virtual machine
host
target
utilization rate
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010567625.1A
Other languages
English (en)
Other versions
CN111858031A (zh
Inventor
解琰
张东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inspur Electronic Information Industry Co Ltd
Guangdong Inspur Smart Computing Technology Co Ltd
Original Assignee
Inspur Electronic Information Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inspur Electronic Information Industry Co Ltd filed Critical Inspur Electronic Information Industry Co Ltd
Priority to CN202010567625.1A priority Critical patent/CN111858031B/zh
Publication of CN111858031A publication Critical patent/CN111858031A/zh
Priority to US18/011,336 priority patent/US20230305880A1/en
Priority to PCT/CN2021/076836 priority patent/WO2021253851A1/zh
Application granted granted Critical
Publication of CN111858031B publication Critical patent/CN111858031B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • G06F9/5088Techniques for rebalancing the load in a distributed system involving task migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45575Starting, stopping, suspending or resuming virtual machine instances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5022Workload threshold
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本发明公开了一种集群分布式资源调度方法,包括:分别获取各主机CPU利用率和各虚拟机CPU利用率;分别对各主机CPU利用率和各虚拟机CPU利用率进行量化操作,得到各主机量化压力值和各虚拟机量化压力值;获取各历史主机压力值和各历史虚拟机压力值;根据各主机分别对应的主机量化压力值、历史主机压力值、各主机内各虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各主机分别对应的目标CPU压力值;根据各目标CPU压力值对各主机内各虚拟机进行热迁移操作。本发明减轻了网络资源的压力,降低了因虚拟机频繁热迁移导致内存数据丢失的概率。本发明还公开了一种集群分布式资源调度装置、设备及存储介质,具有相应技术效果。

Description

一种集群分布式资源调度方法、装置、设备及存储介质
技术领域
本发明涉及分布式存储技术领域,特别是涉及一种集群分布式资源调度方法、装置、设备及计算机可读存储介质。
背景技术
集群分布式资源调度(DRS)是虚拟化平台的一项重要功能,它能够实时评估各主机之间资源压力情况,并根据各项指标对集群中的虚拟机进行调度,以达到集群中的各个主机资源能够均衡地被利用,避免因为某一主机资源紧张导致虚拟机无法正常运行甚至宕机的风险。
现有的集群分布式资源调度方式为实时评估集群内所有主机的CPU资源利用率,再将CPU资源利用率高的主机中的虚拟机利用热迁移的方式转移到当前集群中CPU资源使用率较低的主机上。这种方式的优点是能够根据实时的CPU利用率及时地将高CPU负载的虚拟机迁移至CPU资源空闲的主机上,但如果集群中的某些虚拟机存在某些定时任务,且这些任务在执行过程中会大量占用CPU资源,这种情况下虚拟机会周期性地出现CPU利用率的波动,导致分布式资源调度程序会不停地将虚拟机在集群中的各个主机之间进行热迁移,如此频繁的虚拟机热迁移存在很多的数据安全隐患,且对网络资源也造成了很大的压力。
综上所述,如何有效地解决现有的集群分布式资源调度方式存在数据安全隐患,网络资源压力大等问题,是目前本领域技术人员急需解决的问题。
发明内容
本发明的目的是提供一种集群分布式资源调度方法,该方法减轻了网络资源的压力,降低了因虚拟机频繁热迁移导致内存数据丢失的概率;本发明的另一目的是提供一种集群分布式资源调度装置、设备及计算机可读存储介质。
为解决上述技术问题,本发明提供如下技术方案:
一种集群分布式资源调度方法,包括:
分别获取集群中各主机的主机CPU利用率和各所述主机内各虚拟机的虚拟机CPU利用率;
分别对各所述主机CPU利用率和各所述虚拟机CPU利用率进行量化操作,得到各主机量化压力值和各虚拟机量化压力值;
获取各所述主机分别对应的历史主机压力值和各所述虚拟机分别对应的历史虚拟机压力值;
根据各所述主机分别对应的主机量化压力值、历史主机压力值、各所述主机内各所述虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各所述主机分别对应的目标CPU压力值;
根据各所述目标CPU压力值对各所述主机内各所述虚拟机进行热迁移操作。
在本发明的一种具体实施方式中,分别获取集群中各主机的主机CPU利用率和各所述主机内各虚拟机的虚拟机CPU利用率,包括:
分别获取各所述主机CPU利用率和各所述虚拟机内各vCPU分别对应的vCPU利用率;
分别对各所述主机CPU利用率和各所述虚拟机CPU利用率进行量化操作,包括:
判断是否存在vCPU为满负荷的虚拟机;
若是,则将存在vCPU为满负荷的虚拟机确定为目标虚拟机;
按照第一预设压力间隔对所述目标虚拟机对应的目标虚拟机CPU利用率进行第一量化操作;从所述目标虚拟机所在的目标主机中选取预设数量的vCPU添加至所述目标虚拟机,并按照第二预设压力间隔对所述目标虚拟机CPU利用率进行第二量化操作;
判断是否达到预设vCPU停止添加触发条件;
若否,则重复执行按照第一预设压力间隔对所述目标虚拟机对应的目标虚拟机CPU利用率进行第一量化操作的步骤;
若是,则当达到的所述预设vCPU停止添加触发条件为所述目标主机的资源利用率达到预设阈值时,按照第三预设压力间隔对所述目标主机对应的目标主机CPU利用率进行量化操作。
在本发明的一种具体实施方式中,判断所述目标主机的资源利用率是否达到预设阈值,包括:
判断所述目标虚拟机的vCPU数量是否达到所述目标主机中vCPU总数量的预设比例值。
在本发明的一种具体实施方式中,判断所述目标主机的资源利用率是否达到预设阈值,包括:
判断所述目标主机CPU利用率是否达到预设利用率阈值。
在本发明的一种具体实施方式中,按照第三预设压力间隔对所述目标主机对应的目标主机CPU利用率进行量化操作,包括:
按照预设时间间隔及所述第三预设压力间隔对所述目标主机CPU利用率进行量化操作。
在本发明的一种具体实施方式中,根据各所述主机分别对应的主机量化压力值、历史主机压力值、各所述主机内各所述虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各所述主机分别对应的目标CPU压力值,包括:
按照所述预设时间间隔对各所述主机分别对应的主机量化压力值、历史主机压力值、各所述主机内各所述虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值进行累加操作,得到各所述主机分别对应的目标CPU压力值;
根据各所述目标CPU压力值对各所述主机内各所述虚拟机进行热迁移操作,包括:
判断是否存在超出预设压力值的目标CPU压力值;
若是,则对各所述目标CPU压力值进行均值计算,得到平均CPU压力值;
根据各所述目标CPU压力值与所述平均CPU压力值之间的大小关系,对各所述主机内各所述虚拟机进行热迁移操作。
一种集群分布式资源调度装置,包括:
利用率获取模块,用于分别获取集群中各主机的主机CPU利用率和各所述主机内各虚拟机的虚拟机CPU利用率;
量化压力值获得模块,用于分别对各所述主机CPU利用率和各所述虚拟机CPU利用率进行量化操作,得到各主机量化压力值和各虚拟机量化压力值;
历史压力值获得模块,用于获取各所述主机分别对应的历史主机压力值和各所述虚拟机分别对应的历史虚拟机压力值;
压力值计算模块,用于根据各所述主机分别对应的主机量化压力值、历史主机压力值、各所述主机内各所述虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各所述主机分别对应的目标CPU压力值;
虚拟机迁移模块,用于根据各所述目标CPU压力值对各所述主机内各所述虚拟机进行热迁移操作。
在本发明的一种具体实施方式中,所述利用率获取模块具体为分别获取各所述主机CPU利用率和各所述虚拟机内各vCPU分别对应的vCPU利用率的模块;
所述量化压力值获得模块包括:
第一判断子模块,用于判断是否存在vCPU为满负荷的虚拟机;
目标虚拟机确定子模块,用于当确定存在vCPU利用率为100%的虚拟机时,将存在vCPU为满负荷的虚拟机确定为目标虚拟机;
第一量化子模块,用于按照第一预设压力间隔对所述目标虚拟机对应的目标虚拟机CPU利用率进行第一量化操作;
第二量化子模块,用于从所述目标虚拟机所在的目标主机中选取预设数量的vCPU添加至所述目标虚拟机,并按照第二预设压力间隔对所述目标虚拟机CPU利用率进行第二量化操作;
第二判断子模块,用于判断是否达到预设vCPU停止添加触发条件;
重复执行子模块,用于当确定未达到预设vCPU停止添加触发条件时,重复执行所述按照第一预设压力间隔对所述目标虚拟机对应的目标虚拟机CPU利用率进行第一量化操作的步骤;
第三量化子模块,用于当确定达到所述预设vCPU停止添加触发条件,且达到的所述预设vCPU停止添加触发条件为所述目标主机的资源利用率达到预设阈值时,按照第三预设压力间隔对所述目标主机对应的目标主机CPU利用率进行量化操作。
一种集群分布式资源调度设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如前所述集群分布式资源调度方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如前所述集群分布式资源调度方法的步骤。
本发明提供了一种集群分布式资源调度方法:分别获取集群中各主机的主机CPU利用率和各主机内各虚拟机的虚拟机CPU利用率;分别对各主机CPU利用率和各虚拟机CPU利用率进行量化操作,得到各主机量化压力值和各虚拟机量化压力值;获取各主机分别对应的历史主机压力值和各虚拟机分别对应的历史虚拟机压力值;根据各主机分别对应的主机量化压力值、历史主机压力值、各主机内各虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各主机分别对应的目标CPU压力值;根据各目标CPU压力值对各主机内各虚拟机进行热迁移操作。
通过上述技术方案可知,通过对虚拟机CPU利用率和主机CPU利用率进行量化操作,并融入各主机对应的历史主机压力值、主机内各虚拟机的历史虚拟机压力值计算各主机分别对应的目标CPU压力值,随着分布式资源调度的迭代进行,各主机的CPU利用率趋于稳定,从而减少了主机间热迁移的调度次数,减轻了网络资源的压力,降低了因虚拟机频繁热迁移导致内存数据丢失的概率。
相应的,本发明实施例还提供了与上述集群分布式资源调度方法相对应的集群分布式资源调度装置、设备和计算机可读存储介质,具有上述技术效果,在此不再赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中集群分布式资源调度方法的一种实施流程图;
图2为本发明实施例中集群分布式资源调度方法的另一种实施流程图;
图3为本发明实施例中一种集群分布式资源调度装置的结构框图;
图4为本发明实施例中一种集群分布式资源调度设备的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
参见图1,图1为本发明实施例中集群分布式资源调度方法的一种实施流程图,该方法可以包括以下步骤:
S101:分别获取集群中各主机的主机CPU利用率和各主机内各虚拟机的虚拟机CPU利用率。
在集群中各主机及各虚拟机运行的过程中,分别获取集群中各主机的主机CPU利用率和各主机内各虚拟机的虚拟机CPU利用率。
S102:分别对各主机CPU利用率和各虚拟机CPU利用率进行量化操作,得到各主机量化压力值和各虚拟机量化压力值。
在获取到集群中各主机的主机CPU利用率和各主机内各虚拟机的虚拟机CPU利用率之后,分别对各主机CPU利用率和各虚拟机CPU利用率进行量化操作,得到各主机量化压力值和各虚拟机量化压力值。从而通过主机量化压力值标示对应主机的资源使用情况,通过虚拟机量化压力值标示对应虚拟机的CPU负载情况。
S103:获取各主机分别对应的历史主机压力值和各虚拟机分别对应的历史虚拟机压力值。
预先存储有各主机分别对应的历史主机压力值,以及各虚拟机分别对应的历史虚拟机压力值。获取各主机分别对应的历史主机压力值和各虚拟机分别对应的历史虚拟机压力值。
S104:根据各主机分别对应的主机量化压力值、历史主机压力值、各主机内各虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各主机分别对应的目标CPU压力值。
在通过量化操作,得到各主机量化压力值和各虚拟机量化压力值,并获取到各主机分别对应的历史主机压力值和各虚拟机分别对应的历史虚拟机压力值之后,根据各主机分别对应的主机量化压力值、历史主机压力值、各主机内各虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各主机分别对应的目标CPU压力值。具体的,可以通过对每个主机对应的主机量化压力值、历史主机压力值、该主机内各虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值进行累加操作,得到对应的目标CPU压力值。
S105:根据各目标CPU压力值对各主机内各虚拟机进行热迁移操作。
在得到各主机分别对应的目标CPU压力值之后,根据各目标CPU压力值对各主机内各虚拟机进行热迁移操作。从而将目标CPU压力值较大的主机中部署的虚拟机迁移到目标CPU压力值较小的主机中,达到集群CPU资源平衡。通过将虚拟机的历史CPU使用率和主机的历史CPU使用率量化成了一定的数值,即历史虚拟机压力值和历史主机压力值,将历史虚拟机压力值和历史主机压力值参与到对主机的目标CPU压力值计算,因此每次分布式资源调度时能够兼顾虚拟机和主机的历史CPU使用率,使得调度程序在主机CPU使用率周期性变化的场景中能够最大程度地发挥其功效。
通过上述技术方案可知,通过对虚拟机CPU利用率和主机CPU利用率进行量化操作,并融入各主机对应的历史主机压力值、主机内各虚拟机的历史虚拟机压力值计算各主机分别对应的目标CPU压力值,随着分布式资源调度的迭代进行,各主机的CPU利用率趋于稳定,从而减少了主机间热迁移的调度次数,减轻了网络资源的压力,降低了因虚拟机频繁热迁移导致内存数据丢失的概率。
需要说明的是,基于上述实施例一,本发明实施例还提供了相应的改进方案。在后续实施例中涉及与上述实施例一中相同步骤或相应步骤之间可相互参考,相应的有益效果也可相互参照,在下文的改进实施例中不再一一赘述。
实施例二:
参见图2,图2为本发明实施例中集群分布式资源调度方法的另一种实施流程图,该方法可以包括以下步骤:
S201:分别获取各主机CPU利用率和各虚拟机内各vCPU分别对应的vCPU利用率。
在集群中各主机及各虚拟机运行的过程中,分别获取各主机CPU利用率和各虚拟机内各vCPU分别对应的vCPU利用率。
S202:判断是否存在vCPU为满负荷的虚拟机,若是,则执行步骤S203,若否,则不做处理。
在获取到各虚拟机内各vCPU分别对应的vCPU利用率之后,判断是否存在vCPU为满负荷的虚拟机,即判断是否存在vCPU利用率为100%的虚拟机,若是,则说明当前虚拟机正在运行高CPU负载的应用,处于满负荷运行,且当前虚拟机的vCPU数量可能已无法满足内部应用的需求,在这种情况下,执行步骤S203,若否,则说明当前虚拟机暂且能够满足内部应用的需求,不需要做任何处理。
S203:将存在vCPU为满负荷的虚拟机确定为目标虚拟机。
当确定存在vCPU为满负荷的虚拟机时,将存在vCPU为满负荷的虚拟机确定为目标虚拟机。
S204:按照第一预设压力间隔对目标虚拟机对应的目标虚拟机CPU利用率进行第一量化操作。
预先设置当检测到存在vCPU为满负荷的虚拟机时,对相应的虚拟机CPU利用率进行量化的第一预设压力间隔,如可以设置为+10,即当检测到虚拟机存在vCPU为满负荷的vCPU时,对该虚拟机的CPU压力值加10。按照第一预设压力间隔对目标虚拟机对应的目标虚拟机CPU利用率进行第一量化操作。
S205:从目标虚拟机所在的目标主机中选取预设数量的vCPU添加至目标虚拟机,并按照第二预设压力间隔对目标虚拟机CPU利用率进行第二量化操作。
预先设置通过添加vCPU方式缓解虚拟机负荷时,对该虚拟机CPU利用率进行量化的第二预设压力间隔,如可以设置为+20,即当检测到存在vCPU为满负荷的虚拟机时,为该虚拟机添加两个vCPU,对该虚拟机的CPU压力值加20。在确定出存在vCPU为满负荷的目标虚拟机之后,从目标虚拟机所在的目标主机中选取预设数量的vCPU添加至目标虚拟机,即进行vCPU热插,以扩展目标虚拟机的性能,并按照第二预设压力间隔对目标虚拟机CPU利用率进行第二量化操作。
S206:判断是否达到预设vCPU停止添加触发条件;若是,则执行步骤S207,若否,则执行步骤S204。
预先设置vCPU停止添加触发条件,在为目标虚拟机添加预设数量的vCPU之后,判断是否达到预设vCPU停止添加触发条件,若是,则执行步骤S207,可以每隔五分钟进行一次判断是否达到vCPU停止添加触发条件。vCPU停止添加触发条件可以为目标主机的资源利用率达到预设阈值,即目标主机CPU利用率达到预设的较高的利用率,或者经对目标虚拟机多次添加vCPU,使得目标虚拟机的vCPU的数量占目标主机中vCPU总数量的比例达到预设的较高的比例值;vCPU停止添加触发条件还可以为不存在vCPU为满负荷的虚拟机。
在本发明的一种具体实施方式中,判断目标主机的资源利用率是否达到预设阈值,包括:
判断目标虚拟机的vCPU数量是否达到目标主机中vCPU总数量的预设比例值。
预先设置一个比例值,可以通过判断目标虚拟机的vCPU数量是否达到目标主机中vCPU总数量的预设比例值的方式,确定是否达到预设vCPU停止添加触发条件。如预设比例值可以设置为80%。
在本发明的一种具体实施方式中,判断目标主机的资源利用率是否达到预设阈值,包括:
判断目标主机CPU利用率是否达到预设利用率阈值。
预先设置主机CPU的利用率阈值,可以通过判断目标主机CPU利用率是否达到预设利用率阈值的方式确定是否达到预设vCPU停止添加触发条件。如预设利用率阈值可以设置为80%。
S207:当达到的预设vCPU停止添加触发条件为目标主机的资源利用率达到预设阈值时,按照预设时间间隔及第三预设压力间隔对目标主机CPU利用率进行量化操作。
预先设置当达到的预设vCPU停止添加触发条件为目标主机的资源利用率达到预设阈值时,对相应的主机CPU利用率进行量化的第三预设压力间隔,如可以设置为+20,即当达到预设vCPU停止添加触发条件时,对该主机的CPU压力值加20。当达到的预设vCPU停止添加触发条件为目标主机的资源利用率达到预设阈值时,按照预设时间间隔及第三预设压力间隔对目标主机CPU利用率进行量化操作。
需要说明的是,预设时间间隔可以根据实际情况进行设定和调整,本发明实施例对此不作限定,如可以设置为一分钟,即当检测到达到预设vCPU停止添加触发条件时,一分钟对目标主机CPU利用率进行一次量化。
S208:得到各主机量化压力值和各虚拟机量化压力值。
S209:获取各主机分别对应的历史主机压力值和各虚拟机分别对应的历史虚拟机压力值。
S210:按照预设时间间隔对各主机分别对应的主机量化压力值、历史主机压力值、各主机内各虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值进行累加操作,得到各主机分别对应的目标CPU压力值。
在得到各主机量化压力值和各虚拟机量化压力值,并获取各主机分别对应的历史主机压力值和各虚拟机分别对应的历史虚拟机压力值之后,按照预设时间间隔对各主机分别对应的主机量化压力值、历史主机压力值、各主机内各虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值进行累加操作,得到各主机分别对应的目标CPU压力值。
S211:判断是否存在超出预设压力值的目标CPU压力值,若是,则执行步骤S212,若否,则不做处理。
预先设置参考压力值,在通过累加计算,得到各主机分别对应的目标CPU压力值之后,判断是否存在超出预设压力值的目标CPU压力值,若是,则说明存在CPU资源不足的主机,继续执行步骤S212,若否,则说明集群中各主机的CPU资源暂且够用,不需要做任何处理。
S212:对各目标CPU压力值进行均值计算,得到平均CPU压力值。
当确定存在超出预设压力值的目标CPU压力值时,对各目标CPU压力值进行均值计算,得到平均CPU压力值。
S213:根据各目标CPU压力值与平均CPU压力值之间的大小关系,对各主机内各虚拟机进行热迁移操作。
在计算得到各主机分别对应的目标CPU压力值,并计算得到各主机的平均CPU压力值之后,根据各目标CPU压力值与平均CPU压力值之间的大小关系,对各主机内各虚拟机进行热迁移操作。通过将目标CPU压力值较小的主机中部署的虚拟机迁移到目标CPU压力值较大的主机中,从而达到集群CPU资源平衡。
相应于上面的方法实施例,本发明实施例还提供了一种集群分布式资源调度装置,下文描述的集群分布式资源调度装置与上文描述的集群分布式资源调度方法可相互对应参照。
参见图3,图3为本发明实施例中一种集群分布式资源调度装置的结构框图,该装置可以包括:
利用率获取模块31,用于分别获取集群中各主机的主机CPU利用率和各主机内各虚拟机的虚拟机CPU利用率;
量化压力值获得模块32,用于分别对各主机CPU利用率和各虚拟机CPU利用率进行量化操作,得到各主机量化压力值和各虚拟机量化压力值;
历史压力值获得模块33,用于获取各主机分别对应的历史主机压力值和各虚拟机分别对应的历史虚拟机压力值;
压力值计算模块34,用于根据各主机分别对应的主机量化压力值、历史主机压力值、各主机内各虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各主机分别对应的目标CPU压力值;
虚拟机迁移模块35,用于根据各目标CPU压力值对各主机内各虚拟机进行热迁移操作。
通过上述技术方案可知,通过对虚拟机CPU利用率和主机CPU利用率进行量化操作,并融入各主机对应的历史主机压力值、主机内各虚拟机的历史虚拟机压力值计算各主机分别对应的目标CPU压力值,随着分布式资源调度的迭代进行,各主机的CPU利用率趋于稳定,从而减少了主机间热迁移的调度次数,减轻了网络资源的压力,降低了因虚拟机频繁热迁移导致内存数据丢失的概率。
在本发明的一种具体实施方式中,利用率获取模块31具体为分别获取各主机CPU利用率和各虚拟机内各vCPU分别对应的vCPU利用率的模块;
量化压力值获得模块32包括:
第一判断子模块,用于判断是否存在vCPU为满负荷的虚拟机;
目标虚拟机确定子模块,用于当确定存在vCPU为满负荷的虚拟机时,将存在vCPU为满负荷的虚拟机确定为目标虚拟机;
第一量化子模块,用于按照第一预设压力间隔对目标虚拟机对应的目标虚拟机CPU利用率进行第一量化操作;
第二量化子模块,用于从目标虚拟机所在的目标主机中选取预设数量的vCPU添加至目标虚拟机,并按照第二预设压力间隔对目标虚拟机CPU利用率进行第二量化操作;
第二判断子模块,用于判断是否达到预设vCPU停止添加触发条件;
重复执行子模块,用于当确定未达到预设vCPU停止添加触发条件时,重复执行按照第一预设压力间隔对目标虚拟机对应的目标虚拟机CPU利用率进行第一量化操作的步骤;
第三量化子模块,用于当确定达到预设vCPU停止添加触发条件,且达到的预设vCPU停止添加触发条件为目标主机的资源利用率达到预设阈值时,按照第三预设压力间隔对目标主机对应的目标主机CPU利用率进行量化操作。
在本发明的一种具体实施方式中,第三量化子模块包括判断单元,
判断单元,用于判断目标虚拟机的vCPU数量是否达到目标主机中vCPU总数量的预设比例值。
在本发明的一种具体实施方式中,第三量化子模块包括判断单元,
判断单元,用于判断目标主机CPU利用率是否达到预设利用率阈值。
在本发明的一种具体实施方式中,第三量化子模块具体为按照预设时间间隔及第三预设压力间隔对目标主机CPU利用率进行量化操作的模块。
在本发明的一种具体实施方式中,压力值计算模块34具体为按照预设时间间隔对各主机分别对应的主机量化压力值、历史主机压力值、各主机内各虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值进行累加操作,得到各主机分别对应的目标CPU压力值的模块;
虚拟机迁移模块35包括:
第三判断子模块,用于判断是否存在超出预设压力值的目标CPU压力值;
均值计算子模块,用于当确定存在超出预设压力值的目标CPU压力值时,对各目标CPU压力值进行均值计算,得到平均CPU压力值;
虚拟机迁移子模块,用于根据各目标CPU压力值与平均CPU压力值之间的大小关系,对各主机内各虚拟机进行热迁移操作。
相应于上面的方法实施例,参见图4,图4为本发明所提供的设备的示意图,该设备可以包括:
存储器41,用于存储计算机程序;
处理器42,用于执行上述存储器41存储的计算机程序时可实现如下步骤:
分别获取集群中各主机的主机CPU利用率和各主机内各虚拟机的虚拟机CPU利用率;分别对各主机CPU利用率和各虚拟机CPU利用率进行量化操作,得到各主机量化压力值和各虚拟机量化压力值;获取各主机分别对应的历史主机压力值和各虚拟机分别对应的历史虚拟机压力值;根据各主机分别对应的主机量化压力值、历史主机压力值、各主机内各虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各主机分别对应的目标CPU压力值;根据各目标CPU压力值对各主机内各虚拟机进行热迁移操作。
对于本发明提供的设备的介绍请参照上述方法实施例,本发明在此不做赘述。
相应于上面的方法实施例,本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时可实现如下步骤:
分别获取集群中各主机的主机CPU利用率和各主机内各虚拟机的虚拟机CPU利用率;分别对各主机CPU利用率和各虚拟机CPU利用率进行量化操作,得到各主机量化压力值和各虚拟机量化压力值;获取各主机分别对应的历史主机压力值和各虚拟机分别对应的历史虚拟机压力值;根据各主机分别对应的主机量化压力值、历史主机压力值、各主机内各虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各主机分别对应的目标CPU压力值;根据各目标CPU压力值对各主机内各虚拟机进行热迁移操作。
该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
对于本发明提供的计算机可读存储介质的介绍请参照上述方法实施例,本发明在此不做赘述。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置、设备及计算机可读存储介质而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的技术方案及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (8)

1.一种集群分布式资源调度方法,其特征在于,包括:
分别获取集群中各主机的主机CPU利用率和各所述主机内各虚拟机的虚拟机CPU利用率;
分别对各所述主机CPU利用率和各所述虚拟机CPU利用率进行量化操作,得到各主机量化压力值和各虚拟机量化压力值;
获取各所述主机分别对应的历史主机压力值和各所述虚拟机分别对应的历史虚拟机压力值;
根据各所述主机分别对应的主机量化压力值、历史主机压力值、各所述主机内各所述虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各所述主机分别对应的目标CPU压力值;
根据各所述目标CPU压力值对各所述主机内各所述虚拟机进行热迁移操作;
分别获取集群中各主机的主机CPU利用率和各所述主机内各虚拟机的虚拟机CPU利用率,包括:
分别获取各所述主机CPU利用率和各所述虚拟机内各vCPU分别对应的vCPU利用率;
分别对各所述主机CPU利用率和各所述虚拟机CPU利用率进行量化操作,包括:
判断是否存在vCPU为满负荷的虚拟机;
若是,则将存在vCPU为满负荷的虚拟机确定为目标虚拟机;
按照第一预设压力间隔对所述目标虚拟机对应的目标虚拟机CPU利用率进行第一量化操作;
从所述目标虚拟机所在的目标主机中选取预设数量的vCPU添加至所述目标虚拟机,并按照第二预设压力间隔对所述目标虚拟机CPU利用率进行第二量化操作;
判断是否达到预设vCPU停止添加触发条件;
若否,则重复执行所述按照第一预设压力间隔对所述目标虚拟机对应的目标虚拟机CPU利用率进行第一量化操作的步骤;
若是,则当达到的所述预设vCPU停止添加触发条件为所述目标主机的资源利用率达到预设阈值时,按照第三预设压力间隔对所述目标主机对应的目标主机CPU利用率进行量化操作;
根据各所述主机分别对应的主机量化压力值、历史主机压力值、各所述主机内各所述虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各所述主机分别对应的目标CPU压力值,包括:
按照预设时间间隔对各所述主机分别对应的主机量化压力值、历史主机压力值、各所述主机内各所述虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值进行累加操作,得到各所述主机分别对应的目标CPU压力值。
2.根据权利要求1所述的集群分布式资源调度方法,其特征在于,判断所述目标主机的资源利用率是否达到预设阈值,包括:
判断所述目标虚拟机的vCPU数量是否达到所述目标主机中vCPU总数量的预设比例值。
3.根据权利要求1所述的集群分布式资源调度方法,其特征在于,判断所述目标主机的资源利用率是否达到预设阈值,包括:
判断所述目标主机CPU利用率是否达到预设利用率阈值。
4.根据权利要求1至3任一项所述的集群分布式资源调度方法,其特征在于,按照第三预设压力间隔对所述目标主机对应的目标主机CPU利用率进行量化操作,包括:
按照预设时间间隔及所述第三预设压力间隔对所述目标主机CPU利用率进行量化操作。
5.根据权利要求4所述的集群分布式资源调度方法,其特征在于,根据各所述目标CPU压力值对各所述主机内各所述虚拟机进行热迁移操作,包括:
判断是否存在超出预设压力值的目标CPU压力值;
若是,则对各所述目标CPU压力值进行均值计算,得到平均CPU压力值;
根据各所述目标CPU压力值与所述平均CPU压力值之间的大小关系,对各所述主机内各所述虚拟机进行热迁移操作。
6.一种集群分布式资源调度装置,其特征在于,包括:
利用率获取模块,用于分别获取集群中各主机的主机CPU利用率和各所述主机内各虚拟机的虚拟机CPU利用率;
量化压力值获得模块,用于分别对各所述主机CPU利用率和各所述虚拟机CPU利用率进行量化操作,得到各主机量化压力值和各虚拟机量化压力值;
历史压力值获得模块,用于获取各所述主机分别对应的历史主机压力值和各所述虚拟机分别对应的历史虚拟机压力值;
压力值计算模块,用于根据各所述主机分别对应的主机量化压力值、历史主机压力值、各所述主机内各所述虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值,计算各所述主机分别对应的目标CPU压力值;
虚拟机迁移模块,用于根据各所述目标CPU压力值对各所述主机内各所述虚拟机进行热迁移操作;
所述利用率获取模块具体为分别获取各所述主机CPU利用率和各所述虚拟机内各vCPU分别对应的vCPU利用率的模块;
所述量化压力值获得模块包括:
第一判断子模块,用于判断是否存在vCPU为满负荷的虚拟机;
目标虚拟机确定子模块,用于当确定存在vCPU为满负荷的虚拟机时,将存在vCPU为满负荷的虚拟机确定为目标虚拟机;
第一量化子模块,用于按照第一预设压力间隔对所述目标虚拟机对应的目标虚拟机CPU利用率进行第一量化操作;
第二量化子模块,用于从所述目标虚拟机所在的目标主机中选取预设数量的vCPU添加至所述目标虚拟机,并按照第二预设压力间隔对所述目标虚拟机CPU利用率进行第二量化操作;
第二判断子模块,用于判断是否达到预设vCPU停止添加触发条件;
重复执行子模块,用于当确定未达到预设vCPU停止添加触发条件时,重复执行所述按照第一预设压力间隔对所述目标虚拟机对应的目标虚拟机CPU利用率进行第一量化操作的步骤;
第三量化子模块,用于当确定达到所述预设vCPU停止添加触发条件,且达到的所述预设vCPU停止添加触发条件为所述目标主机的资源利用率达到预设阈值时,按照第三预设压力间隔对所述目标主机对应的目标主机CPU利用率进行量化操作;
压力值计算模块具体为按照预设时间间隔对各所述主机分别对应的主机量化压力值、历史主机压力值、各所述主机内各所述虚拟机分别对应的虚拟机量化压力值、历史虚拟机压力值进行累加操作,得到各所述主机分别对应的目标CPU压力值。
7.一种集群分布式资源调度设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至5任一项所述集群分布式资源调度方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述集群分布式资源调度方法的步骤。
CN202010567625.1A 2020-06-19 2020-06-19 一种集群分布式资源调度方法、装置、设备及存储介质 Active CN111858031B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010567625.1A CN111858031B (zh) 2020-06-19 2020-06-19 一种集群分布式资源调度方法、装置、设备及存储介质
US18/011,336 US20230305880A1 (en) 2020-06-19 2021-02-19 Cluster distributed resource scheduling method, apparatus and device, and storage medium
PCT/CN2021/076836 WO2021253851A1 (zh) 2020-06-19 2021-02-19 一种集群分布式资源调度方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010567625.1A CN111858031B (zh) 2020-06-19 2020-06-19 一种集群分布式资源调度方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN111858031A CN111858031A (zh) 2020-10-30
CN111858031B true CN111858031B (zh) 2022-06-07

Family

ID=72986984

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010567625.1A Active CN111858031B (zh) 2020-06-19 2020-06-19 一种集群分布式资源调度方法、装置、设备及存储介质

Country Status (3)

Country Link
US (1) US20230305880A1 (zh)
CN (1) CN111858031B (zh)
WO (1) WO2021253851A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111858031B (zh) * 2020-06-19 2022-06-07 浪潮电子信息产业股份有限公司 一种集群分布式资源调度方法、装置、设备及存储介质
CN113032098B (zh) * 2021-03-25 2024-04-09 深信服科技股份有限公司 一种虚拟机调度方法、装置、设备及可读存储介质
CN115878329A (zh) * 2023-02-02 2023-03-31 天翼云科技有限公司 宿主机资源调度方法、装置、电子设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103605574A (zh) * 2013-11-18 2014-02-26 浪潮(北京)电子信息产业有限公司 一种服务器集群中的虚拟机资源调度方法及系统
CN104536803A (zh) * 2014-12-23 2015-04-22 西安电子科技大学 一种基于组合优化的虚拟机调度方法
CN106250206A (zh) * 2016-07-27 2016-12-21 云南电网有限责任公司信息中心 一种基于虚拟机的资源池化自动测算方法
CN106293871A (zh) * 2016-07-22 2017-01-04 浪潮(北京)电子信息产业有限公司 一种集群虚拟机的资源调度方法
CN107295096A (zh) * 2017-07-14 2017-10-24 中国石油大学(华东) 一种私有云计算服务平台、管理方法及系统
US10055248B1 (en) * 2017-02-22 2018-08-21 Red Hat, Inc. Virtual processor scheduling via memory monitoring

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102508718B (zh) * 2011-11-22 2015-04-15 杭州华三通信技术有限公司 一种虚拟机负载均衡方法和装置
CN103617076A (zh) * 2013-10-31 2014-03-05 中兴通讯股份有限公司 一种虚拟化资源的调度方法和系统及服务端
CN104714851B (zh) * 2015-03-30 2018-11-02 中国联合网络通信集团有限公司 一种实现资源分配的方法及装置
CN107506233B (zh) * 2016-06-14 2020-12-01 深信服科技股份有限公司 一种虚拟资源调度方法、装置及服务器
CN106201700A (zh) * 2016-07-19 2016-12-07 北京工业大学 一种虚拟机在线迁移的调度方法
CN108667859A (zh) * 2017-03-27 2018-10-16 中兴通讯股份有限公司 一种实现资源调度的方法及装置
CN106970831B (zh) * 2017-05-15 2019-06-11 金航数码科技有限责任公司 一种面向云平台的虚拟机资源动态调度系统及方法
CN111858031B (zh) * 2020-06-19 2022-06-07 浪潮电子信息产业股份有限公司 一种集群分布式资源调度方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103605574A (zh) * 2013-11-18 2014-02-26 浪潮(北京)电子信息产业有限公司 一种服务器集群中的虚拟机资源调度方法及系统
CN104536803A (zh) * 2014-12-23 2015-04-22 西安电子科技大学 一种基于组合优化的虚拟机调度方法
CN106293871A (zh) * 2016-07-22 2017-01-04 浪潮(北京)电子信息产业有限公司 一种集群虚拟机的资源调度方法
CN106250206A (zh) * 2016-07-27 2016-12-21 云南电网有限责任公司信息中心 一种基于虚拟机的资源池化自动测算方法
US10055248B1 (en) * 2017-02-22 2018-08-21 Red Hat, Inc. Virtual processor scheduling via memory monitoring
CN107295096A (zh) * 2017-07-14 2017-10-24 中国石油大学(华东) 一种私有云计算服务平台、管理方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"The multi-processor load balance scheduler based on XEN";Zhiyun Zheng等;《2012 International Conference on Systems and Informatics (ICSAI2012)》;20120625;全文 *
一种面向分布式机器学习的云计算资源调度方法;刘永波等;《计算机与数字工程》;20191220(第12期);全文 *

Also Published As

Publication number Publication date
WO2021253851A1 (zh) 2021-12-23
US20230305880A1 (en) 2023-09-28
CN111858031A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
CN111858031B (zh) 一种集群分布式资源调度方法、装置、设备及存储介质
CN107247651B (zh) 云计算平台监测预警方法和系统
CN106293881B (zh) 一种基于非一致性i/o访问构架的性能监控器及其监控方法
CN109491788B (zh) 一种虚拟化平台负载均衡实现方法及装置
CN109408399B (zh) 一种算力估计方法、装置、设备和存储介质
CN107220108B (zh) 一种实现云数据中心负载均衡的方法和系统
CN107918579A (zh) 一种批量生成基线数据的方法和装置
CN111966449A (zh) 一种虚拟机备份管理方法、系统、终端及存储介质
CN114866563A (zh) 扩容方法、装置、系统和存储介质
CN112749013A (zh) 线程负载的检测方法、装置、电子设备及存储介质
CN110096339B (zh) 一种基于系统负载实现的扩缩容配置推荐系统及方法
CN109857633B (zh) 一种任务算力估计方法、装置和存储介质
CN107330061B (zh) 一种基于分布式存储的文件删除方法及装置
CN106961490A (zh) 一种资源监控方法及系统、一种本地服务器
CN109408225B (zh) 资源扩容方法、装置、计算机设备以及存储介质
CN110932935A (zh) 资源控制方法、装置、设备及计算机存储介质
CN109150792B (zh) 一种提高数据存储安全性方法及装置
CN111580937B (zh) 一种面向飞腾多核/众核混合集群的虚拟机自动调度方法
CN113419863B (zh) 一种基于节点能力的数据分配处理方法及装置
CN104283943A (zh) 一种集群服务器的通信优化方法
CN110851286B (zh) 线程管理方法、装置、电子设备及存储介质
CN114490091A (zh) 工业数据采集管理系统中监控规则引擎性能的方法及装置
CN113992378A (zh) 一种安全监测方法、装置、电子设备及存储介质
CN110493071B (zh) 消息系统资源均衡装置、方法及设备
CN113806050A (zh) 一种计算资源的处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231121

Address after: Room 2301, No. 395 Linjiang Avenue, Tianhe District, Guangzhou City, Guangdong Province, 510655 (Location: Self made Unit 01)

Patentee after: Guangdong Inspur Intelligent Computing Technology Co.,Ltd.

Patentee after: INSPUR ELECTRONIC INFORMATION INDUSTRY Co.,Ltd.

Address before: No. 1036, Shandong high tech Zone wave road, Ji'nan, Shandong

Patentee before: INSPUR ELECTRONIC INFORMATION INDUSTRY Co.,Ltd.

TR01 Transfer of patent right