CN117472551B - 基于gpu集成的云计算硬件加速控制系统及方法 - Google Patents

基于gpu集成的云计算硬件加速控制系统及方法 Download PDF

Info

Publication number
CN117472551B
CN117472551B CN202311822252.8A CN202311822252A CN117472551B CN 117472551 B CN117472551 B CN 117472551B CN 202311822252 A CN202311822252 A CN 202311822252A CN 117472551 B CN117472551 B CN 117472551B
Authority
CN
China
Prior art keywords
gpu
computing
task
gpu cluster
cluster node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311822252.8A
Other languages
English (en)
Other versions
CN117472551A (zh
Inventor
王晓丹
王曦
颜鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Honasoft Technology Co ltd
Original Assignee
Sichuan Honasoft Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Honasoft Technology Co ltd filed Critical Sichuan Honasoft Technology Co ltd
Priority to CN202311822252.8A priority Critical patent/CN117472551B/zh
Publication of CN117472551A publication Critical patent/CN117472551A/zh
Application granted granted Critical
Publication of CN117472551B publication Critical patent/CN117472551B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/20Cooling means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Supply And Distribution Of Alternating Current (AREA)

Abstract

本发明设计GPU调度领域,公开了基于GPU集成的云计算硬件加速控制系统及方法,包括如下步骤:根据GPU集群节点包括的GPU单元的状态和参数,得到对应GPU集群节点的参数和状态;算力容器构建模块根据算力任务请求的算力以及各GPU集群节点预计释放时长,得到预计最小释放时长,根据预计最小释放时长包含的GPU集群节点,建立对应算力任务的GPU集群节点列表;将对应算力任务的算力容器信息发送到对应算力任务的GPU集群节点列表中的各个GPU集群节点的算力任务执行序列;GPU集群节点执行完一个算力任务后,连接到对应算力任务的算力容器,完成基于GPU集成的云计算硬件加速控制。通过本发明,可以实现对GPU集群节点进行灵活调度,能够满足不同的GPU算力需求。

Description

基于GPU集成的云计算硬件加速控制系统及方法
技术领域
本发明涉及GPU调度领域,具体是基于GPU集成的云计算硬件加速控制系统及方法。
背景技术
本发明涉及计算机技术领域,特别是关于GPU集群的动态调度方法。在高性能计算、大数据处理和深度学习等领域,GPU集群被广泛用于加速计算任务。然而,在现有的GPU集群中,资源的分配和任务调度大多依赖于静态的配置,这往往导致资源利用率不高,任务响应时间不稳定等问题。因此,提出一种动态调度方法,以提高GPU集群的性能和效率,具有重要的实用价值。在现有的技术中,GPU集群的调度主要采用以下几种方式:静态预分配:该方法根据预先设定的规则,将任务分配给特定的GPU。这种方法的优点是简单易行,但缺点是灵活性差,不能根据实时的系统负载进行动态调整。负载均衡:该方法根据各个GPU的负载情况,动态地将任务分配给负载较轻的GPU。这种方法在一定程度上提高了资源利用率,但实现复杂度较高,且在动态变化的负载情况下,难以保证任务的及时响应。性能优化:该方法以任务执行时间为优化目标,通过遗传算法、模拟退火等优化算法,寻求最优的任务调度方案。这种方法能够在一定程度上提高任务执行效率,但需要消耗大量的计算资源和时间,不适用于大规模的GPU集群。综上所述,现有的GPU集群调度方法存在种种不足,难以满足大规模、高效率的计算需求。
因此,如何更加灵活的调度GPU集群进行算力任务的执行,是当下行业研究人员需要研究的课题。
发明内容
本发明的目的在于克服现有技术的不足,提供基于GPU集成的云计算硬件加速控制方法,包括如下步骤:
步骤一,通过GPU单元检测装置对GPU集群各节点中的GPU单元进行检测,获取各个GPU单元的状态和参数,根据GPU集群节点包括的GPU单元的状态和参数,得到对应GPU集群节点的参数和状态;
步骤二,根据GPU集群节点的预计释放时长,建立GPU集群节点监控列表,根据GPU集群节点监控列表得到各GPU集群节点预计释放时长,算力容器构建模块根据算力任务请求的算力以及各GPU集群节点预计释放时长,得到预计最小释放时长,根据预计最小释放时长包含的GPU集群节点,建立对应算力任务的GPU集群节点列表;
步骤三,建立对应算力任务的算力容器,并将对应算力任务的GPU集群节点列表发送到对应算力任务的算力容器,同时将对应算力任务的算力容器信息发送到对应算力任务的GPU集群节点列表中的各个GPU集群节点的算力任务执行序列;
步骤四,GPU集群节点执行完一个算力任务后,根据自身的算力任务执行序列,查找下一个算力任务的算力容器信息,并连接到对应算力任务的算力容器,若在预计最小释放时长内对应算力任务的算力容器连接到对应算力任务的GPU集群节点列表中的所有GPU集群节点,则对应算力任务的算力容器就绪,进入步骤六,否则,进入步骤五;
步骤五,根据未连接到的GPU集群节点的算力,在GPU集群节点监控列表查找预计释放时长最小的GPU集群节点,并替换未连接到的GPU集群节点,并连接到对应算力任务的算力容器,则对应算力任务的算力容器就绪,进入步骤六;
步骤六,算力任务获取模块将算力任务发送到就绪的对应算力任务的算力容器,对应算力任务的算力容器执行算力任务,直到算力任务执行完毕,释放对应算力任务的GPU集群节点列表中的所有GPU集群节点,完成基于GPU集成的云计算硬件加速控制。
进一步的,所述的根据GPU集群节点包括的GPU单元的状态和参数,得到对应GPU集群节点的参数和状态,包括:
所述的GPU单元的参数包括GPU单元的算力值,根据同GPU集群节点包括的GPU单元数量,得到GPU集群节点的算力,根据GPU集群节点的算力任务执行序列,得到GPU集群节点的预计释放时长。
进一步的,所述的GPU集群节点的预计释放时长为:
根据GPU集群节点的算力任务执行序列中各算力任务执行时长的和,得到GPU集群节点的预计释放时长。
进一步的,所述的算力容器构建模块根据算力任务请求的算力以及各GPU集群节点预计释放时长,得到预计最小释放时长,包括:
根据算力任务请求的算力的算力值,得到GPU集群节点组合, GPU集群节点组合中各GPU集群节点预计释放时长最大值,即为GPU集群节点组合的最小释放时长。
进一步的,所述的根据算力任务请求的算力的算力值,得到GPU集群节点组合,包括:
根据GPU集群节点的算力值与GPU集群节点的比值,向上取整,得到GPU集群节点需求数,调取GPU集群节点需求数个GPU集群节点,得到GPU集群节点组合。
进一步的,所述的GPU单元的状态包括GPU单元的故障状态,若存在GPU单元,则离线对应的GPU集群节点,进行故障排除,故障排除后,重新上线GPU集群节点。
进一步的,所述的根据未连接到的GPU集群节点的算力,在GPU集群节点监控列表查找预计释放时长最小的GPU集群节点,并替换未连接到的GPU集群节点,并连接到对应算力任务的算力容器,包括:
根据未连接到的GPU集群节点的预计释放时长,若存在预计释放时长小于未连接到的GPU集群节点的预计释放时长,则将预计释放时长小于未连接到的GPU集群节点的预计释放时长的GPU集群节点,替换未连接到的GPU集群节点,并连接到对应算力任务的算力容器。
基于 GPU 集成的云计算硬件加速控制系统,应用所述的基于GPU集成的云计算硬件加速控制方法,包括:温度控制装置、GPU单元检测装置、算力容器构建模块、算力任务获取模块和GPU集群节点管理模块;
所述的温度控制装置、GPU单元检测装置、算力容器构建模块、算力任务获取模块分别与所述的GPU集群节点管理模块连接。
本发明的有益效果是:通过本发明所提供的技术方案,可以实现对GPU集群节点进行灵活调度,能够满足不同的GPU算力需求。
附图说明
图1为基于GPU集成的云计算硬件加速控制方法的流程示意图;
图2为基于GPU集成的云计算硬件加速控制系统的原理示意图。
具体实施方式
下面结合附图进一步详细描述本发明的技术方案,但本发明的保护范围不局限于以下所述。
为了使本发明的目的,技术方案及优点更加清楚明白,结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。需要说明的是,术语“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
而且,术语“包括”,“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程,方法,物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程,方法,物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程,方法,物品或者设备中还存在另外的相同要素。
以下结合实施例对本发明的特征和性能作进一步的详细描述。
如图1所示,基于GPU集成的云计算硬件加速控制方法,包括如下步骤:
步骤一,通过GPU单元检测装置对GPU集群各节点中的GPU单元进行检测,获取各个GPU单元的状态和参数,根据GPU集群节点包括的GPU单元的状态和参数,得到对应GPU集群节点的参数和状态;
步骤二,根据GPU集群节点的预计释放时长,建立GPU集群节点监控列表,根据GPU集群节点监控列表得到各GPU集群节点预计释放时长,算力容器构建模块根据算力任务请求的算力以及各GPU集群节点预计释放时长,得到预计最小释放时长,根据预计最小释放时长包含的GPU集群节点,建立对应算力任务的GPU集群节点列表;
步骤三,建立对应算力任务的算力容器,并将对应算力任务的GPU集群节点列表发送到对应算力任务的算力容器,同时将对应算力任务的算力容器信息发送到对应算力任务的GPU集群节点列表中的各个GPU集群节点的算力任务执行序列;
步骤四,GPU集群节点执行完一个算力任务后,根据自身的算力任务执行序列,查找下一个算力任务的算力容器信息,并连接到对应算力任务的算力容器,若在预计最小释放时长内对应算力任务的算力容器连接到对应算力任务的GPU集群节点列表中的所有GPU集群节点,则对应算力任务的算力容器就绪,进入步骤六,否则,进入步骤五;
步骤五,根据未连接到的GPU集群节点的算力,在GPU集群节点监控列表查找预计释放时长最小的GPU集群节点,并替换未连接到的GPU集群节点,并连接到对应算力任务的算力容器,则对应算力任务的算力容器就绪,进入步骤六;
步骤六,算力任务获取模块将算力任务发送到就绪的对应算力任务的算力容器,对应算力任务的算力容器执行算力任务,直到算力任务执行完毕,释放对应算力任务的GPU集群节点列表中的所有GPU集群节点,完成基于GPU集成的云计算硬件加速控制。
所述的根据GPU集群节点包括的GPU单元的状态和参数,得到对应GPU集群节点的参数和状态,包括:
所述的GPU单元的参数包括GPU单元的算力值,根据同GPU集群节点包括的GPU单元数量,得到GPU集群节点的算力,根据GPU集群节点的算力任务执行序列,得到GPU集群节点的预计释放时长。
所述的GPU集群节点的预计释放时长为:
根据GPU集群节点的算力任务执行序列中各算力任务执行时长的和,得到GPU集群节点的预计释放时长。
所述的算力容器构建模块根据算力任务请求的算力以及各GPU集群节点预计释放时长,得到预计最小释放时长,包括:
根据算力任务请求的算力的算力值,得到GPU集群节点组合, GPU集群节点组合中各GPU集群节点预计释放时长最大值,即为GPU集群节点组合的最小释放时长。
所述的根据算力任务请求的算力的算力值,得到GPU集群节点组合,包括:
根据GPU集群节点的算力值与GPU集群节点的比值,向上取整,得到GPU集群节点需求数,调取GPU集群节点需求数个GPU集群节点,得到GPU集群节点组合。
所述的GPU单元的状态包括GPU单元的故障状态,若存在GPU单元,则离线对应的GPU集群节点,进行故障排除,故障排除后,重新上线GPU集群节点。
所述的根据未连接到的GPU集群节点的算力,在GPU集群节点监控列表查找预计释放时长最小的GPU集群节点,并替换未连接到的GPU集群节点,并连接到对应算力任务的算力容器,包括:
根据未连接到的GPU集群节点的预计释放时长,若存在预计释放时长小于未连接到的GPU集群节点的预计释放时长,则将预计释放时长小于未连接到的GPU集群节点的预计释放时长的GPU集群节点,替换未连接到的GPU集群节点,并连接到对应算力任务的算力容器。
如图2所示,基于GPU集成的云计算硬件加速控制系统,应用所述的基于GPU集成的云计算硬件加速控制方法,包括:温度控制装置、GPU单元检测装置、算力容器构建模块、算力任务获取模块和GPU集群节点管理模块;
所述的温度控制装置、GPU单元检测装置、算力容器构建模块、算力任务获取模块分别与所述的GPU集群节点管理模块连接。
其中的温度控制装置用于对GPU集群节点进行温度监测,并控制散热装置对GPU集群节点进行散热。
GPU单元检测装置用于对GPU集群各节点中的GPU单元进行检测,获取各个GPU单元的状态和参数,根据GPU集群节点包括的GPU单元的状态和参数,得到对应GPU集群节点的参数和状态。
算力容器构建模块用于根据GPU集群节点的参数和预计释放时长,构建对应算力任务的算力容器。
以上所述仅是本发明的优选实施方式,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (6)

1.基于 GPU 集成的云计算硬件加速控制方法,其特征在于,包括如下步骤:
步骤一,通过GPU单元检测装置对GPU集群各节点中的GPU单元进行检测,获取各个GPU单元的状态和参数,根据GPU集群节点包括的GPU单元的状态和参数,得到对应GPU集群节点的参数和状态;
步骤二,根据GPU集群节点的预计释放时长,建立GPU集群节点监控列表,根据GPU集群节点监控列表得到各GPU集群节点预计释放时长,算力容器构建模块根据算力任务请求的算力以及各GPU集群节点预计释放时长,得到预计最小释放时长,根据预计最小释放时长包含的GPU集群节点,建立对应算力任务的GPU集群节点列表;
步骤三,建立对应算力任务的算力容器,并将对应算力任务的GPU集群节点列表发送到对应算力任务的算力容器,同时将对应算力任务的算力容器信息发送到对应算力任务的GPU集群节点列表中的各个GPU集群节点的算力任务执行序列;
步骤四,GPU集群节点执行完一个算力任务后,根据自身的算力任务执行序列,查找下一个算力任务的算力容器信息,并连接到对应算力任务的算力容器,若在预计最小释放时长内对应算力任务的算力容器连接到对应算力任务的GPU集群节点列表中的所有GPU集群节点,则对应算力任务的算力容器就绪,进入步骤六,否则,进入步骤五;
步骤五,根据未连接到的GPU集群节点的算力,在GPU集群节点监控列表查找预计释放时长最小的GPU集群节点,并替换未连接到的GPU集群节点,并连接到对应算力任务的算力容器,则对应算力任务的算力容器就绪,进入步骤六;
步骤六,算力任务获取模块将算力任务发送到就绪的对应算力任务的算力容器,对应算力任务的算力容器执行算力任务,直到算力任务执行完毕,释放对应算力任务的GPU集群节点列表中的所有GPU集群节点,完成基于 GPU 集成的云计算硬件加速控制;
所述的GPU集群节点的预计释放时长为:
根据GPU集群节点的算力任务执行序列中各算力任务执行时长的和,得到GPU集群节点的预计释放时长;
所述的算力容器构建模块根据算力任务请求的算力以及各GPU集群节点预计释放时长,得到预计最小释放时长,包括:
根据算力任务请求的算力的算力值,得到GPU集群节点组合, GPU集群节点组合中各GPU集群节点预计释放时长最大值,即为GPU集群节点组合的最小释放时长。
2.根据权利要求1所述的基于 GPU 集成的云计算硬件加速控制方法,其特征在于,所述的根据GPU集群节点包括的GPU单元的状态和参数,得到对应GPU集群节点的参数和状态,包括:
所述的GPU单元的参数包括GPU单元的算力值,根据同GPU集群节点包括的GPU单元数量,得到GPU集群节点的算力,根据GPU集群节点的算力任务执行序列,得到GPU集群节点的预计释放时长。
3.根据权利要求2所述的基于 GPU 集成的云计算硬件加速控制方法,其特征在于,所述的根据算力任务请求的算力的算力值,得到GPU集群节点组合,包括:
根据GPU集群节点的算力值与GPU集群节点的比值,向上取整,得到GPU集群节点需求数,调取GPU集群节点需求数个GPU集群节点,得到GPU集群节点组合。
4.根据权利要求1所述的基于 GPU 集成的云计算硬件加速控制方法,其特征在于,所述的GPU单元的状态包括GPU单元的故障状态,若存在GPU单元,则离线对应的GPU集群节点,进行故障排除,故障排除后,重新上线GPU集群节点。
5.根据权利要求1所述的基于 GPU 集成的云计算硬件加速控制方法,其特征在于,所述的根据未连接到的GPU集群节点的算力,在GPU集群节点监控列表查找预计释放时长最小的GPU集群节点,并替换未连接到的GPU集群节点,并连接到对应算力任务的算力容器,包括:
根据未连接到的GPU集群节点的预计释放时长,若存在预计释放时长小于未连接到的GPU集群节点的预计释放时长,则将预计释放时长小于未连接到的GPU集群节点的预计释放时长的GPU集群节点,替换未连接到的GPU集群节点,并连接到对应算力任务的算力容器。
6.基于 GPU 集成的云计算硬件加速控制系统,其特征在于,应用权利要求1-5任一所述的基于 GPU 集成的云计算硬件加速控制方法,包括:温度控制装置、GPU单元检测装置、算力容器构建模块、算力任务获取模块和GPU集群节点管理模块;
所述的温度控制装置、GPU单元检测装置、算力容器构建模块、算力任务获取模块分别与所述的GPU集群节点管理模块连接。
CN202311822252.8A 2023-12-27 2023-12-27 基于gpu集成的云计算硬件加速控制系统及方法 Active CN117472551B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311822252.8A CN117472551B (zh) 2023-12-27 2023-12-27 基于gpu集成的云计算硬件加速控制系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311822252.8A CN117472551B (zh) 2023-12-27 2023-12-27 基于gpu集成的云计算硬件加速控制系统及方法

Publications (2)

Publication Number Publication Date
CN117472551A CN117472551A (zh) 2024-01-30
CN117472551B true CN117472551B (zh) 2024-03-01

Family

ID=89633319

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311822252.8A Active CN117472551B (zh) 2023-12-27 2023-12-27 基于gpu集成的云计算硬件加速控制系统及方法

Country Status (1)

Country Link
CN (1) CN117472551B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109783224A (zh) * 2018-12-10 2019-05-21 平安科技(深圳)有限公司 基于负载调配的任务分配方法、装置及终端设备
CN111782407A (zh) * 2020-08-04 2020-10-16 支付宝(杭州)信息技术有限公司 用于执行gpu中的控制任务的方法、装置及gpu
KR102231358B1 (ko) * 2019-11-04 2021-03-24 주식회사 이노그리드 고성능 클라우드 서비스를 위한 단일 가상화 방법 시스템
CN113703936A (zh) * 2021-04-13 2021-11-26 腾讯科技(深圳)有限公司 创建算力容器的方法、算力平台、电子设备及存储介质
CN114978908A (zh) * 2022-05-11 2022-08-30 量子科技长三角产业创新中心 算力网络节点评价及操作方法和装置
CN115357351A (zh) * 2022-07-28 2022-11-18 浪潮通信信息系统有限公司 算力网络调度方法、装置、系统、设备及介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109783224A (zh) * 2018-12-10 2019-05-21 平安科技(深圳)有限公司 基于负载调配的任务分配方法、装置及终端设备
KR102231358B1 (ko) * 2019-11-04 2021-03-24 주식회사 이노그리드 고성능 클라우드 서비스를 위한 단일 가상화 방법 시스템
CN111782407A (zh) * 2020-08-04 2020-10-16 支付宝(杭州)信息技术有限公司 用于执行gpu中的控制任务的方法、装置及gpu
CN113703936A (zh) * 2021-04-13 2021-11-26 腾讯科技(深圳)有限公司 创建算力容器的方法、算力平台、电子设备及存储介质
CN114978908A (zh) * 2022-05-11 2022-08-30 量子科技长三角产业创新中心 算力网络节点评价及操作方法和装置
CN115357351A (zh) * 2022-07-28 2022-11-18 浪潮通信信息系统有限公司 算力网络调度方法、装置、系统、设备及介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A Taste of Scientific Computing on the GPU-Accelerated Edge Device;Pilsung Kang 等;《IEEE Access》;20201117;第208337-208347页 *
功能分发网络:基于容器的智能边缘计算平台;杨术 等;《软件学报》;20211208;第3945-3959页 *

Also Published As

Publication number Publication date
CN117472551A (zh) 2024-01-30

Similar Documents

Publication Publication Date Title
CN105159769A (zh) 一种适用于计算能力异构集群的分布式作业调度方法
CN107038071B (zh) 一种基于数据流预测的Storm任务伸缩调度算法
CN117311989B (zh) 一种gpu集群动态功率管理系统及方法
CN103365729A (zh) 一种基于任务类型的动态MapReduce 调度方法及系统
CN116263701A (zh) 算力网络任务调度方法、装置、计算机设备及存储介质
CN116244081B (zh) 一种多核存算一体加速器网络拓扑结构控制系统
CN112860396A (zh) 一种基于分布式深度学习的gpu调度方法及系统
CN115658311A (zh) 一种资源的调度方法、装置、设备和介质
Okamura et al. A Markov decision process approach to dynamic power management in a cluster system
CN108984286A (zh) 一种云计算平台的资源调度方法和系统
CN114666335A (zh) 一种基于dds的分布式系统负载均衡装置
CN104346220B (zh) 一种任务调度方法与系统
Pooranian et al. Independent task scheduling in grid computing based on queen bee algorithm
CN116700933B (zh) 一种面向异构算力联邦的多集群作业调度系统和方法
CN117472551B (zh) 基于gpu集成的云计算硬件加速控制系统及方法
CN116089248B (zh) 一种写i/o突发分布预测方法、装置、设备及存储介质
CN117608754A (zh) 多资源池应用的处理方法及装置、电子设备和存储介质
CN112463334A (zh) 一种训练任务排队原因分析方法、系统、设备以及介质
Raj et al. Augmenting hierarchical load balancing with intelligence in grid environment
CN116048791B (zh) 一种测试节点的调控方法、装置、电子设备以及存储介质
CN116488344A (zh) 一种用于多类型电网设备量测数据的动态资源调度方法
CN115309520A (zh) 任务迁移方法、装置、电子设备及存储介质
CN113656150A (zh) 深度学习算力虚拟化系统
Trejo-Sánchez et al. A multi-agent architecture for scheduling of high performance services in a GPU cluster
CN117579626B (zh) 基于分布式实现边缘计算下的优化方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant