CN112015533A - 适用于分布式渲染的任务调度方法和装置 - Google Patents
适用于分布式渲染的任务调度方法和装置 Download PDFInfo
- Publication number
- CN112015533A CN112015533A CN202010853780.XA CN202010853780A CN112015533A CN 112015533 A CN112015533 A CN 112015533A CN 202010853780 A CN202010853780 A CN 202010853780A CN 112015533 A CN112015533 A CN 112015533A
- Authority
- CN
- China
- Prior art keywords
- task
- rendered
- gpu
- computing
- rendering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Image Generation (AREA)
Abstract
本公开提供了适用于分布式渲染的任务调度方法,接收用户提交的待渲染任务;对所述待渲染任务所需的计算资源进行判定;对满足判定的预设GPU集群调度系统中的GPU计算节点,根据任务调度算法对所述待渲染任务完成渲染操作。该方法能够解决根据待渲染任务的计算需求和GPU集群的资源使用情况合理分配实时渲染任务,具有调度策略应用的灵活性与高效性。本公开还涉及适用于分布式渲染的任务调度装置。
Description
技术领域
本公开涉及可视化渲染技术领域,具体而言,涉及适用于分布式渲染的任务调度方法和装置。
背景技术
实时渲染是计算机图形学的分支领域,专注于研究、分析与制作实时图像。实时渲染通常是指利用图形处理器(GPU)生成可实时互动的三维内容。实时渲染最典型的一个例子是电子游戏,它能快速呈现不断变化的三维环境,营造运动的假象。现有技术中,用户提交的实时渲染任务对计算资源的需求往往是不一样的,如何根据任务的计算需求和GPU集群的资源使用情况合理分配实时渲染任务是调度策略需要解决的重要问题。
发明内容
为了解决现有技术中的技术问题,本公开实施例提供了适用于分布式渲染的任务调度方法和装置,能够解决根据待渲染任务的计算需求和GPU集群的资源使用情况合理分配实时渲染任务,具有调度策略应用的灵活性与高效性。
第一方面,本公开实施例提供了适用于分布式渲染的任务调度方法,所述方法包括:接收用户提交的待渲染任务;对所述待渲染任务所需的计算资源进行判定;对满足判定的预设GPU集群调度系统中的GPU计算节点,根据任务调度算法对所述待渲染任务完成渲染操作。
在其中一个实施例中,还包括:通过确定用户规模确定GPU集群规模;所述通过确定用户规模确定GPU集群规模包括:根据用户规模统计并确定 GPU集群中的待渲染任务的任务调度节点以及GPU计算节点。
在其中一个实施例中,所述对所述待渲染任务所需的计算资源进行判定包括:提取所述待渲染任务计算资源需求属性中的数值;提取预设GPU集群调度系统中的GPU计算节点计算能力属性中的数值;将所述待渲染任务计算资源需求属性中的数值与提取的GPU计算节点计算能力属性中的数值进行比较。
在其中一个实施例中,还包括:当所述待渲染任务计算资源需求属性中的数值小于提取的GPU计算节点计算能力属性中的数值,则根据任务调度算法对所述待渲染任务完成渲染操作。
在其中一个实施例中,还包括;当所述待渲染任务计算资源需求属性中的数值大于提取的GPU计算节点计算能力属性中的数值,则继续遍历并提取其它GPU计算节点计算能力属性中的数值。
在其中一个实施例中,所述任务调度算法为:遍历预设GPU集群调度系统中的每个GPU计算节点,收集所有(Nt–Nu)>=ti的节点;每个符合条件的节点N,按照Nload=(Nu+Nt)/Nt计算所述待渲染任务分发给所述 GPU计算节点的负载;将所有预分配的GPU计算节点的负载按照从大到小进行排序;选取预分配之后负载最高的节点Nselected=Max{Nload[1],Nload [2],…,Nload[i]}作为所述待渲染任务的执行节点。
在其中一个实施例中,还包括:如果有多个GPU计算节点的负载相同,则使用随机算法Nselected=Random{Nselected[1],Nselected[2],…,Nselected[m]}进行随机分配来达到GPU计算节点的负载均衡。
第二方面,本公开实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的方法的步骤。
第三方面,本公开实施例提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的方法的步骤。
第四方面,本公开实施例提供了适用于分布式渲染的任务调度装置,所述装置包括:接收模块,用于接收用户提交的待渲染任务;判定模块,用于对所述待渲染任务所需的计算资源进行判定;渲染模块,用于对满足判定的预设GPU集群调度系统中的GPU计算节点,根据任务调度算法对所述待渲染任务完成渲染操作。
本发明提供的适用于分布式渲染的任务调度方法和装置,接收用户提交的待渲染任务;对所述待渲染任务所需的计算资源进行判定;对满足判定的预设GPU集群调度系统中的GPU计算节点,根据任务调度算法对所述待渲染任务完成渲染操作。该方法能够解决根据待渲染任务的计算需求和GPU 集群的资源使用情况合理分配实时渲染任务,具有调度策略应用的灵活性与高效性。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面对实施例描述中所需要使用的附图作简单地介绍:
图1为本发明一个实施例中的适用于分布式渲染的任务调度方法的步骤流程示意图;
图2(a)-(d)为本发明另一实施例中的适用于分布式渲染的任务调度方法的步骤流程示意图;
图3为本发明一个实施例中的适用于分布式渲染的任务调度装置的结构示意图;
图4为本发明一个实施例中的适用于分布式渲染的任务调度装置的硬件框图;
图5为本发明一个实施例中的计算机可读存储介质的示意图。
具体实施方式
下面结合附图和实施例对本申请进行进一步的详细介绍。
在下述介绍中,术语“第一”、“第二”仅为用于描述的目的,而不能理解为指示或暗示相对重要性。下述介绍提供了本公开的多个实施例,不同实施例之间可以替换或者合并组合,因此本申请也可认为包含所记载的相同和/ 或不同实施例的所有可能组合。因而,如果一个实施例包含特征A、B、C,另一个实施例包含特征B、D,那么本申请也应视为包括含有A、B、C、D 的一个或多个所有其他可能的组合的实施例,尽管该实施例可能并未在以下内容中有明确的文字记载。
为了使本发明的目的、技术方案及优点更加清楚明白,以下通过实施例,并结合附图,对本发明适用于分布式渲染的任务调度方法和装置的具体实施方式进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
需要说明的是,实时渲染通常由配置了GPU的工作站或个人计算机完成,只能服务单个用户。分布式实时渲染基于GPU计算集群,实时渲染任务通过任务管理和调度系统分发到GPU集群运行,从而支持多用户同时使用实时渲染服务。分布式实时渲染任务管理和调度系统的是实时云渲染平台的基石。
如图1所示,为一个实施例中的适用于分布式渲染的任务调度方法的流程示意图,具体包括以下步骤:
步骤11,接收用户提交的待渲染任务。
本公开涉及的适用于分布式渲染的任务调度方法还包括:通过确定用户规模确定GPU集群规模;所述通过确定用户规模确定GPU集群规模包括:根据用户规模统计并确定GPU集群中的待渲染任务的任务调度节点以及 GPU计算节点。由此,提高了渲染的精准性与易用性。
步骤12,对所述待渲染任务所需的计算资源进行判定。
具体的,所述对所述待渲染任务所需的计算资源进行判定包括:提取所述待渲染任务计算资源需求属性中的数值;提取预设GPU集群调度系统中的GPU计算节点计算能力属性中的数值;将所述待渲染任务计算资源需求属性中的数值与提取的GPU计算节点计算能力属性中的数值进行比较。由此,提高了判定待渲染任务所需的计算资源的精准性。
此外,需要说明的是,当所述待渲染任务计算资源需求属性中的数值小于提取的GPU计算节点计算能力属性中的数值,则根据任务调度算法对所述待渲染任务完成渲染操作。以及当所述待渲染任务计算资源需求属性中的数值大于提取的GPU计算节点计算能力属性中的数值,则继续遍历并提取其它GPU计算节点计算能力属性中的数值。由此,提高了判定待渲染任务所需的计算资源的易用性。
步骤13,对满足判定的预设GPU集群调度系统中的GPU计算节点,根据任务调度算法对所述待渲染任务完成渲染操作。
具体的,所述任务调度算法为:遍历预设GPU集群调度系统中的每个 GPU计算节点,收集所有(Nt–Nu)>=ti的节点;每个符合条件的节点N,按照Nload=(Nu+Nt)/Nt计算所述待渲染任务分发给所述GPU计算节点的负载;将所有预分配的GPU计算节点的负载按照从大到小进行排序;选取预分配之后负载最高的节点Nselected=Max{Nload[1],Nload[2],…,Nload[i]}作为所述待渲染任务的执行节点。
此外,本公开涉及的适用于分布式渲染的任务调度方法还包括:如果有多个GPU计算节点的负载相同,则使用随机算法Nselected=Random{Nselected[1], Nselected[2],…,Nselected[m]}进行随机分配来达到GPU计算节点的负载均衡。
在本实施例中,接收用户提交的待渲染任务;对所述待渲染任务所需的计算资源进行判定;对满足判定的预设GPU集群调度系统中的GPU计算节点,根据任务调度算法对所述待渲染任务完成渲染操作。该方法能够解决根据待渲染任务的计算需求和GPU集群的资源使用情况合理分配实时渲染任务,具有调度策略应用的灵活性与高效性。
为了更加清晰理解并应用本公开涉及的适用于分布式渲染的任务调度方法,进行以下示例。需要说明的是,本公开的保护范围不限于以下示例。
如图2(a)-(d)所示,具体的,基于实时渲染任务所需要的计算资源不同,给每个任务定义了计算资源需求属性,来表示执行特定实时渲染任务所需要的计算资源。同理,每个GPU节点的计算能力也是有所差异的,所以给GPU节点定义了计算能力属性,用来表示该计算节点的计算资源数量。任务调度节点实时监控每个GPU节点的计算资源使用情况。每个GPU计算节点N,其计算资源使用情况用Nu和Nt表示,其中Nu表示已经分配出去的计算资源,Nt表示该节点全部计算资源数量。对于一个新的实时渲染任务请求t,假设其计算资源需求是ti,调度策略具体为:遍历每个GPU计算节点,收集所有(Nt-Nu)>=ti的节点;每个符合条件的节点N,按照预设公式计算实时渲染任务分发给该节点之后的负载。其中,预设公式如下:
Nload=(Nu+Nt)/Nt
再将所有预分配节点负载按照从大到小进行排序;选取预分配之后负载最高的节点Nselected作为该任务的执行节点。
Nselected=Max{Nload[1],Nload[2],…,Nload[i]}
如果有多个节点负载一样,则使用随机算法进行随机分配来达到节点的负载均衡。
Nselected=Random{Nselected[1],Nselected[2],…,Nselected[m]}
举个例子,系统有3个实时渲染任务待分发到3个GPU节点,系统初始状态如图2(a)所示。实时渲染任务t1调度过程:GPU节点A、B、C均有足够的计算资源执行该任务,预分配之后GPU节点负载NAload=0.6,NBload=1.0,NCload=0.75,GPU节点B负载最高,所以选取B节点作为该任务的执行节点。任务分发之后,系统状态如图2(b)所示。同理,实时渲染任务 t2分发执行之后,系统状态如图2(c)所示。实时渲染任务t3分发执行之后,系统状态图2(d)所示。
基于同一发明构思,还提供了适用于分布式渲染的任务调度装置。由于此装置解决问题的原理与前述适用于分布式渲染的任务调度方法相似,因此,该装置的实施可以按照前述方法的具体步骤实现,重复之处不再赘述。
如图3所示,为一个实施例中的适用于分布式渲染的任务调度装置的结构示意图。该适用于分布式渲染的任务调度装置10包括:接收模块100、判定模块200和渲染模块300。
其中,接收模块100用于接收用户提交的待渲染任务;判定模块200用于对所述待渲染任务所需的计算资源进行判定;渲染模块300用于对满足判定的预设GPU集群调度系统中的GPU计算节点,根据任务调度算法对所述待渲染任务完成渲染操作。
在本实施例中,通过接收模块接收用户提交的待渲染任务;再通过判定模块对所述待渲染任务所需的计算资源进行判定;最后通过渲染模块对满足判定的预设GPU集群调度系统中的GPU计算节点,根据任务调度算法对所述待渲染任务完成渲染操作。该装置能够解决根据待渲染任务的计算需求和 GPU集群的资源使用情况合理分配实时渲染任务,具有调度策略应用的灵活性与高效性。
图4是图示根据本公开的实施例的适用于分布式渲染的任务调度装置的硬件框图。如图4所示,根据本公开实施例的适用于分布式渲染的任务调度装置40包括存储器401和处理器402。适用于分布式渲染的任务调度装置 40中的各组件通过总线系统和/或其它形式的连接机构(未示出)互连。
存储器401用于存储非暂时性计算机可读指令。具体地,存储器401可以包括一个或多个计算机程序产品,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。
处理器402可以是中央处理单元(CPU)、图形处理器(GPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制适用于分布式渲染的任务调度装置40中的其它组件以执行期望的功能。在本公开的一个实施例中,所述处理器402用于运行存储器401中存储的计算机可读指令,使得适用于分布式渲染的任务调度装置40执行上述适用于分布式渲染的任务调度方法。适用于分布式渲染的任务调度装置与上述适用于分布式渲染的任务调度方法描述的实施例相同,在此将省略其重复描述。
图5是图示根据本公开的实施例的计算机可读存储介质的示意图。如图 5所示,根据本公开实施例的计算机可读存储介质500其上存储有非暂时性计算机可读指令501。当所述非暂时性计算机可读指令501由处理器运行时,执行参照上述描述的根据本公开实施例的适用于分布式渲染的任务调度方法。
以上,根据本公开实施例的适用于分布式渲染的任务调度方法和装置,以及计算机可读存储介质能够解决根据待渲染任务的计算需求和GPU集群的资源使用情况合理分配实时渲染任务,具有调度策略应用的灵活性与高效性的有益效果。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
另外,如在此使用的,在以“至少一个”开始的项的列举中使用的“或”指示分离的列举,以便例如“A、B或C的至少一个”的列举意味着A或B或C,或AB或AC或BC,或ABC(即A和B和C)。此外,措辞“示例的”不意味着描述的例子是优选的或者比其他例子更好。
还需要指出的是,在本公开的系统和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
可以不脱离由所附权利要求定义的教导的技术而进行对在此所述的技术的各种改变、替换和更改。此外,本公开的权利要求的范围不限于以上所述的处理、机器、制造、事件的组成、手段、方法和动作的具体方面。可以利用与在此所述的相应方面进行基本相同的功能或者实现基本相同的结果的当前存在的或者稍后要开发的处理、机器、制造、事件的组成、手段、方法或动作。因而,所附权利要求包括在其范围内的这样的处理、机器、制造、事件的组成、手段、方法或动作。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (10)
1.适用于分布式渲染的任务调度方法,其特征在于,所述方法包括:
接收用户提交的待渲染任务;
对所述待渲染任务所需的计算资源进行判定;
对满足判定的预设GPU集群调度系统中的GPU计算节点,根据任务调度算法对所述待渲染任务完成渲染操作。
2.根据权利要求1所述的适用于分布式渲染的任务调度方法,其特征在于,还包括:通过确定用户规模确定GPU集群规模;
所述通过确定用户规模确定GPU集群规模包括:根据用户规模统计并确定GPU集群中的待渲染任务的任务调度节点以及GPU计算节点。
3.根据权利要求1所述的适用于分布式渲染的任务调度方法,其特征在于,所述对所述待渲染任务所需的计算资源进行判定包括:
提取所述待渲染任务计算资源需求属性中的数值;
提取预设GPU集群调度系统中的GPU计算节点计算能力属性中的数值;
将所述待渲染任务计算资源需求属性中的数值与提取的GPU计算节点计算能力属性中的数值进行比较。
4.根据权利要求3所述的适用于分布式渲染的任务调度方法,其特征在于,还包括:当所述待渲染任务计算资源需求属性中的数值小于提取的GPU计算节点计算能力属性中的数值,则根据任务调度算法对所述待渲染任务完成渲染操作。
5.根据权利要求3所述的适用于分布式渲染的任务调度方法,其特征在于,还包括;当所述待渲染任务计算资源需求属性中的数值大于提取的GPU计算节点计算能力属性中的数值,则继续遍历并提取其它GPU计算节点计算能力属性中的数值。
6.根据权利要求1所述的适用于分布式渲染的任务调度方法,其特征在于,所述任务调度算法为:
遍历预设GPU集群调度系统中的每个GPU计算节点,收集所有(Nt–Nu)>=ti的节点;
每个符合条件的节点N,按照Nload=(Nu+Nt)/Nt计算所述待渲染任务分发给所述GPU计算节点的负载;
将所有预分配的GPU计算节点的负载按照从大到小进行排序;
选取预分配之后负载最高的节点Nselected=Max{Nload[1],Nload[2],…,Nload[i]}作为所述待渲染任务的执行节点。
7.根据权利要求6所述的适用于分布式渲染的任务调度方法,其特征在于,还包括:如果有多个GPU计算节点的负载相同,则使用随机算法Nselected=Random{Nselected[1],Nselected[2],…,Nselected[m]}进行随机分配来达到GPU计算节点的负载均衡。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现所述权利要求1-7中任一项所述方法的步骤。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现所述权利要求1-7中任一项所述方法的步骤。
10.适用于分布式渲染的任务调度装置,其特征在于,所述装置包括:
接收模块,用于接收用户提交的待渲染任务;
判定模块,用于对所述待渲染任务所需的计算资源进行判定;
渲染模块,用于对满足判定的预设GPU集群调度系统中的GPU计算节点,根据任务调度算法对所述待渲染任务完成渲染操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010853780.XA CN112015533A (zh) | 2020-08-24 | 2020-08-24 | 适用于分布式渲染的任务调度方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010853780.XA CN112015533A (zh) | 2020-08-24 | 2020-08-24 | 适用于分布式渲染的任务调度方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112015533A true CN112015533A (zh) | 2020-12-01 |
Family
ID=73505551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010853780.XA Withdrawn CN112015533A (zh) | 2020-08-24 | 2020-08-24 | 适用于分布式渲染的任务调度方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112015533A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116527748A (zh) * | 2023-06-26 | 2023-08-01 | 亚信科技(中国)有限公司 | 一种云渲染交互方法、装置、电子设备及存储介质 |
CN116680086A (zh) * | 2023-07-25 | 2023-09-01 | 联通沃音乐文化有限公司 | 一种基于离线渲染引擎的调度管理系统 |
-
2020
- 2020-08-24 CN CN202010853780.XA patent/CN112015533A/zh not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116527748A (zh) * | 2023-06-26 | 2023-08-01 | 亚信科技(中国)有限公司 | 一种云渲染交互方法、装置、电子设备及存储介质 |
CN116527748B (zh) * | 2023-06-26 | 2023-09-15 | 亚信科技(中国)有限公司 | 一种云渲染交互方法、装置、电子设备及存储介质 |
CN116680086A (zh) * | 2023-07-25 | 2023-09-01 | 联通沃音乐文化有限公司 | 一种基于离线渲染引擎的调度管理系统 |
CN116680086B (zh) * | 2023-07-25 | 2024-04-02 | 联通沃音乐文化有限公司 | 一种基于离线渲染引擎的调度管理系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105718364A (zh) | 一种云计算平台中计算资源能力动态评估方法 | |
Wang et al. | A new algorithm for grid independent task schedule: genetic simulated annealing | |
CN108270805B (zh) | 用于数据处理的资源分配方法及装置 | |
CN103902384B (zh) | 为虚拟机分配物理机的方法及装置 | |
CN108804383B (zh) | 基于度量空间的支撑点并行枚举方法及装置 | |
CN112015533A (zh) | 适用于分布式渲染的任务调度方法和装置 | |
CN110109756A (zh) | 一种网络靶场构建方法、系统及存储介质 | |
CN116708451B (zh) | 一种边云协同调度方法及系统 | |
Wang et al. | Task scheduling for MapReduce in heterogeneous networks | |
Kumar et al. | Load balancing algorithm to minimize the makespan time in cloud environment | |
CN115640113A (zh) | 多平面弹性调度方法 | |
Koneru et al. | Resource allocation method using scheduling methods for parallel data processing in cloud | |
CN116302327A (zh) | 资源调度方法及相关设备 | |
CN110413393A (zh) | 集群资源管理方法、装置、计算机集群及可读存储介质 | |
Sekaran et al. | SIQ algorithm for efficient load balancing in cloud | |
CN111813546B (zh) | 一种多网络连接应用的资源分配方法、系统及相关装置 | |
Alanzy et al. | Range wise busy checking 2-way imbalanced algorithm for cloudlet allocation in cloud environment | |
Arif | A Hybrid MinMin & Round Robin Approach for task scheduling in cloud computing | |
Thai et al. | Algorithms for optimising heterogeneous Cloud virtual machine clusters | |
Chen | Research on physical health data mining of university students oriented to PE teaching reform | |
Gu et al. | The implementation of MapReduce scheduling algorithm based on priority | |
Meyer et al. | Pipel: exploiting resource reorganisation to optimise performance of pipeline-structured applications in the cloud | |
Garg et al. | Virtual machine placement solution for VGPU enabled clouds | |
Garg et al. | FaaSter: Accelerated Functions-as-a-Service with Heterogeneous GPUs | |
CN111580937B (zh) | 一种面向飞腾多核/众核混合集群的虚拟机自动调度方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20201201 |
|
WW01 | Invention patent application withdrawn after publication |