CN113157407B - 一种在gpu中并行处理视频压缩的动态任务迁移调度方法 - Google Patents

一种在gpu中并行处理视频压缩的动态任务迁移调度方法 Download PDF

Info

Publication number
CN113157407B
CN113157407B CN202110288225.1A CN202110288225A CN113157407B CN 113157407 B CN113157407 B CN 113157407B CN 202110288225 A CN202110288225 A CN 202110288225A CN 113157407 B CN113157407 B CN 113157407B
Authority
CN
China
Prior art keywords
gpu
task
gpu device
utilization rate
optimal solution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110288225.1A
Other languages
English (en)
Other versions
CN113157407A (zh
Inventor
陈根浪
卢涛
张佳健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo Yinzhou Security Service Co.,Ltd.
Zhejiang University of Science and Technology ZUST
Original Assignee
Ningbo Jiangdong Security Service Co ltd
Zhejiang University of Science and Technology ZUST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo Jiangdong Security Service Co ltd, Zhejiang University of Science and Technology ZUST filed Critical Ningbo Jiangdong Security Service Co ltd
Priority to CN202110288225.1A priority Critical patent/CN113157407B/zh
Publication of CN113157407A publication Critical patent/CN113157407A/zh
Application granted granted Critical
Publication of CN113157407B publication Critical patent/CN113157407B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明涉及一种并行处理视频压缩的动态任务迁移调度方法,该方法为:将需压缩的视频分配到各个GPU设备中开始工作;每隔一段时间T,服务器的host端记录下各个GPU设备的实时工作状态,负载信息以及耗能开销等统计信息;通过分析,系统决定是否需要对某些GPU设备中的任务进行动态迁移,若需要发生动态迁移,以视频中的每一帧为处理单元,识别、提取出GPU设备中的每一个工作项的底层硬件的计算状态,将其拷贝回服务器的host端,服务器端程序根据每个GPU的工作信息分析选择需要调度到的新GPU,该方法实时监控并且不断调整所有GPU设备的负载以及开销,能够实时提出一个有效可行的任务调度方案,提高系统的资源利用率以及系统中数据的吞吐率。

Description

一种在GPU中并行处理视频压缩的动态任务迁移调度方法
技术领域
本发明涉及并行计算和凸优化领域,尤其是涉及一种在GPU中并行处理视频压缩的动态任务迁移调度方法。
背景技术
随着视频压缩发展越来越迅速,基于压缩算法所特有的计算复杂度高、处理任务时间长等缺点在实际应用场景中越来越突出,尤其是在一定规模数据的应用场景中更为突出,如大规模城市监控视频处理、交互式视频平台存储服务等。图形处理器(GPU)最早被提出用于图像中各个像素点的处理,由于它的并行性高,在图像处理中有着巨大的优势。但随着并行技术的持续发展和计算市场的逐步完善,目前GPU已被广泛应用于各种视频压缩算法,比如ffmpeg算法,可支持在NVIDIA设备上处理。
但是,由于GPU内部计算状态的复杂性和硬件资源的独占性,使得算法开发者经常会遇到如下问题:
第一,负载容易导致分配不平衡。例如有多块GPU设备,其运算能力差距很大,但是由于静态很难预测程序的开销,大部分程序都是需要动态分配内存,因此为了保证使用的稳定性,只能倾向于资源分配到性能强的GPU中,从而造成资源的浪费;
第二,资源无法简单共享。多设备间或者多个节点间的设备无法做到共享;
第三,不具备合适的容错机制。由于所有的设备中运行的程序都无法进行即时的中断,无法即时保存状态,对于超大型的长时间计算,光依赖硬件的容错能力是远远不够的。而由于当前视频清晰度运来越高、帧率也不断提高,处理视频压缩的时长也越来越大。据统计,一个五个小时的4K视频压缩任务开销在二十分钟左右,如若仅仅依靠硬件的重启,整个运算将会重新被开始,开销花费巨大。
发明内容
本发明所要解决的技术问题是提供一种在GPU中并行处理视频压缩的动态任务迁移调度方法,该方法能够在并行处理视频压缩任务时,使GPU的负载分配达到平衡,GPU之间的资源能够共享,且视频压缩过程中具备容错机制,从而提高系统的资源利用率以及系统中数据的吞吐率。
本发明所采用的技术方案是,一种在GPU中并行处理视频压缩的动态任务迁移调度方法,该方法包括下列步骤:
(1)、根据大规模数据并行计算的预估模型,按照预估模型的分配方式将需压缩的视频任务分配到系统中的各个GPU设备中,并开始工作;
(2)、每隔一段时间T,服务器的host端记录下各个GPU设备当前的统计信息,服务器的host端根据当前的统计信息来计算出当前系统中每个GPU设备数据处理容量的最优解,并根据最优解来判断是否需要对其中的某些GPU设备中的任务进行动态迁移调度;
(3)、如果需要对GPU设备中的视频任务进行动态迁移调度,那么就以GPU设备中视频的每一帧为处理单元,识别并提取出GPU设备中的每一个work-item的底层硬件的计算状态信息,并将该计算状态信息拷贝回服务器的host端;
(4)、服务器的host端根据每个GPU设备的工作信息进行分析,然后选择出需要调度到的新GPU设备,并将步骤(3)中拷贝的计算状态信息移植到新GPU设备上,进而恢复当前计算任务。
作为优先,步骤(2)中,统计信息的数据结构为{indexi,datai},表示GPU设备索引为indexi的统计信息数据。
作为优先,步骤(2)中,服务器的host端记录下的统计信息具体包括:各个GPU设备的计算单元的利用率C、各个GPU设备的内存使用率M、各个GPU设备的功耗P以及各个GPU设备任务调度时间开销O,所述利用率C,通过固定时间间隔执行shell脚本来获取,所述内存使用率M,可以通过固定时间间隔执行shell脚本来获取,所述功耗P通过固定时间间隔执行shell脚本来获取,所述开销O通过长期测量得出。
作为优先,步骤(2)中,根据最优问题来计算每个GPU设备数据处理容量的最优解,最优问题表示为:
subjectto f1(c)≤b1,b1∈Rn
f2(m)≤b2,b2∈Rn
1Tp≤d,d∈R;
该公式包含了四部分:GPU利用率C、内存使用率M、设备的功耗P以及任务调度时间开销O,系统中所有GPU设备的GPU利用率、内存使用率、功耗、开销均为向量,即c,m,p,o∈Rn,其中n为系统GPU设备个数,权重为向量Wc,Wm,Wp,Wo,即Wc,Wm,Wp,Wo∈Rn,f1(x)和f2(x)分别是计算GPU利用率和内存使用率的设备下确界权重函数,其中x∈Rn,b1和b2为设备下确界资源向量。
作为优先,步骤(2)中,根据最优解来判断是否需要对其中的某些GPU设备中的任务进行动态迁移调度的具体判断方法为:将计算得到的每个GPU设备数据处理容量的最优解与当前状态下GPU设备的实际工作状态进行比较,如果GPU设备实际的工作状态与其计算得到的最优解一致,就不需要对该GPU设备中的任务进行迁移,如果GPU设备实际的工作状态与其计算得到的最优解不一致,就对该GPU设备种的任务进行迁移。
作为优先,步骤(3)中,每一个work-item的底层硬件的计算状态信息具体包括:全局内存、工作项的栈、指针以及程序计数器。
作为优先,步骤(3)中,全局内存的具体提取方法为:当GPU设备收到服务器host端计算状态提取的指令时,通过查询链表中所有的全局内存块的信息,并且找到host端对应的传输目的地址,把每一段内存块拷贝到host端的相应的位置。
本发明的有益效果是:上述一种在GPU中并行处理视频压缩的动态任务迁移调度方法,该方法中实时监控并且不断调整所有GPU设备的负载以及开销,能够实时提出一个有效可行的任务调度方案,能够在并行处理视频压缩任务时,使GPU的负载分配达到平衡,GPU之间的资源能够共享,且视频压缩过程中具备容错机制,从而提高系统的资源利用率以及系统中数据的吞吐率。
附图说明
图1为本发明一种在GPU中并行处理视频压缩的动态任务迁移调度方法的时序图;
图2为本发明中栈空间数据迁移图。
具体实施方式
以下参照附图并结合具体实施方式来进一步描述发明,以令本领域技术人员参照说明书文字能够据以实施,本发明保护范围并不受限于该具体实施方式。
本领域技术人员应理解的是,在本发明的公开中,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系是基于附图所示的方位或位置关系,其仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此上述术语不能理解为对本发明的限制。
本发明涉及一种在GPU中并行处理视频压缩的动态任务迁移调度方法,该方法包括下列步骤:
(1)、根据大规模数据并行计算的预估模型,在服务器上部署并行任务实时监控与分析业务逻辑程序,该程序按照模型的分配方式将需压缩的视频分配到各个GPU设备中开始工作,如图1所示,模型的预估分配都在pre-compiler完成;
(2)、每隔一段时间T,服务器的host端记录下各个GPU设备当前的统计信息,服务器的host端根据当前的统计信息来计算出当前系统中每个GPU设备数据处理容量的最优解,并根据每个GPU设备数据处理容量最优解来判断是否需要对其中的某些GPU设备中的任务进行动态迁移调度,如图1所示;
(3)、如果需要对GPU设备中的视频任务进行动态迁移调度,那么就以GPU设备中视频的每一帧为处理单元,识别并提取出GPU设备中的每一个work-item的底层硬件的计算状态信息,并将该计算状态信息拷贝回服务器的host端,如图2所示,栈空间的数据和指针进行动态迁移,这里的work-item指的是GPU设备中的工作项;
(4)、服务器的host端根据每个GPU设备的工作信息进行分析,然后选择出需要调度到的新GPU设备,并将步骤(3)中拷贝的计算状态信息移植到新GPU设备上,进而恢复当前计算任务。
步骤(2)中,统计信息的数据结构为{indexi,datai},表示GPU设备索引为indexi的统计信息数据。
步骤(2)中,服务器的host端记录下的统计信息具体包括:各个GPU设备的计算单元的利用率C、各个GPU设备的内存使用率M、各个GPU设备的功耗P以及各个GPU设备任务调度时间开销O,所述利用率C,通过固定时间间隔执行shell脚本来获取,所述内存使用率M,可以通过固定时间间隔执行shell脚本来获取,所述功耗P通过固定时间间隔执行shell脚本来获取,所述开销O通过长期测量得出。
步骤(2)中,根据最优问题来计算每个GPU设备数据处理容量的最优解,最优问题表示为:
subjectto f1(c)≤b1,b1∈Rn
f2(m)≤b2,b2∈Rn
1Tp≤d,d∈R;
该公式包含了四部分:GPU利用率C、内存使用率M、设备的功耗P以及任务调度时间开销O,系统中所有GPU设备的GPU利用率、内存使用率、功耗、开销均为向量,即c,m,p,o∈Rn,其中n为系统GPU设备个数,权重为向量Wc,Wm,Wp,Wo,即Wc,Wm,Wp,Wo∈Rn,f1(x)和f2(x),其中x∈Rn,分别是计算GPU利用率和内存使用率的设备下确界权重函数,b1和b2为设备下确界资源向量。
步骤(2)中,根据最优解来判断是否需要对其中的某些GPU设备中的任务进行动态迁移调度的具体判断方法为:将计算得到的最优解与当前状态下每个GPU设备的工作状态进行比较,如果GPU设备的工作状态与其最优解一致,就不需要对该GPU设备种的任务进行迁移,如果GPU设备的工作状态与其最优解不一致,就对该GPU设备种的任务进行迁移。
步骤(3)中,每一个work-item的底层硬件的计算状态信息具体包括:全局内存、工作项的栈、指针以及程序计数器。
步骤(3)中,在视频压缩中,全局内存主要存放各个帧的输入以及输出像素点,以及用于存放管理控制各个帧的信息。在服务器host端中的一个链表形式的数据结构将会被声明,所有的全局内存块的信息都会保存到该链表中。其中的信息主要包括各个块的大小、各个指针的引用和以及OpenCL中全局内存的buffer。由于程序可以保证任何时候都能动态发生中断,所有的信息都可以在任意时态发生备份,因此所有的块信息都有链表连接。
当GPU收到服务器端计算状态提取的指令时,通过查询链表中所有的全局内存块的信息,并且找到host端对应的传输目的地址,把每一段内存块拷贝到host端的相应的位置。
步骤(3)中,工作项的栈及其提取方法:在视频压缩中,工作项的栈空间主要存放对于操作视频各个帧的时候所暂存的变量。
所有的变量都被存放到一段连续的数据结构中——结构体。在收到调度系统的信号时,工作项首先会拷贝到全局中,全局内存里有一段专门为GPU的私有内存栈空间和host的暂存空间的传输介质,用于实现他们之间的通信。全局内存的传输介质和栈空间的通信由函数控制块管理。每个子函数的迭代都将被记录在管理块中。函数控制块主要包括栈空间的地址空间、每一次子函数跳转的位置信息、指针和其他一些标记。
步骤(3)中,指针及其提取方法:对于GPU指针的备份来说,由于不同GPU设备上的虚拟地址空间的起始位置不同,因此系统使用基址和偏移量来表示指针,以便更好地在异构设备之间进行移植。
步骤(3)中,程序计数器及其提取方法:在程序运行开始时候用一个正整数来追踪寄存器%rip中的值,能够使GPU方便定位程序在划分的时候所处的位置。整个程序的代码将会被划分成各个case段。在另一台GPU设备时,通过每一次的正整数的位置来映射到程序所在的逻辑位置,从而能够找到程序上一次所中断的位置。
在图1中,根据该系统的预估模型所规划的方式,host在T0时刻将视频压缩任务推送到GPU0设备中。GPU0收到所需要的任务资源之后,在T1启动任务,并且按照计划在T3时刻结束。即压缩时长为2个T时间间隔。在经过一个T的时间间隔之后,根据host的调度系统分析,任务需要进行重分配至GPU1。此时GPU0中的线程挂起,资源进行备份。所有资源拷贝回host端,再由host推送至GPU1中。在GPU1设备中重构备份资源,并且在上一次检查点后继续执行。同时,host端为GPU0重新推送新的任务。
本申请是参照根据本申请的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (5)

1.一种在GPU中并行处理视频压缩的动态任务迁移调度方法,其特征在于:该方法包括下列步骤:
(1)、根据大规模数据并行计算得到的预估模型,按照预估模型的分配方式将需压缩的视频任务分配到系统中的各个GPU设备中,并开始工作;
(2)、每隔一段时间T,服务器的host端记录下各个GPU设备当前的统计信息,服务器的host端根据统计信息来计算出当前系统中每个GPU设备数据处理容量的最优解,并根据最优解来判断是否需要对其中的某些GPU设备中的任务进行动态迁移调度;所述的服务器的host端记录下的统计信息具体包括:各个GPU设备的计算单元的利用率C、各个GPU设备的内存使用率M、各个GPU设备的功耗P以及各个GPU设备任务调度时间开销O,所述利用率C,通过固定时间间隔执行shell脚本来获取,所述内存使用率M,可以通过固定时间间隔执行shell脚本来获取,所述功耗P通过固定时间间隔执行shell脚本来获取,所述开销O通过长期测量得出;所述的计算出当前系统中每个GPU设备数据处理容量的最优解为根据最优问题来计算每个GPU设备数据处理容量的最优解,所述最优问题表示为:
subject to f1(C)≤b1,b1∈Rn,
f2(M)≤b2,b2∈Rn,
1TP≤d,d∈R;
该公式包含了四部分:GPU利用率C、内存使用率M、设备的功耗P以及任务调度时间开销O,系统中所有GPU设备的GPU利用率、内存使用率、功耗、开销均为向量,即c,m,p,o∈Rn,其中n为系统GPU设备个数,权重为向量Wc,Wm,Wp,Wo,即Wc,Wm,Wp,Wo∈Rn,f1(x)和f2(x),其中x∈Rn,分别是计算GPU利用率和内存使用率的设备下确界权重函数,b1和b2为设备下确界资源向量;
(3)、如果需要对GPU设备中的视频任务进行动态迁移调度,那么就以GPU设备中视频的每一帧为处理单元,识别并提取出GPU设备中的每一个work-item的底层硬件的计算状态信息,并将该计算状态信息拷贝回服务器的host端;
(4)、服务器的host端根据每个GPU设备的工作信息进行分析,然后选择出需要调度到的新GPU设备,并将步骤(3)中拷贝的计算状态信息移植到新GPU设备上,进而恢复当前计算任务。
2.根据权利要求1所述的一种在GPU中并行处理视频压缩的动态任务迁移调度方法,其特征在于:步骤(2)中,统计信息的数据结构为{indexi,datai},其中,datai表示GPU设备中的统计信息数据,indexi表示统计信息数据对应的索引。
3.根据权利要求1所述的一种在GPU中并行处理视频压缩的动态任务迁移调度方法,其特征在于:步骤(2)中,根据最优解来判断是否需要对其中的某些GPU设备中的任务进行动态迁移调度的具体判断方法为:将计算得到的每个GPU设备数据处理容量的最优解与当前状态下GPU设备的实际工作状态进行比较,如果GPU设备实际的工作状态与其计算得到的最优解一致,就不需要对该GPU设备中的任务进行迁移,如果GPU设备实际的工作状态与其计算得到的最优解不一致,就对该GPU设备种的任务进行迁移。
4.根据权利要求1所述的一种在GPU中并行处理视频压缩的动态任务迁移调度方法,其特征在于:步骤(3)中,每一个work-item的底层硬件的计算状态信息具体包括:全局内存、工作项的栈空间、指针以及程序计数器。
5.根据权利要求4所述的一种在GPU中并行处理视频压缩的动态任务迁移调度方法,其特征在于:步骤(3)中,全局内存的具体提取方法为:当GPU设备收到服务器host端计算状态提取的指令时,通过查询链表中所有的全局内存块的信息,并且找到host端对应的传输目的地址,把每一段内存块拷贝到host端的相应的位置。
CN202110288225.1A 2021-03-18 2021-03-18 一种在gpu中并行处理视频压缩的动态任务迁移调度方法 Active CN113157407B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110288225.1A CN113157407B (zh) 2021-03-18 2021-03-18 一种在gpu中并行处理视频压缩的动态任务迁移调度方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110288225.1A CN113157407B (zh) 2021-03-18 2021-03-18 一种在gpu中并行处理视频压缩的动态任务迁移调度方法

Publications (2)

Publication Number Publication Date
CN113157407A CN113157407A (zh) 2021-07-23
CN113157407B true CN113157407B (zh) 2024-03-01

Family

ID=76887549

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110288225.1A Active CN113157407B (zh) 2021-03-18 2021-03-18 一种在gpu中并行处理视频压缩的动态任务迁移调度方法

Country Status (1)

Country Link
CN (1) CN113157407B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901042A (zh) * 2010-08-27 2010-12-01 上海交通大学 多gpu系统中基于动态任务迁移技术的降功耗方法
US9128766B1 (en) * 2006-04-24 2015-09-08 Hewlett-Packard Development Company, L.P. Computer workload redistribution schedule
CN107122243A (zh) * 2017-04-12 2017-09-01 杭州远算云计算有限公司 用于cfd仿真计算的异构集群系统及cfd计算方法
CN109656868A (zh) * 2018-11-19 2019-04-19 浙江大学宁波理工学院 一种cpu与gpu之间的内存数据转移方法
CN109992385A (zh) * 2019-03-19 2019-07-09 四川大学 一种基于任务均衡调度的gpu内部能耗优化方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9128766B1 (en) * 2006-04-24 2015-09-08 Hewlett-Packard Development Company, L.P. Computer workload redistribution schedule
CN101901042A (zh) * 2010-08-27 2010-12-01 上海交通大学 多gpu系统中基于动态任务迁移技术的降功耗方法
CN107122243A (zh) * 2017-04-12 2017-09-01 杭州远算云计算有限公司 用于cfd仿真计算的异构集群系统及cfd计算方法
CN109656868A (zh) * 2018-11-19 2019-04-19 浙江大学宁波理工学院 一种cpu与gpu之间的内存数据转移方法
CN109992385A (zh) * 2019-03-19 2019-07-09 四川大学 一种基于任务均衡调度的gpu内部能耗优化方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
云计算中多服务器服务能力优化调度仿真;罗南超;;计算机仿真(第01期);382-385 *

Also Published As

Publication number Publication date
CN113157407A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN108132838B (zh) 一种图数据处理的方法、装置及系统
Sahni et al. A hybrid approach to live migration of virtual machines
US20210182114A1 (en) Merging scaled-down container clusters using vitality metrics
US8990827B2 (en) Optimizing data warehousing applications for GPUs using dynamic stream scheduling and dispatch of fused and split kernels
CN106354729B (zh) 一种图数据处理方法、装置和系统
TWI525540B (zh) 具有橫跨多個處理器之平行資料執行緒的映射處理邏輯
US11329870B2 (en) Utilizing machine learning to reduce cloud instances in a cloud computing environment
US9213584B2 (en) Varying a characteristic of a job profile relating to map and reduce tasks according to a data size
Yang et al. Fast dynamic execution offloading for efficient mobile cloud computing
US20050050545A1 (en) Allocating computing resources in a distributed environment
US8364908B2 (en) Migrating program objects in a multi-node computer system
CN103761139A (zh) 一种基于动态库拦截的通用计算虚拟化实现方法
Chen et al. HAT: history-based auto-tuning MapReduce in heterogeneous environments
CN109254836B (zh) 面向云计算系统优先依赖任务的期限约束成本优化调度方法
US8209299B2 (en) Selectively generating program objects on remote node of a multi-node computer system
CN103399791A (zh) 一种基于云计算的虚拟机迁移方法和装置
Hefny et al. Comparative study load balance algorithms for map reduce environment
CN115951974A (zh) Gpu虚拟机的管理方法、系统、设备和介质
US10628223B2 (en) Optimized allocation of tasks in heterogeneous computing systems
Cai et al. Dag consistent parallel simulation: a predictable and robust conservative algorithm
CN113157407B (zh) 一种在gpu中并行处理视频压缩的动态任务迁移调度方法
Ahrens et al. PaTraCo: a framework enabling the transparent and efficient programming of heterogeneous compute networks
WO2024021475A1 (zh) 一种容器调度方法及装置
Lan et al. Improving performance of GPU specific OpenCL program on CPUs
CN113032154B (zh) 一种虚拟cpu的调度方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240709

Address after: 315199 No. 1, Qianhu South Road, higher education park, Ningbo, Zhejiang

Patentee after: Zhejiang University of science and engineering Ningbo

Country or region after: China

Patentee after: Ningbo Yinzhou Security Service Co.,Ltd.

Address before: 315100 No. 1, Qian Hunan Road, Yinzhou District Higher Education Park, Ningbo, Zhejiang

Patentee before: Zhejiang University of science and engineering Ningbo

Country or region before: China

Patentee before: Ningbo Jiangdong Security Service Co.,Ltd.

TR01 Transfer of patent right