CN102662765A - 一种运行效率指导的可重构多核处理器的资源分配方法 - Google Patents

一种运行效率指导的可重构多核处理器的资源分配方法 Download PDF

Info

Publication number
CN102662765A
CN102662765A CN2012101324545A CN201210132454A CN102662765A CN 102662765 A CN102662765 A CN 102662765A CN 2012101324545 A CN2012101324545 A CN 2012101324545A CN 201210132454 A CN201210132454 A CN 201210132454A CN 102662765 A CN102662765 A CN 102662765A
Authority
CN
China
Prior art keywords
state
task
efficiency
logic processor
resource
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012101324545A
Other languages
English (en)
Other versions
CN102662765B (zh
Inventor
安虹
王涛
孙涛
毛梦捷
张海博
孙公瑾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN201210132454.5A priority Critical patent/CN102662765B/zh
Publication of CN102662765A publication Critical patent/CN102662765A/zh
Application granted granted Critical
Publication of CN102662765B publication Critical patent/CN102662765B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Design And Manufacture Of Integrated Circuits (AREA)

Abstract

本发明是一种运行效率指导的可重构多核处理器的资源分配方法,动态可重构多核处理器具有片上资源的运行时重构和两级片上资源模型两大特征,为提高系统吞吐率和片上资源的利用率提供了巨大的优化空间。本发明提出任务运行过程所经历的五个基本状态,采用的策略就是不断尝试动态调整逻辑处理器的数量和粒度,通过这种细微且快速地不断的调整到达一个任务最合适占用的系统资源的稳定状态。不论任务当前是处于哪一种状态,资源分配器的目标就是将其带入稳定状态。当系统当前的负载发生变化或者任务本身进入新的运行阶段时资源分配器将及时对任务进行调整以保持芯片资源的高效利用率。

Description

一种运行效率指导的可重构多核处理器的资源分配方法
技术领域
本专利涉及计算机系统结构领域中操作系统设计和运行时支持,特别涉及一种运行效率指导的动态可重构多核处理器的动态资源分配的方法
背景技术
动态可重构多核处理器技术简介:
动态可重构多核处理器(现学术界称其Dynamic Reconfigurable Chip Multiprocessor,DRCMP)是近年来提出的一类新兴的多核处理器结构(结构示意图见图1),其引入了两个新的体系结构特征:
①片上资源的运行时重构。DRCMP芯片包含一组简单的、同构的处理单元,称为物理核。DRCMP可以在运行时动态的配置数个物理的处理器核(简称物理核)构成一个逻辑上的处理器(简称逻辑处理器)。根据参与的物理核的个数和位置的不同,逻辑处理器可以被配置为具有不同的计算能力和拓扑结构(示意图见图2)。
②两级片上资源模型:物理核和逻辑处理器。所有线程都运行在逻辑处理器上,并且任何线程都可以不经修改地运行在任意粒度的逻辑处理器上。
因此,DRCMP允许资源分配器(可以用硬件或软件实现)根据程序的运行效率动态地调整逻辑处理器中的物理核的数量,也即是改变逻辑处理器的粒度,为提高系统吞吐率和片上资源的利用率提供了巨大的优化空间。
但是,据我们调研,截止本发明申请时,尚无研究成果在DRCMP上支持提供运行效率指导的动态资源分配方案。下面列举两个典型的DRCMP结构及其采用的资源管理方法:
例1 Core Fusion[E.Ipek等,Core fusion:accommodating software diversity inchip multiprocessors]是Cornell大学系统结构实验室于2007年在ISCA会议上提出的一种DRCMP结构。该结构可以将相邻的至多四个物理核动态的组成一个多发射的乱序超标量处理器核。该结构在编译时向程序中显式插入FUSE/SPLIT指令,通过FUSE和SPLIT指令在运行时的执行完成对逻辑处理器粒度的调整。这种方法中,虽然逻辑处理器粒度调整这个动作是在运行时进行的,但是何时、何种条件下对逻辑处理器粒度做调整是在编译时静态决定的。因此,该结构没有动态的根据系统当前的运行状况实现对芯片资源的动态分配。
例2 TFlex[D.Burger等,Composable lightweight processors]是Texas大学Austin分校系统结构研究小组于2007年在MICRO会议上提出的一种DRCMP结构。该结构采用类数据流(EDGE)指令,可以支持芯片上任意数目的物理核构成一个多发射的逻辑处理器。2008年,该研究小组又在PACT会议上基于TFlex结构提出了三种DRCMP上逻辑处理器的分配算法(EQUI、PDPA和Profile),并使用低层的运行时软件实现并评估了这三种算法。但是,该工作中如EQUI是动态将系统资源根据当前系统的负载而进行简单的平分片上资源,而实际上不同的任务对片上资源的需求是不同的,这样就会导致片上资源的浪费;而PDPA与Profile运行时的实际表现较差,没有办法监测一个任务的阶段性变化,更不用说在任务从一个运行阶段进入另一个运行阶段时防止“抖动”现象的产生。因此实际上测出的性能都是比EQUI差。
DRCMP系统面临的问题:
使用DRCMP构建计算机系统、在DRCMP上提供运行效率指导的动态资源分配,目前主要面临的困难在于DRCMP芯片结构片上资源的灵活性(片上资源的动态可重构特性)引入了资源分配问题,包括:
①决定逻辑处理器的数目;
②决定每个逻辑处理器的大小和拓扑结构;
③决定任务向逻辑处理器的映射策略;
④决定何种条件下重新配置逻辑处理器;
⑤决定何种条件下、如何迁移某些逻辑处理器。
其中,怎样高效地表达DRCMP芯片结构片上资源的灵活性,是在DRCMP上有效进行运行效率指导的动态资源分配的关键技术问题。
本发明充分地利用动态可重构多核处理器(DRCMP)芯片结构片上资源的可重构特征,提出了一种简单有效的资源分配方法,能根据程序的运行效率动态地调整处理器核的数量和粒度,提高系统吞吐率和芯片资源利用率,解决DRCMP结构上高效的片上资源分配问题。
发明内容
本发明提出一种运行效率指导的可重构多核处理器的资源分配方法,面向动态可重构多核处理器芯片结构,如背景技术中所述,一个应用任务或者说应用进程是在逻辑处理器上运行的,逻辑处理器是由1个或多个物理核构成的。逻辑处理器的大小可以随着程序的运行过程中根据运行在该逻辑处理器上的进程的效率来进行改变,而这种决定逻辑处理器大小的变化就是本发明的主要任务。为了实现高效的运行效率指导的动态资源分配,本发明采用的策略就是不断尝试动态调整逻辑处理器的数量和粒度,通过这种细微且快速地不断的调整到达一个任务最合适占用的系统资源的稳定状态。不论任务当前是处于哪一种状态(除稳定状态外),资源分配器的目标就是将其带入稳定状态。当系统当前的负载发生变化或者任务本身进入新的运行阶段时资源分配器将及时对任务进行调整以保持芯片资源的高效利用率。
其具体的状态机如图3所示。本发明的状态机共有五个状态:
1)抖动状态:任务在刚开始运行时或者进入一个新的阶段时存在的运行状态特征不正常的现象,称之为“抖动”。“抖动”状态带来的不准确信息会影响分配器对其行为的评估,从而做出不恰当的决策。因此,任务会在该状态停留一小段时间来屏蔽“抖动”现象。
2)评估状态:任务进入该状态后会被分配器评估多次,最终取多次评估的平均值来当作该任务在当前运行状态中的状态特征参数。
3)扩增状态:处于该状态的任务表明他处于一个不断扩增逻辑的状态,直到扩增停止进入稳定状态。
4)稳定状态:该状态的任务将保持其拥有的逻辑处理器的资源,进入该状态说明这个逻辑处理器资源在当前系统负载下是最适合该任务的运行,接下来的过程中逻辑处理器不会再发生改变,直到系统环境或任务本身发生变化。
5)缩小状态:该状态与扩增状态刚好相反。处于该状态的任务表明他处于一个不断缩小逻辑的状态,直到缩小停止进入稳定状态。
状态转移条件中几个重要的参数说明:
1)逻辑处理器类型(CoreType):表示当前任务所占用的逻辑处理器类型。具体有:
a)最小型(smallest type):逻辑处理器的大小是芯片所能分配出的最小逻辑处理器大小。
b)增长型(bigger type):逻辑处理器的大小处于一个不断扩增的状态。
c)缩小型(smaller type):逻辑处理器的大小处于一个不断缩小的状态。
d)稳定型(stable type):逻辑处理器的大小处于一个稳定的状态,不会再发生改变。
2)效率阈值(efficiency threshold):由操作系统定义的一个临界值。由于越大的逻辑处理器将意味着任务可以得到越高的性能,但同时也意味着越低的效率(实际上任务在获得更大的逻辑处理器时并不能完全的发挥其性能的全部,因此也存在着效率不高的问题)。效率阈值正是用来有效的权衡一个任务在逻辑处理器上的性能和效率之间的选择。本发明中主要关注的阈值有两个:
a)目标效率(target_eff):该阈值定义了一个任务能扩增自己逻辑处理器的效率的最低值,只有超过这个阈值,逻辑处理器才有被扩增的可能,否则逻辑处理器不会扩增。
b)最高效率(High_eff):该阈值定义一个效率的最大值,避免有的任务因为一直有过高的效率值始终比目标效率高而不断的扩增自己的逻辑处理器的现象出现。
3)加速比(speedup):一个任务运行在n个物理核组成的逻辑处理器上的IPC(Instruction per Cycle,一个时钟周期能执行完成的指令数)比上运行在一个物理核组成的逻辑处理器上的IPC的比值。
4)时间间隔(interval):整个系统每隔一定的时间间隔后就进行一次状态转换,是继续保持原状态还是进入下一个状态。本发明中有两种时间间隔:
a)抖动时间间隔(jittered_intervals):该时间间隔是在任务处于抖动状态时使用的。
b)评估时间间隔(sampled_intervals):该时间间隔是在任务处于评估状态时使用的。
下面以一个新任务进程的产生来说明五个状态之间的转移条件过程。
当一个新的任务产生后,其对应的逻辑处理器类型(CoreType)将赋值为初值最小型(smallest type)。进入抖动状态运行几个时间间隔以跳过其“抖动”现象的部分。抖动时间间隔(jittered_intervals)初始值为0,每过一个时间间隔(interval)时就加1,当抖动时间间隔大于等于抖动时间阈值(jittered_predefined_intervals)后任务进入下一个状态评估状态,否则一直停留在抖动状态。
进入评估状态后,在每个时间间隔中资源分配器会评估任务在当前状态下的运行特征值,评估时间间隔(sampled_intervals)初始值为0,每过一个时间间隔(interval)时就加1,当评估时间间隔大于等于评估时间阈值(sampled_predefined_intervals)后资源分配器就会取这几次评估结果的平均值作为该任务的运行状态特征值,该任务的逻辑处理器类型(CoreType)将赋值为增长型(bigger type),并进入扩增状态;若评估时间间隔小于阈值,则任务仍然处于评估状态不变。
进入扩增状态后,任务试着扩增一点自己的逻辑处理器大小,并测量当前的效率(eff)和加速比(speedup)。任务将根据测得的当前效率(eff)和加速比(speedup)的情况进行状态转移,如果当前效率(eff)大于最高效率(High_eff)并且加速比(speedup)大于该任务在上次逻辑处理器中记录的加速比(last_speedup),此时资源分配器确定扩增该任务的逻辑处理器大小,任务仍处于扩增状态;当上述两个条件有一个不满足时,取消这次试探性的扩增,再判断:如果当前效率(eff)小于目标效率(target_eff)则逻辑处理器类型(CoreType)将赋值为缩小型(smaller type),否则逻辑处理器类型(CoreType)将赋值为稳定型(stable type),任务进入稳定状态。
进入稳定状态后,资源分配器不会再试图将逻辑处理器大小进行试探性的变化,若系统环境即效率阈值(efficiency threshold)不发生变化,并且任务的执行效率没有超过40%的改变(若发生则说明任务正在进入一个新的运行阶段,该阶段与任务之前的运行特征不同,其对资源的需求也不同)任务将一直以目前的逻辑处理器大小运行。若任务的执行效率发生超过40%的改变,则任务的逻辑处理器类型(CoreType)将赋值为最小型(smallest type)重新回到抖动状态。若系统的效率阈值(efficiency threshold)发生变化,则继续做以下判断:如果当前运行效率(eff)大于最高效率(High_eff),则资源分配器将任务的逻辑处理器大小扩增,逻辑处理器类型(CoreType)将赋值为增长型(bigger type),并进入扩增状态;如果当前运行效率(eff)小于目标效率(target_eff)则资源分配器将任务的逻辑处理器大小缩小,逻辑处理器类型(CoreType)将赋值为缩小型(smaller type),并进入缩小状态。
进入缩小状态后,任务将根据当前效率(eff)的情况进行状态转移,如果当前效率(eff)大于目标效率(target_eff),此时逻辑处理器类型(CoreType)将赋值为稳定型(stabletype),任务进入稳定状态;如果当前效率(eff)小于目标效率(target_eff)则资源分配器继续缩小该任务的逻辑处理器大小,任务仍处于缩小状态。
与现有技术中存在的问题相比较,本发明所具有的优点和积极效果主要体现在:
1)本发明相比较于编译时静态决定的那种方法来说是真正实现在运行时动态的根据系统当前的运行状况实现对片上资源的动态分配。
2)本发明提供了详细且可行的状态机模型,不仅可以方便地利用硬件来实现,也能通过嵌入系统内核利用软件来实现。
本发明提出的方法相较于PDPA与Profile算法运行时的实际表现好很多,面对系统的负载变化灵敏,能有效的根据任务的阶段性特征来动态地分配系统资源,并能防止任务的“抖动”现象。真正意义上提高了系统的吞吐率和芯片资源的利用率。
附图说明
图1是动态可重构多核处理器结构示意图,该处理器有16个物理核,经过重新配置,形成了4个大小性能不一的逻辑处理器,每个逻辑处理器所包含的物理核数目分别为:8、4、2、2;
图2是动态可重构多核处理器可重构特征示意图,芯片上逻辑处理器分布由右图中的4个逻辑处理器(每个逻辑处理器分别由8、4、2、2个物理核组成)重构成中间图中的8个逻辑处理器(每个逻辑处理器都是由2个物理核组成)再重构成左图中的13个逻辑处理器(一个逻辑处理器由4个物理核组成,其余的逻辑处理器都是由1个物理核组成);
图3是本发明的主要技术方法的状态机模型。
具体实施方式
本节将本发明应用于支持一个典型的DRCMP结构(TFlex)上的资源分配。从而进一步说明本发明的目的、优点和关键技术特征。这个实施只是该方案的一个典型范例,凡采取替换或者等效变换而形成的技术方案,均落在本发明要求保护的范围之内。
在TFlex结构(一种典型的DRCMP结构)上,我们定义一个任务在一个由n个物理核构成的逻辑处理器上的运行效率(execution efficiency)为:在该逻辑处理器上的加速比(speedup)比上n的比值。
在TFlex结构中,芯片总共拥有的物理核数为32,一个最小逻辑处理器大小为由一个物理核构成,并且逻辑处理器的种类只有4种,分别为由1个、2个、4个、8个物理核构成的四种逻辑处理器。因此,当一个任务进入扩增状态时,动态资源分配器对其逻辑处理器大小的调整只能从1个物理核扩增到2个物理核,从2个物理核扩增到4个物理核,从4个物理核扩增到8个物理核。当任务进入缩小状态时反之。
在TFlex结构中,芯片上能同时运行的任务数目最多为16。对不同系统负载(同一时间芯片上运行的任务数)的状态下效率阈值的选择如下:
1)当系统负载<=4时,目标效率(target_eff)=0.3,最高效率(High_eff)=0.53;
2)当系统负载>4并且<=8时,目标效率(target_eff)=0.53,最高效率(High_eff)=0.8;
3)当系统负载>8时,目标效率(target_eff)=0.8,最高效率(High_eff)=0.95。抖动、评估状态中的时间阈值选择如下:
1)抖动时间阈值(jittered_predefined_intervals)=3;
2)评估时间阈值(sampled_predefined_intervals)=3。
对运行在芯片上的任务的资源分配管理过程将按照状态机图中所描述的过程进行。

Claims (3)

1.一种运行效率指导的可重构多核处理器的资源分配方法,其特征在于:任务在动态可重构多核处理器上运行过程经历的五个基本状态包括:抖动状态,评估状态,扩增状态,稳定状态,缩小状态;
不断尝试动态调整逻辑处理器的数量和粒度,通过这种细微且快速地不断的调整到达一个任务最合适占用的系统资源的稳定状态。
2.根据权利要求1所述的方法,其特征在于:状态机中5个基本状态之间的转换过程及条件为:
抖动状态:新任务一到来就处于抖动状态;当等待时间间隔>=等待抖动时间阈值时进入评估状态,否则停留在抖动状态并且等待时间间隔加1;
评估状态:当评估时间间隔>=评估抖动时间阈值时进入扩增状态,否则停留在评估状态并且评估时间间隔加1;
扩增状态:当当前效率>最高效率,并且,加速比>该任务在上次逻辑处理器中记录的加速比时停留在扩增状态;如果当前效率<=最高效率,或者,加速比<=该任务在上次逻辑处理器中记录的加速比时进入稳定状态;
稳定状态:当系统的效率阈值发生变化,并且,当前运行效率>最高效率时进入扩增状态;当系统的效率阈值发生变化,并且,当前运行效率<目标效率时进入缩小状态;当系统的效率阈值没有发生变化,并且,任务的执行效率发生超过40%的改变时进入抖动状态;其余情况下停留在稳定状态不变;
缩小状态:当当前运行效率>目标效率时进入稳定状态;否则停留在缩小状态。
3.根据权利要求1所述的方法,其特征在于:状态转移条件中参数包括:
1)逻辑处理器类型:最小型、增长型、缩小型、稳定型;
2)效率阈值:目标效率,最高效率;
3)加速比;
4)时间间隔:抖动时间间隔、评估时间间隔。
CN201210132454.5A 2012-04-28 2012-04-28 一种运行效率指导的可重构多核处理器的资源分配方法 Active CN102662765B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210132454.5A CN102662765B (zh) 2012-04-28 2012-04-28 一种运行效率指导的可重构多核处理器的资源分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210132454.5A CN102662765B (zh) 2012-04-28 2012-04-28 一种运行效率指导的可重构多核处理器的资源分配方法

Publications (2)

Publication Number Publication Date
CN102662765A true CN102662765A (zh) 2012-09-12
CN102662765B CN102662765B (zh) 2014-09-03

Family

ID=46772264

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210132454.5A Active CN102662765B (zh) 2012-04-28 2012-04-28 一种运行效率指导的可重构多核处理器的资源分配方法

Country Status (1)

Country Link
CN (1) CN102662765B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104298564A (zh) * 2014-10-15 2015-01-21 中国人民解放军国防科学技术大学 一种动态均衡异构计算系统负载的方法
CN104331331A (zh) * 2014-11-02 2015-02-04 中国科学技术大学 任务数目和性能感知的可重构多核处理器的资源分配方法
CN107430586A (zh) * 2015-07-31 2017-12-01 吴国盛 自适应芯片和配置方法
CN108288090A (zh) * 2018-01-08 2018-07-17 福州瑞芯微电子股份有限公司 一种并行竞争神经网络芯片的优化方法和装置
CN108710538A (zh) * 2018-05-14 2018-10-26 中国平安人寿保险股份有限公司 一种线程配置方法、计算机可读存储介质及终端设备
CN109144688A (zh) * 2015-03-27 2019-01-04 华为技术有限公司 异构多核可重构计算平台上任务调度的方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050063373A1 (en) * 2003-07-24 2005-03-24 Dehon Andre Method and apparatus for network with multilayer metalization
CN102129390A (zh) * 2011-03-10 2011-07-20 中国科学技术大学苏州研究院 片上多核计算平台的任务调度系统及进行任务并行化方法
CN102360309A (zh) * 2011-09-29 2012-02-22 中国科学技术大学苏州研究院 片上多核异构系统的调度系统与调度执行方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050063373A1 (en) * 2003-07-24 2005-03-24 Dehon Andre Method and apparatus for network with multilayer metalization
CN102129390A (zh) * 2011-03-10 2011-07-20 中国科学技术大学苏州研究院 片上多核计算平台的任务调度系统及进行任务并行化方法
CN102360309A (zh) * 2011-09-29 2012-02-22 中国科学技术大学苏州研究院 片上多核异构系统的调度系统与调度执行方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104298564A (zh) * 2014-10-15 2015-01-21 中国人民解放军国防科学技术大学 一种动态均衡异构计算系统负载的方法
CN104298564B (zh) * 2014-10-15 2017-05-17 中国人民解放军国防科学技术大学 一种动态均衡异构计算系统负载的方法
CN104331331A (zh) * 2014-11-02 2015-02-04 中国科学技术大学 任务数目和性能感知的可重构多核处理器的资源分配方法
CN104331331B (zh) * 2014-11-02 2017-07-28 中国科学技术大学 任务数目和性能感知的可重构多核处理器的资源分配方法
CN109144688B (zh) * 2015-03-27 2022-09-23 华为技术有限公司 异构多核可重构计算平台上任务调度的方法和装置
CN109144688A (zh) * 2015-03-27 2019-01-04 华为技术有限公司 异构多核可重构计算平台上任务调度的方法和装置
CN107430586B (zh) * 2015-07-31 2018-08-21 吴国盛 自适应芯片和配置方法
US10693466B2 (en) 2015-07-31 2020-06-23 Guosheng Wu Self-adaptive chip and configuration method
CN107430586A (zh) * 2015-07-31 2017-12-01 吴国盛 自适应芯片和配置方法
CN108288090A (zh) * 2018-01-08 2018-07-17 福州瑞芯微电子股份有限公司 一种并行竞争神经网络芯片的优化方法和装置
CN108288090B (zh) * 2018-01-08 2020-06-19 福州瑞芯微电子股份有限公司 一种并行竞争神经网络芯片的优化方法和装置
CN108710538A (zh) * 2018-05-14 2018-10-26 中国平安人寿保险股份有限公司 一种线程配置方法、计算机可读存储介质及终端设备
CN108710538B (zh) * 2018-05-14 2023-06-02 中国平安人寿保险股份有限公司 一种线程配置方法、计算机可读存储介质及终端设备

Also Published As

Publication number Publication date
CN102662765B (zh) 2014-09-03

Similar Documents

Publication Publication Date Title
Hsu et al. Adrenaline: Pinpointing and reining in tail queries with quick voltage boosting
CN102662765B (zh) 一种运行效率指导的可重构多核处理器的资源分配方法
Luo et al. A resource scheduling algorithm of cloud computing based on energy efficient optimization methods
Cai et al. SLA-aware energy-efficient scheduling scheme for Hadoop YARN
Schone et al. Memory Performance at Reduced {CPU} Clock Speeds: An Analysis of Current {x86_64} Processors
Hsu et al. Exploring the cache design space for large scale CMPs
CN107533350B (zh) 计算资源的动态层级式性能平衡
Kandalla et al. Designing power-aware collective communication algorithms for InfiniBand clusters
Koch et al. Could we use a million cores to solve an integer program?
Wang et al. SimMatrix: SIMulator for MAny-Task computing execution fabRIc at eXascale.
CN104331331A (zh) 任务数目和性能感知的可重构多核处理器的资源分配方法
Lee et al. Reducing peak power consumption inmulti-core systems without violatingreal-time constraints
Jia et al. PARS: A scheduling of periodically active rank to optimize power efficiency for main memory
Xu et al. vPFS: Bandwidth virtualization of parallel storage systems
CN102193831A (zh) 一种建立层次化的映射/归约并行编程模型的方法
Jia et al. Memory affinity: balancing performance, power, thermal and fairness for multi-core systems
Wang et al. Slo-driven task scheduling in mapreduce environments
Jadidi et al. Optimizing energy consumption in GPUS through feedback-driven CTA scheduling
Cheour et al. Simulation of efficient real-time scheduling and power optimisation
Li et al. CloudMatrix Lite: A Real Trace Driven Lightweight Cloud Data Center Simulation Framework
Patrou et al. Optimizing Energy Efficiency of Node. js Applications with CPU DVFS Awareness
McKenney et al. Improving energy efficiency on asymmetric multiprocessing systems
Lakshmi Data analysis on big data: Improving the map and shuffle phases in Hadoop Map Reduce
Li et al. A service performance based dynamic provisioning approach in containerized cloud environments
Ji et al. Multi-job Merging Framework and Scheduling Optimization for Apache Flink

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant