CN111158903B - 一种动态数据的规划方法 - Google Patents
一种动态数据的规划方法 Download PDFInfo
- Publication number
- CN111158903B CN111158903B CN201911274999.8A CN201911274999A CN111158903B CN 111158903 B CN111158903 B CN 111158903B CN 201911274999 A CN201911274999 A CN 201911274999A CN 111158903 B CN111158903 B CN 111158903B
- Authority
- CN
- China
- Prior art keywords
- memory
- data block
- data
- algorithm
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请属于信息处理技术领域,特别是涉及一种动态数据的规划方法。目前的动态规划算法,只在静态时对数据在混合异构内存中进行了最优内存资源分配,并未考虑到随着程序的运行,每段时间内处理器对各个数据块访问次数的改变,随着程序的运行,对数据块在内存中的位置进行调整往往能提高效率。该算法的时间复杂度需要考虑三种内存的大小,若内存较大,数据块分得较细,则该算法的运行时间将会很高。本申请提供的动态数据的规划方法,提出一种基于最小费用最大流思想的高效算法,是第一个不仅在静态时对内存资源进行最优分配,并且随着对数据块访问次数的改变而不断对内存资源进行调整的算法,本算法能实现程序运行时的低延时和低能耗。
Description
技术领域
本申请属于信息处理技术领域,特别是涉及一种动态数据的规划方法。
背景技术
由于内存、CPU和带宽的限制,资源调度是移动云计算中最重要的问题之一。对于无处不在的系统,如移动云系统,能源消耗和执行时间是衡量系统性能的两个最重要的指标。移动云系统由各种异构和资源受限的组件组成。并行计算架构如单芯片多处理器(CMP)、混合内存、异构网络等在移动云系统中得到了广泛的应用,用以降低系统的能耗,提高系统的运行速度。但是在执行任务时要在能源消耗和执行时间之间进行权衡;同时处理器和内存之间的速度差距越来越大。
低功耗和短延迟内存访问对CMP计算系统的性能至关重要,当前CMP系统的持续开发受到内存墙和电源墙问题的严重阻碍,为了弥补日益扩大的处理器和内存之间的速度差距,传统计算系统广泛采用了硬件缓存,得益于时间和空间的局部性,有效地促进了分层内存层次结构。尽管如此,缓存也给CMP系统带来了臭名昭著的问题,如缺乏可预测性的硬性保证和缓存丢失时的过高惩罚。
因此,开发可替代的节能技术来替代当前的硬件管理高速缓存是非常必要的。便笺式存储器(SPM)是一种软件控制的片内存储器,由于其相对于高速缓存的两大优点,已被各大厂商广泛采用。首先,SPM没有比较器和标记静态随机访问内存(SRAM),这种特性可以节省大量的能量。SPM与高速缓存相比,其能节省34%的芯片面积和40%的能量消耗。其次,SPM通常保证单周期访问延迟,而对缓存的访问可能会受到容量、强制访问和冲突错误的影响,从而导致非常长的延迟。由于SPM在尺寸、功耗和可预测性方面的优势,它已被广泛应用于CMP系统,根据SPM的软件管理特点,最关键的任务是在编译器的帮助下管理SPM并执行数据分配。
目前的动态规划算法,只在静态时对数据在混合异构内存中进行了最优内存资源分配,并未考虑到随着程序的运行,每段时间内处理器对各个数据块访问次数的改变,随着程序的运行,对数据块在内存中的位置进行调整往往能提高效率。并且该动态规划算法的时间复杂度为O(N×K3P),其中N表示数据块的数量,K为三种内存中具有最大容量的内存值,P为核的数量;该算法的时间复杂度需要考虑三种内存的大小,若内存较大,数据块分得较细,则该算法的运行时间将会很高。
发明内容
1.要解决的技术问题
基于目前的动态规划算法,只在静态时对数据在混合异构内存中进行了最优内存资源分配,并未考虑到随着程序的运行,每段时间内处理器对各个数据块访问次数的改变,随着程序的运行,对数据块在内存中的位置进行调整往往能提高效率。并且该动态规划算法的时间复杂度为O(N×K3P),其中N表示数据块的数量,K为三种内存中具有最大容量的内存值,P为核的数量;该算法的时间复杂度需要考虑三种内存的大小,若内存较大,数据块分得较细,则该算法的运行时间将会很高的问题,本申请提供了一种动态数据的规划方法。
2.技术方案
为了达到上述的目的,本申请提供了一种动态数据的规划方法,所述方法包括如下步骤:
步骤1:建立网络流模型;
步骤2:预测首阶段对各个数据块的访问次数,并计算出访问各个数据块的延时和能耗;
步骤3:利用所述网络流模型构建残存网络;
步骤4:寻找残存网络中费用最低的增广路径;
步骤5:每隔一段时间重新统计各个数据块访问的次数,并计算出访问各个数据块的延时和能耗,更新网络流模型;
步骤6:利用更新的网络流模型执行最小费用最大流算法,计算出最小费用并与前一次计算出的最小费用相比较,根据比较结果对数据块在内存中的位置进行调整。
所述步骤1中网络流模型将数据块和芯片上的内存作为顶点,同时添加源结点和终结点,由于所述延时和能耗成正比,故以访问各个数据块的延时或者能耗作为数据块顶点到内存顶点的弧的权值,源结点到各个数据块结点以及各个内存顶点到终结点的弧的权值设为0;源结点到各个数据块顶点以及各个数据块顶点到内存顶点的弧的容量设为1,内存顶点到终结点的弧的容量则根据各个内存大小来设定。
所述步骤2中根据之前的统计或者预测来计算出对将要分配内存的各数据块的访问次数,根据对SPM上对每种内存进行读写操作以及数据块在各个内存间的迁移所需要的延时和能耗,计算出访问每个数据块所需要的延时和能耗。
所述步骤4中利用SPFA算法寻找残存网络中费用最低的增广路径。
若找到费用最低的增广路径,则增加流量与费用,并根据增广路径对数据块进行内存分配,然后重新构建残存网络并返回步骤4,若没有找到增广路径增,则最小费用最大流算法结束。
所述SPFA算法中保存了费用最低的增广路径中的结点,并且保存了能够增加的最大流量。
所述提取动态规划按照光栅栏逆序顺序提取动态规划。
所述最小费用最大流算法的最坏时间复杂度为O(VEF);其中V代表顶点数量,E代表边的数量,F代表最大流量。
所述时间复杂度为O(N3)。
3.有益效果
与现有技术相比,本申请提供的一种动态数据的规划方法的有益效果在于:
本申请提供的动态数据的规划方法,提出了一种扩展的最小费用最大流算法,以解决移动云系统的混合异构内存SPM中数据的布局以及调整问题。所提出的算法利用最小费用最大流的思想,在数据分配算法中提高了混合异构内存资源的利用率。在可以建模为具有N个数据块,P个核心的程序中,这种基于最小费用最大流的算法在异构内存资源分配中最坏情况可以达到O(N3)的时间复杂度(以三种存储介质为例,同时考虑到核数远远小于数据块的数量),同时还可以解决动态情况下的数据调整问题。
本申请提供的动态数据的规划方法,提出一种基于最小费用最大流思想的高效算法,是第一个不仅在静态时对内存资源进行最优分配,并且随着对数据块访问次数的改变而不断对内存资源进行调整的算法,本算法能实现程序运行时的低延时和低能耗。
本申请提供的动态数据的规划方法,通过构建流网络数据模型,将资源分配问题转化为求解最小费用最大流问题,利用最小费用最大流算法对一段时间内的数据块进行了最优内存分配,并每隔一段时间重新计算出最小费用,并与上一次计算出的最小费用进行比较,根据比较结果对数据块在内存中的位置进行调整。
本申请提供的动态数据的规划方法,利用机器学习的方法所确定的需要调整数据块的阈值;不仅考虑了静态情况下对数据块进行内存资源分配,并且考虑了随着程序的运行,每段时间程序对每个数据块的访问次数会发生变化,故有必要考虑是否重新对数据块进行内存资源分配,将相邻两段时间内利用最小费用最大流算法得到的结果进行比较,比较值超过标准值则对数据块在各内存中的位置进行调整,否则不调整。
附图说明
图1是本申请的网络流模型示意图;
图2是本申请的增广路径示意图。
具体实施方式
在下文中,将参考附图对本申请的具体实施例进行详细地描述,依照这些详细的描述,所属领域技术人员能够清楚地理解本申请,并能够实施本申请。在不违背本申请原理的情况下,各个不同的实施例中的特征可以进行组合以获得新的实施方式,或者替代某些实施例中的某些特征,获得其它优选的实施方式。
结合Static RAM(SRAM)、Magnetic RAM(MRAM)以及Zero-capacitor RAM(ZRAM)的优缺点,已有许多研究者对三种存储器进行了组合使用,其中一组研究团队使用了三种内存相结合的SPM,同时针对静态情况下,提出了一种改善的动态规划算法,利用程序员或编译器对数据块的检测,对内存资源进行了最优的分配,提高了程序的运行效率。
SPFA可以处理负权边
定理:只要最短路径存在,上述SPFA算法必定能求出最小值。
证明:
每次将点放入队尾,都是经过松弛操作达到的。换言之,每次的优化将会有某个点v的最短路径估计值d[v]变小。所以算法的执行会使d越来越小。由于我们假定图中不存在负权回路,所以每个结点都有最短路径值。因此,算法不会无限执行下去,随着d值的逐渐变小,直到到达最短路径值时,算法结束,这时的最短路径估计值就是对应结点的最短路径值。(证毕)
期望的时间复杂度O(ke),其中k为所有顶点进队的平均次数,可以证明k一般小于等于2,e是指图的边数。
判断有无负环:
如果某个点进入队列的次数超过N次则存在负环(SPFA无法处理带负环的图)
SPFA的两种写法,BFS和DFS,BFS判别负环不稳定,相当于限深度搜索,但是设置得好的话还是没问题的,DFS的话判断负环很快。BFS指宽度优先搜索,DFS指深度优先搜索。
网络流(network-flows)是一种类比水流的解决问题方法,与线性规划密切相关。网络流的理论和应用在不断发展,出现了具有增益的流、多终端流、多商品流以及网络流的分解与合成等新课题。网络流的应用已遍及通讯、运输、电力、工程规划、任务分派、设备更新以及计算机辅助设计等众多领域。
参见图1~2,本申请提供一种动态数据的规划方法,所述方法包括如下步骤:
步骤1:建立网络流模型;
步骤2:预测首阶段对各个数据块的访问次数,并计算出访问各个数据块的延时和能耗;可以根据之前的统计或者预测来计算出对将要分配内存的各数据块的访问次数,根据对SPM上对每种内存进行读写操作以及数据块在各个内存间的迁移所需要的延时和能耗,计算出访问每个数据块所需要的延时和能耗,又由于延时和能耗成正比,故可选其一用以构建网络流数据模型。
步骤3:利用所述网络流模型构建残存网络;在刚开始构建的流网络数据模型的基础上构建残存网络图,它的顶点是原网络N中的顶点,而把N中每一条弧(vi,vj)变成两个相反方向的弧(vi,vj)和(vj,vi)。定义残存网络图w(f)中的弧的权值(及费用)如下:
如果(fij<Cij),则bij=wij;如果(fij=Cij),则bij=+∞;
如果(fij>0),则bji=-wij;如果(fij=0),则bji=+∞;
其中fij表示弧(vi,vj)的流量,Cij表示弧(vi,vj)的容量,bij表示弧(vi,vj)新的权值。
步骤4:寻找残存网络中费用最低的增广路径;
步骤5:每隔一段时间重新统计各个数据块访问的次数,并计算出访问各个数据块的延时和能耗,更新网络流模型;其中所选取的间隔时间可以通过实验来确定。
步骤6:利用更新的网络流模型执行最小费用最大流算法,计算出最小费用并与前一次计算出的最小费用相比较,根据比较结果对数据块在内存中的位置进行调整。利用步骤5所构建的网络流模型执行最小费用最大流算法,计算出最小费用并得出各个数据块的分配方案,将费用与分配方案与上一次得出的结果进行比较,若费用的减少量没有超过一定值,则不改变数据块在内存中的位置,若超过该值,则重新对数据块进行内存资源分配,而该标准值亦可以利用机器学习的方法确定。
图1中其中S表示源结点,T表示终结点,Ni表示数据块i,CHJ表示第H个核心的J内存,MM表示共享主内存。
进一步地,所述步骤1中网络流模型将数据块和芯片上的内存作为顶点,同时添加源结点和终结点,并以访问各个数据块的延时或者能耗(因为延时和能耗成正比,二选一即可)作为数据块顶点到内存顶点的弧的权值(即费用),源结点到各个数据块结点以及各个内存顶点到终结点的弧的权值(即费用)设为0;源结点到各个数据块顶点以及各个数据块顶点到内存顶点的弧的容量设为1,内存顶点到终结点的弧的容量则根据各个内存的大小来设定。进一步地,所述延时和能耗成正比。
进一步地,所述步骤2中根据之前的统计或者预测来计算出对将要分配内存的各数据块的访问次数,根据对SPM上对每种内存进行读写操作以及数据块在各个内存间的迁移所需要的延时和能耗,计算出访问每个数据块所需要的延时和能耗。
进一步地,所述步骤4中利用SPFA算法寻找残存网络中费用最低的增广路径。
由于所构建的残存网络图中存在着权值为负值的弧,故不能使用Dijkstra算法,因此本发明选用了SPFA算法,该算法的主要思想是设立一个先进先出的队列用来保存待优化的结点,优化时每次取出队首结点u,并且用u点当前的最短路径估计值对离开u点所指向的结点v进行松弛操作,如果v点的最短路径估计值有所调整,且v点不在当前的队列中,就将v点放入队尾。这样不断从队列中取出结点来进行松弛操作,直至队列空为止。
进一步地,若找到费用最低的增广路径,则增加流量与费用,并根据增广路径对数据块进行内存分配,然后重新构建残存网络并返回步骤4,若没有找到增广路径增,则最小费用最大流算法结束。
若步骤4找到了费用最低的增广路径,举个简单的例子,图2是残存网络中从S到T的一条费用最低的增广路径:(x,y)中的x表示所能流的容量,y表示费用,其中增加的最大流量值为增广路径所有弧中的最小容量值,故该增广路径可增加的流量为1,增加的费用即为50,该图表示将数据块Ni分配到P核心的SRAM中。
如果没有找到费用最低的增广路径,则可能是存在负权环路,也可能是已经计算出了最大流以及最小费用,残存网络中已经不存在从源结点到终结点的增广路径,两种情况都应当结束算法。当网络流发生改变后,需要重新构建残存网络,此时只需在之上一次构建的残存网络中找到的增广路径上进行修改便可得到新的残存网络,即将增广路径上沿着流方向的弧的容量减去所增加的流量值从而得到该弧新的容量值,反向弧的容量加上所增加的流量值得到新的容量值,而弧的权值的调整则遵循S1中的规则,非增广路径上弧的容量和权值保持不变。
进一步地,所述SPFA算法中保存了费用最低的增广路径中的结点,并且保存了能够增加的最大流量。
进一步地,所述提取动态规划按照光栅栏逆序顺序提取动态规划。
进一步地,所述最小费用最大流算法的最坏时间复杂度为O(VEF);其中V代表顶点数量,E代表边的数量,F代表最大流量。对于此模型(以三种存储介质,N个数据块,P个核心为例),V=N+3P+3NP,E=3PN+N2+2N,F=N,由于核心数P远远小于数据块N,故可计算出时间复杂度为O(N3)。
进一步地,所述时间复杂度为O(N3)。
本申请提供的动态数据的规划方法,提出一种基于最小费用最大流思想的高效算法,是第一个不仅在静态时对内存资源进行最优分配,并且随着对数据块访问次数的改变而不断对内存资源进行调整的算法,本算法能实现程序运行时的低延时和低能耗。
扩展的最小费用大流算法如下:
尽管在上文中参考特定的实施例对本申请进行了描述,但是所属领域技术人员应当理解,在本申请公开的原理和范围内,可以针对本申请公开的配置和细节做出许多修改。本申请的保护范围由所附的权利要求来确定,并且权利要求意在涵盖权利要求中技术特征的等同物文字意义或范围所包含的全部修改。
Claims (5)
1.一种动态数据的规划方法,其特征在于:所述方法包括如下步骤:
步骤1:建立网络流模型;
步骤2:预测首阶段对各个数据块的访问次数,并计算出访问各个数据块的延时和能耗;
步骤3:利用所述网络流模型构建残存网络;
步骤4:寻找残存网络中费用最低的增广路径;
步骤5:每隔一段时间重新统计各个数据块访问的次数,并计算出访问各个数据块的延时和能耗,更新网络流模型;
步骤6:利用更新的网络流模型执行最小费用最大流算法,计算出最小费用并与前一次计算出的最小费用相比较,根据比较结果对数据块在内存中的位置进行调整;所述步骤1中网络流模型将数据块和芯片上的内存作为顶点,同时添加源结点和终结点,并以访问各个数据块的延时或者能耗作为数据块顶点到内存顶点的弧的权值,源结点到各个数据块结点以及各个内存顶点到终结点的弧的权值设为0;源结点到各个数据块顶点以及各个数据块顶点到内存顶点的弧的容量设为1,内存顶点到终结点的弧的容量根据各个内存大小来设定;所述步骤2中根据之前的统计或者预测来计算出对将要分配内存的各数据块的访问次数,根据对SPM上每种内存进行读写操作以及数据块在各个内存间的迁移所需要的延时和能耗,计算出访问每个数据块所需要的延时和能耗;所述步骤4中利用SPFA算法寻找残存网络中费用最低的增广路径;所述最小费用最大流算法的最坏时间复杂度为O(VEF);其中V代表顶点数量,E代表边的数量,F代表最大流量;时间复杂度为O(N3),N为数据块的数量。
2.如权利要求1所述的动态数据的规划方法,其特征在于:所述延时和能耗成正比。
3.如权利要求1所述的动态数据的规划方法,其特征在于:若找到费用最低的增广路径,则增加流量与费用,并根据增广路径对数据块进行内存分配,然后重新构建残存网络并返回步骤4,若没有找到增广路径增,则最小费用最大流算法结束。
4.如权利要求3所述的动态数据的规划方法,其特征在于:所述SPFA算法中保存了费用最低的增广路径中的结点,并且保存了能够增加的最大流量。
5.如权利要求4所述的动态数据的规划方法,其特征在于:提取所述动态数据的规划按照光栅栏逆序顺序提取动态规划。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911274999.8A CN111158903B (zh) | 2019-12-12 | 2019-12-12 | 一种动态数据的规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911274999.8A CN111158903B (zh) | 2019-12-12 | 2019-12-12 | 一种动态数据的规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111158903A CN111158903A (zh) | 2020-05-15 |
CN111158903B true CN111158903B (zh) | 2023-04-25 |
Family
ID=70557008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911274999.8A Active CN111158903B (zh) | 2019-12-12 | 2019-12-12 | 一种动态数据的规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111158903B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112600827B (zh) * | 2020-12-10 | 2021-10-29 | 中国科学院深圳先进技术研究院 | 基于增量式最小费用最大流的虚拟服务迁移方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101645888A (zh) * | 2009-06-02 | 2010-02-10 | 中国科学院声学研究所 | 一种基于访问频度变长逻辑分段的数据分发方法 |
CN103297983A (zh) * | 2013-05-06 | 2013-09-11 | 南京邮电大学 | 一种基于网络流的无线传感器网络节点动态部署方法 |
WO2015021869A1 (zh) * | 2013-08-14 | 2015-02-19 | 华为技术有限公司 | 一种最优网络最大流算法的选择方法和设备 |
CN105928535A (zh) * | 2016-06-15 | 2016-09-07 | 苏州清研捷运信息科技有限公司 | 一种道路通行限制的车辆路径规划方法 |
-
2019
- 2019-12-12 CN CN201911274999.8A patent/CN111158903B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101645888A (zh) * | 2009-06-02 | 2010-02-10 | 中国科学院声学研究所 | 一种基于访问频度变长逻辑分段的数据分发方法 |
CN103297983A (zh) * | 2013-05-06 | 2013-09-11 | 南京邮电大学 | 一种基于网络流的无线传感器网络节点动态部署方法 |
WO2015021869A1 (zh) * | 2013-08-14 | 2015-02-19 | 华为技术有限公司 | 一种最优网络最大流算法的选择方法和设备 |
CN105928535A (zh) * | 2016-06-15 | 2016-09-07 | 苏州清研捷运信息科技有限公司 | 一种道路通行限制的车辆路径规划方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111158903A (zh) | 2020-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Checconi et al. | Traversing trillions of edges in real time: Graph exploration on large-scale parallel machines | |
Delling et al. | PHAST: Hardware-accelerated shortest path trees | |
Sariyüce et al. | Betweenness centrality on GPUs and heterogeneous architectures | |
CN109918199B (zh) | 基于gpu的分布式图处理系统 | |
Chen et al. | A flow-guided file layout for out-of-core streamline computation | |
WO2023184835A1 (zh) | 三类顶点度数感知的1.5维度图划分方法及应用 | |
Moreira et al. | Graph partitioning with acyclicity constraints | |
CN105094751A (zh) | 一种用于流式数据并行处理的内存管理方法 | |
Ng et al. | Defragmentation for efficient runtime resource management in NoC-based many-core systems | |
US20230281157A1 (en) | Post-exascale graph computing method, system, storage medium and electronic device thereof | |
Chen et al. | Rubik: A hierarchical architecture for efficient graph learning | |
CN111158903B (zh) | 一种动态数据的规划方法 | |
Dayyani et al. | A comparative study of replication techniques in grid computing systems | |
McCrabb et al. | DREDGE: Dynamic repartitioning during dynamic graph execution | |
Belayneh et al. | MessageFusion: On-path message coalescing for energy efficient and scalable graph analytics | |
Aggarwal et al. | HPCC RandomAccess benchmark for next generation supercomputers | |
CN110308991B (zh) | 一种基于随机任务的数据中心节能优化方法及系统 | |
Fang et al. | Offloading strategy for edge computing tasks based on cache mechanism | |
Yang et al. | Partially shared cache and adaptive replacement algorithm for NoC-based many-core systems | |
Liu et al. | An energy efficient clustering-based scheduling algorithm for parallel tasks on homogeneous DVS-enabled clusters | |
Schuler et al. | XEngine: Optimal tensor rematerialization for neural networks in heterogeneous environments | |
Alsaryrah et al. | A fast iot service composition scheme for energy efficient qos services | |
Chen et al. | MARCO: A High-performance Task M apping a nd R outing Co-optimization Framework for Point-to-Point NoC-based Heterogeneous Computing Systems | |
Chin et al. | Implementing and evaluating multithreaded triad census algorithms on the Cray XMT | |
Dahmani et al. | Using the spring physical model to extend a cooperative caching protocol for many-core processors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |