CN110968180B - 一种通过减少数据传输实现gpu降耗的方法及系统 - Google Patents

一种通过减少数据传输实现gpu降耗的方法及系统 Download PDF

Info

Publication number
CN110968180B
CN110968180B CN201911110442.0A CN201911110442A CN110968180B CN 110968180 B CN110968180 B CN 110968180B CN 201911110442 A CN201911110442 A CN 201911110442A CN 110968180 B CN110968180 B CN 110968180B
Authority
CN
China
Prior art keywords
data block
thread groups
thread
threads
cache
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911110442.0A
Other languages
English (en)
Other versions
CN110968180A (zh
Inventor
魏雄
王秋娴
胡倩
闫坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Textile University
Original Assignee
Wuhan Textile University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Textile University filed Critical Wuhan Textile University
Priority to CN201911110442.0A priority Critical patent/CN110968180B/zh
Publication of CN110968180A publication Critical patent/CN110968180A/zh
Application granted granted Critical
Publication of CN110968180B publication Critical patent/CN110968180B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3275Power saving in memory, e.g. RAM, cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/544Buffers; Shared memory; Pipes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明涉及一种通过减少数据传输实现GPU降耗的方法及系统,本发明通过将共享相同数据的线程放在同一个流多处理器(SM)中的L1缓存中的思想,避免跨SM访存导致数据传输增加从而增加功耗,同时利用相应的缓存替换策略,降低数据传输频率,在不过多影响性能的情况下,进一步实现功耗的降低。相比较现有技术,将共享相同数块的线程放在同一个SM中,避免了频繁的跨SM访存,减少了内存争用现象和不必要数据复制状况的出现具有较强的创新性;本发明技术以减少数据传输的角度,显著地减少了GPU的整体功耗。

Description

一种通过减少数据传输实现GPU降耗的方法及系统
技术领域
本发明属于通过减少数据传输和缓存管理实现GPU降耗的方法及系统,特别涉及一种通过减少数据传输实现GPU降耗的方法及系统。
背景技术
GPU拥有的众多ALU(逻辑执行单元)使其具有高并发和高吞吐量的特性,广泛地应用于大数据处理、神经网络、人工智能等领域,受到了众多研究者和业内人士的欢迎。然而,随着GPU在高性能计算中的广泛应用,导致人们对于GPU的带宽要求也在不断的提高,而带宽的提升通常是伴随着功耗的增加为代价。过高的功耗,其带来的资源消耗十分恐怖,例如美国能源部橡树岭国家实验室的“泰坦”超级计算机,一个计算机节点就能消耗将近500 瓦的电量,满负荷运算时功耗可达到8.2兆瓦。另外,功耗的增加使得硬件产生过多的热量,不仅缩短硬件的使用寿命,降低系统的可靠性,还影响着硬件设备性能的发挥,导致较低的能效比。因此,在不过多损害性能的同时,降低GPU的功耗是广大研究者必须解决的问题之一。
GPU功耗主要是由硬件产生。在硬件中,GPU的核心架构、核心的工艺制程和其“堆料”程度、空闲硬件运行等都会产生并影响功耗。GPU集成的晶体管数量越大,功耗就会越大;核心的工艺制程越粗糙,将会导致计算逻辑和硬件组件不能相互兼容,难以实现先进的低功耗架构;GPU的“堆料”程度如PCB基板,其包含的电子元件越多越精密,其功耗也会相应的得到增加;同时,空闲硬件在待机时也会需要能源的支撑,这也会产生部分功耗。
硬件组件之间的数据传输、计算任务执行等操作也会产生功耗。数据传输中的通信访问和副本复制需要相应的能源,当执行不合适的调度或数据复制策略时,就会导致数据冗余和多余的交互操作,同时也会增加功耗。数据爆炸式的增长,使得计算任务操作执行的频率越来越高,这将会消耗大量的资源,同时也会产生更多的能耗。因此,我们需要采取先进的降耗技术,缓解功耗带给系统的负面影响。
为此,全世界的科研人员经过了不懈的努力,提出了各种各样的新方法,这些方法可以被归为三类:(1)硬件方法;(2)中间件方法;(3)软件方法。
1.硬件方法
硬件方法主要是针对GPU的动态体系结构、缓存体系结构和互联网络进行设计,将多种专用控制器节能技术嵌入到现代处理器体系结构中,以降低能源使用,比如GRAPE用于GPU的硬件控制系统,通过协调计算单元的使用、速度和内存速度,在达到指定性能的情况下实现最小化功耗;将内存和功耗管理相结合,定期调整物理内存的大小和超时值,通过关闭硬盘来降低平均功耗。
2.中间件方法
中间件方法是在硬件中部分实现的,硬件使中间件能够根据处理器温度关闭或减慢功能单元。硬件支持的中间件技术包括Stop-and-Go、动态电压频率缩放(DVFS)、高级配置与电源接口(ACPI)和门控技术。其中, Stop-and-Go是动态电源管理(DPM)技术的最简单形式,DPM主要是通过关闭或改变空闲组件的状态来降低功耗的,而Stop-and-Go技术是可以在全局和局部范围内实现。在全局范围内,如果其中一个内核达到了制定的阈值温度,则该方案将会关闭整个芯片,直到它冷却下来恢复为止,而在局部范围内,只会关闭过热的内核,其他内核正常运作。
DVFS通过动态调整电压和时钟频率来调节处理器的功耗,通过降低供电电压,可以减少因漏电而产生的功耗,同时降低时钟频率以降低电源电压,再一次降低功耗。ACPI是计算设备中有效处理电源管理的行业标准。它为电源管理和监控提供与平台无关的接口,并且允许处理器通过将空闲设备移动到低功耗状态来实现功耗的降低。门控技术分为时钟门控(CG)和功率门控 (PG),通过关闭芯片上暂时用不到的功能和它的时钟,从而实现降低静态功耗的目的。
3.软件方法
软件方法通过转移或调度任务来最小化热梯度来实现可预测的性能,其主要包括数据转发、任务调度、任务迁移。数据转发主要是针对片上L1缓存,通过制定策略降低L1数据缓存能耗。任务调度通过调度算法在不同核之间分配任务,以平衡功耗密度。而线程迁移是通过将已分配的线程根据线程的电源配置文件从过热的内核迁移到冷内核以实现功耗的降低。
以上三种方法目前均取得了较好的效果,但还存在进一步提升的空间,比如与硬件相关的方法相比较于软件方法成本比较高,同时硬件方法因为工艺制造水平问题,其对功耗的降低能力有限;在中间件方法中,同样存在着与硬件方法相同的问题,因为是在硬件中实现,这会增加方法构建的硬件成本,具有一定的局限性和复杂性;在软件方法中,CTA调度会存在流多处理器(SM)中的负载不平衡问题,导致资源的空闲造成浪费;而防止温度热点的任务调度方案,可能因为频繁的在计算任务之间调度子任务,造成通信流量的增加和不必要的数据复制。因此,如何在不过多影响性能的情况下,进一步降低GPU功耗仍然是研究者需要面临的挑战之一。
发明内容
本发明要解决的技术问题是提出一个通过减少数据传输和缓存管理降低GPU功耗的方法,利用将共享相同数据的线程放在同一个SM中的L1缓存中的思想,避免跨SM访存导致数据传输增加从而增加功耗,同时利用相应的缓存替换策略,降低数据传输频率,在不过多影响性能的情况下,进一步实现功耗的降低。
本发明解决上述技术问题的技术方案如下:
一种通过减少数据传输实现GPU降耗的方法,包括以下步骤:
步骤1、判断所有数据块与线程之间的依赖关系,将共享一个数据块的线程划分到一个线程组,若不同线程组之间有线程重叠,则比较对应数据块之和与缓存空间的大小,根据判断是否进行将多个线程组合为一个线程组的操作;之后,将每个线程组和共享的数据块放入一个流多处理器的L1缓存中;
步骤2、每次向L1缓存中插入数据块之前,首先判断缓存是否已满,若未满则直接将数据块c插入L1缓存,若已满则采取预设缓存替换策略,对 L1缓存中的数据块进行淘汰替换。
进一步的,所述步骤1中,按照以下方案对数据块进行存储:设三组线程组A,B,C分别共享数据块a,数据块b和数据块c;Na,Nb,Nc分别为数据块a、数据块b和数据块c的大小,M表示缓存空间大小,先判断线程组之间是否存在重叠线程,再比较数据块之和与缓存空间M的大小:
若线程组A,B存在重叠线程,则比较Na+Nb与M的值,若Na+Nb>M,则线程组A,B不能合并,先放入数据块a执行,随后判断线程组B,C是否存在重叠线程,若存在,则比较Nb+Nc与M的值,若Nb+Nc大于M则线程组B,C不能合并,先放入数据块b,等数据块b执行完成后放入数据块c;若线程组 B,C存在重叠线程,且Nb+Nc<M,线程组B,C可以合并,数据块a执行完成后直接放入数据块b,c;若线程组B,C不存在重叠线程,放入数据块b,等b 执行完成后放入数据块c;
若线程组A,B存在存在重叠线程,且Na+Nb<M,则线程组A,B可以合并,再判断线程组A,B的并集与线程组C是否存在重叠线程,若存在,则比较 Na+Nb+Nc与M的值,若Na+Nb+Nc大于M,线程组A,B并集不能和线程组C合并,先放入数据块a,b,执行完成后放入数据块c;如果线程组A,B并集与线程组C不存在重叠线程,那么也是先放入数据块a,b,执行完成后放入数据块c;
若线程组A,B不存在重叠线程,那么先放入数据块a,再判断线程组B,C 是否存在重叠线程,若存在,则比较Nb+Nc与M的值,若Nb+Nc大于M,则线程组B,C不能合并,放入数据块b,等b执行完成后放入数据块c;若Nb+Nc小于M,线程组B,C可以合并,数据块a执行完成后放入数据块b,c;若线程组B,C不存在重叠线程,放入数据块b执行完成后放入数据块c。
进一步的,所述步骤2中的缓存替换策略为:
设待插入L1缓存中的数据块为数据块c,选定L1缓存中最近一次被访问时间长度T最长的数据块j;
将选定数据块j与待插入数据块c大小进行比较:
若Nj>Nc,则将数据块j与数据块c置换;
若Nj<Nc,则通过遍历将缓存中各个数据块大小(除数据块j)与数据块 c大小进行比较,当缓存中某一数据块的大小大于数据块c的大小时,停止比较,并将其与数据块c进行置换。
一种通过减少数据传输实现GPU降耗的系统,用于判断所有数据块与线程之间的依赖关系,将共享一个数据块的线程划分到一个线程组,若不同线程组之间有线程重叠,则比较对应数据块之和与M之间的大小,根据判断是否进行将多个线程组合为一个线程组的操作;之后,将每个线程组和共享的数据块放入一个流多处理器的L1缓存中;每次向L1缓存中插入数据块之前,首先判断缓存是否已满,若未满则直接将数据块c插入L1缓存,若已满则采取预设缓存替换策略,对L1缓存中的数据块进行淘汰替换。
进一步的,按照以下方案对数据块进行存储:设三组线程组A,B,C分别共享数据块a,数据块b和数据块c;Na,Nb,Nc分别为数据块a、数据块b和数据块c的大小,M表示缓存空间大小,先判断线程组之间是否存在重叠线程,再比较数据块之和与缓存空间M的大小:
若线程组A,B存在重叠线程,则比较Na+Nb与M的值,若Na+Nb>M,则线程组A,B不能合并,先放入数据块a执行,随后判断线程组B,C是否存在重叠线程,若存在,则比较Nb+Nc与M的值,若Nb+Nc大于M则线程组B,C不能合并,先放入数据块b,等数据块b执行完成后放入数据块c;若线程组 B,C存在重叠线程,且Nb+Nc<M,线程组B,C可以合并,数据块a执行完成后直接放入数据块b,c;若线程组B,C不存在重叠线程,放入数据块b,等b 执行完成后放入数据块c;
若线程组A,B存在存在重叠线程,且Na+Nb<M,则线程组A,B可以合并,再判断线程组A,B的并集与线程组C是否存在重叠线程,若存在,则比较 Na+Nb+Nc与M的值,若Na+Nb+Nc大于M,线程组A,B并集不能和线程组C合并,先放入数据块a,b,执行完成后放入数据块c;如果线程组A,B并集与线程组C不存在重叠线程,那么也是先放入数据块a,b,执行完成后放入数据块 c;
若线程组A,B不存在重叠线程,那么先放入数据块a,再判断线程组B,C 是否存在重叠线程,若存在,则比较Nb+Nc与M的值,若Nb+Nc大于M,则线程组B,C不能合并,放入数据块b,等b执行完成后放入数据块c;若Nb+Nc小于M,线程组B,C可以合并,数据块a执行完成后放入数据块b,c;若线程组B,C不存在重叠线程,放入数据块b执行完成后放入数据块c。
进一步的,所述缓存替换策略为:
设待插入L1缓存中的数据块为数据块c,选定L1缓存中最近一次被访问时间长度T最长的数据块j;
将选定数据块j与待插入数据块c大小进行比较:
若Nj>Nc,则将数据块j与数据块c置换;
若Nj<Nc,则通过遍历将缓存中各个数据块大小(除数据块j)与数据块 c大小进行比较,当缓存中某一数据块的大小大于数据块c的大小时,停止比较,并将其与数据块c进行置换。
本发明的有益效果为:由于本发明技术是对GPU内部的线程调度和缓存管理方法进行改进,所以相比较于与硬件相关的技术,其成本较低,并且实现方法简单;将共享相同数块的线程放在同一个流多处理器(SM)中,避免了频繁的跨流多处理器(SM)访存,减少了内存争用现象和不必要数据复制状况的出现;本发明技术以减少数据传输的角度,显著地减少了GPU的整体功耗。
附图说明
图1是本发明的总体流程示意图;
图2是本发明中根据线程与数据块依赖关系构造的二维矩阵图;
图3为本发明中线程调度策略流程图;
图4是本发明中缓存管理策略流程图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
图1是本发明的总体流程示意图,提出一个HTE功耗管理方法,此方法包含线程调度和缓存管理两个方向,通过减少数据传输,来减少GPU的功耗。
图2是本发明中根据线程与数据块依赖关系构造的二维矩阵图。横排为数据块ID,纵排为线程ID。当线程与数据块之间存在依赖关系时,即线程需要访问此数据块时,它们之间的关系将被被标记为“1”,如果不需要访问此数据块,它们之间的关系将会被标记为“0”。由于一个线程最多访问两个数据块,所以通常情况下根据依赖关系构造的二维矩阵是一个稀疏矩阵。
图3是本发明中线程调度策略流程图,其主要过程为:
1.对各个线程和数据块进行标记,以进行区分。通常情况下,线程ID 为:ThId=BlockIdx.x*BlockDim.x*BlockDim.y+ThreadIdx.y* BlockDim.x+ThreadIdx.x(ThreadIdx表示一个线程的索引,BlockIdx表示一个线程块的索引,BlockDim表示线程块的大小)。而各个数据块都增加了一个ID字段,用以标识各个数据块进行区分。
2.记录数据块与线程之间的依赖关系,构造二维矩阵;
3.根据二维矩阵,将共享相同数据块的不同线程分为一组线程组,即初步表明这些线程将会被放在同一个SM中的L1缓存中;
4.根据二维稀疏矩阵将共享相同数据块的线程“合并”为线程组,并对存在交集的线程组进行“合并”,直至线程组之间不存在交集。在图2矩阵中,横排表示数据块ID,标记为数据块A,B,C,D,E,纵排表示线程ID,标记为线程1,2,3,4,5,6。由图可知,数据块A被线程1,2共享;数据块B被线程1,3共享;数据块C被线程4,5共享;数据块D被线程5,6共享;数据块 E只有6访问。所以,共享数据块A的线程1,2和共享数据块B的线程1,3 存在交集线程1;共享数据块C的线程4,5和共享数据块D的线程5,6存在交集线程5;共享数据块D的线程5,6和需要数据块E的线程6存在交集线程6。为了尽可能地减少数据传输,需要将存在交集的线程组进行“合并”,即线程1,2,3为共享数据块A,B的一组,但是共享数据块C,D的线程4,5,6 和共享数据块D,E的线程5,6依旧存在交集线程5,6。根据本文方法的主要思路,通常情况下会将拥有交集的线程组继续“合并”,即线程4,5,6共享数据块C,D,E。
5.由于受到L1缓存空间有限的限制,可能会出现数据块不能同时放入缓存中的情况,所以需要在将线程组进行“合并”之前,比较线程组对应的数据块之和与缓存空间的大小,从而判断是否要对线程组进行合并。流程图中假设共享数据块的数量为3,被表示为数据块a,b,c,对应为线程组A,B,C, Na,Nb,Nc分别为数据块a,b,c的大小,M表示缓存空间大小。根据以上方法实践,会出现以下三种情况:
(1)若线程组A,B存在重叠线程,则比较Na+Nb与M的值,若Na+Nb>M,则线程组A,B不能合并,先放入数据块a执行,随后判断线程组B,C是否存在重叠线程,若存在,则比较Nb+Nc与M的值,若大于M则线程组B,C不能合并,先放入数据块b,等数据块b执行完成后放入数据块c;若线程组 B,C存在重叠线程,且Nb+Nc<M,线程组B,C可以合并,数据块a执行完成后直接放入数据块b,c;若线程组B,C不存在重叠线程,放入数据块b,等b 执行完成后放入数据块c;
(2)若线程组A,B存在存在重叠线程,且Na+Nb<M,则线程组A,B可以合并,再判断线程组A,B的并集与线程组C是否存在重叠线程,若存在,则比较Na+Nb+Nc与M的值,若大于M,线程组A,B并集不能和线程组C合并,先放入数据块a,b,执行完成后放入数据块c;如果线程组A,B并集与线程组C不存在重叠线程,那么也是先放入数据块a,b,执行完成后放入数据块c;
(3)若线程组A,B不存在重叠线程,那么先放入数据块a,再判断线程组B,C是否存在重叠线程,若存在,则比较Nb+Nc与M的值,若大于M,则线程组B,C不能合并,放入数据块b,等b执行完成后放入数据块c;若小于M,线程组B,C可以合并,数据块a执行完成后放入数据块b,c;若线程组B,C 不存在重叠线程,放入数据块b执行完成后放入数据块c。
图4是本发明中缓存管理策略流程图,其主要过程为:
1.对每个数据块添加时间标签字段T,用以记录每个数据块最近被访问的时间,并记录每个数据块大小N,用以之后数据块之间的大小比较;
2.该流程图假设L1缓存中存在的数据块数量为i,其中被选定的数据块由j表示,其大小为Nj,插入数据块表示为c,其大小为Nc。首先判断缓存是否已满,如果没有满则直接插入,否则对缓存中数据块最近被访问时间T 进行排序,选定拥有最久最近被访问时间的数据块j;
3.将选定数据块j与插入数据块c大小进行比较。将会出现以下两种情况:
(1)若Nj>Nc,则将数据块j与数据块c置换;
(2)若Nj<Nc,则通过遍历将缓存中各个数据块大小(除数据块j)与数据块c大小进行比较,当缓存中某一数据块的大小大于数据块c的大小时,停止比较,并将其与数据块c进行置换。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种通过减少数据传输实现GPU降耗的方法,其特征在于,包括以下步骤:
步骤1、判断所有数据块与线程之间的依赖关系,将共享一个数据块的线程划分到一个线程组,若不同线程组之间有线程重叠,则比较对应数据块之和与缓存空间的大小,根据判断是否进行将多个线程组合为一个线程组的操作;之后,将每个线程组和共享的数据块放入一个流多处理器的L1缓存中;
步骤2、每次向L1缓存中插入数据块之前,首先判断缓存是否已满,若未满则直接将数据块c插入L1缓存,若已满则采取预设缓存替换策略,对L1缓存中的数据块进行淘汰替换。
2.根据权利要求1所述的通过减少数据传输实现GPU降耗的方法,其特征在于,所述步骤1中,按照以下方案对数据块进行存储:设三组线程组A,B,C分别共享数据块a,数据块b和数据块c;Na,Nb,Nc分别为数据块a、数据块b和数据块c的大小,M表示缓存空间大小,先判断线程组之间是否存在重叠线程,再比较数据块之和与缓存空间M的大小:
若线程组A,B存在重叠线程,则比较Na+Nb与M的值,若Na+Nb>M,则线程组A,B不能合并,先放入数据块a执行,随后判断线程组B,C是否存在重叠线程,若存在,则比较Nb+Nc与 M的值,若Nb+Nc大于M则线程组B,C不能合并,先放入数据块b,等数据块b执行完成后放入数据块c;若线程组B,C存在重叠线程,且Nb+Nc<M,线程组B,C可以合并,数据块a执行完成后直接放入数据块b,c;若线程组B,C不存在重叠线程,放入数据块b,等b执行完成后放入数据块c;
若线程组A,B存在存在重叠线程,且Na+Nb<M,则线程组A,B可以合并,再判断线程组A,B的并集与线程组C是否存在重叠线程,若存在,则比较Na+Nb+Nc与M的值,若Na+Nb+Nc大于M,线程组A,B并集不能和线程组C合并,先放入数据块a,b,执行完成后放入数据块c;如果线程组A,B并集与线程组C不存在重叠线程,那么也是先放入数据块a,b,执行完成后放入数据块c;
若线程组A,B不存在重叠线程,那么先放入数据块a,再判断线程组B,C是否存在重叠线程,若存在,则比较Nb+Nc与M的值,若Nb+Nc大于M,则线程组B,C不能合并,放入数据块b,等b执行完成后放入数据块c;若Nb+Nc小于M,线程组B,C可以合并,数据块a执行完成后放入数据块b,c;若线程组B,C不存在重叠线程,放入数据块b执行完成后放入数据块c。
3.根据权利要求1所述的通过减少数据传输实现GPU降耗的方法,其特征在于,所述步骤2中的缓存替换策略为:
设缓存空间中存在的数据块数量为i,每个数据块最近被访问时间由T1,T2,……,Ti表示,同时每个数据块的大小被记录为N0,N1,N2,N3,……,Ni,待插入L1缓存中的数据块为数据块c,其大小为Nc,对缓存空间中的数据块被访问时间T进行排序,选定L1缓存中最近一次被访问时间长度T最长的数据块j,其大小为Nj
将选定数据块j与待插入数据块c大小进行比较:
若Nj>Nc,则将数据块j与数据块c置换;
若Nj<Nc,则通过遍历将缓存中除数据块j的各个数据块大小与数据块c大小进行比较,当缓存中某一数据块的大小大于数据块c的大小时,停止比较,并将其与数据块c进行置换。
4.一种通过减少数据传输实现GPU降耗的系统,其特征在于,用于判断所有数据块与线程之间的依赖关系,将共享一个数据块的线程划分到一个线程组,若不同线程组之间有线程重叠,则比较对应数据块之和与缓存空间的大小,根据判断是否进行将多个线程组合为一个线程组的操作;之后,将每个线程组和共享的数据块放入一个流多处理器的L1缓存中;每次向L1缓存中插入数据块之前,首先判断缓存是否已满,若未满则直接将数据块c插入L1缓存,若已满则采取预设缓存替换策略,对L1缓存中的数据块进行淘汰替换。
5.根据权利要求4所述的通过减少数据传输实现GPU降耗的系统,其特征在于,按照以下方案对数据块进行存储:设三组线程组A,B,C分别共享数据块a,数据块b和数据块c;Na,Nb,Nc分别为数据块a、数据块b和数据块c的大小,M表示缓存空间大小,先判断线程组之间是否存在重叠线程,再比较数据块之和与缓存空间M的大小:
若线程组A,B存在重叠线程,则比较Na+Nb与M的值,若Na+Nb>M,则线程组A,B不能合并,先放入数据块a执行,随后判断线程组B,C是否存在重叠线程,若存在,则比较Nb+Nc与 M的值,若Nb+Nc大于M则线程组B,C不能合并,先放入数据块b,等数据块b执行完成后放入数据块c;若线程组B,C存在重叠线程,且Nb+Nc<M,线程组B,C可以合并,数据块a执行完成后直接放入数据块b,c;若线程组B,C不存在重叠线程,放入数据块b,等b执行完成后放入数据块c;
若线程组A,B存在存在重叠线程,且Na+Nb<M,则线程组A,B可以合并,再判断线程组A,B的并集与线程组C是否存在重叠线程,若存在,则比较Na+Nb+Nc与M的值,若Na+Nb+Nc大于M,线程组A,B并集不能和线程组C合并,先放入数据块a,b,执行完成后放入数据块c;如果线程组A,B并集与线程组C不存在重叠线程,那么也是先放入数据块a,b,执行完成后放入数据块c;
若线程组A,B不存在重叠线程,那么先放入数据块a,再判断线程组B,C是否存在重叠线程,若存在,则比较Nb+Nc与M的值,若Nb+Nc大于M,则线程组B,C不能合并,放入数据块b,等b执行完成后放入数据块c;若Nb+Nc小于M,线程组B,C可以合并,数据块a执行完成后放入数据块b,c;若线程组B,C不存在重叠线程,放入数据块b执行完成后放入数据块c。
6.根据权利要求4所述的通过减少数据传输实现GPU降耗的系统,其特征在于,所述缓存替换策略为:
设待插入L1缓存中的数据块为数据块c,选定L1缓存中最近一次被访问时间长度T最长的数据块j;
将选定数据块j与待插入数据块c大小进行比较:
若Nj>Nc,则将数据块j与数据块c置换;
若Nj<Nc,则通过遍历将缓存中除数据块j的各个数据块大小与数据块c大小进行比较,当缓存中某一数据块的大小大于数据块c的大小时,停止比较,并将其与数据块c进行置换。
CN201911110442.0A 2019-11-14 2019-11-14 一种通过减少数据传输实现gpu降耗的方法及系统 Active CN110968180B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911110442.0A CN110968180B (zh) 2019-11-14 2019-11-14 一种通过减少数据传输实现gpu降耗的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911110442.0A CN110968180B (zh) 2019-11-14 2019-11-14 一种通过减少数据传输实现gpu降耗的方法及系统

Publications (2)

Publication Number Publication Date
CN110968180A CN110968180A (zh) 2020-04-07
CN110968180B true CN110968180B (zh) 2020-07-28

Family

ID=70030634

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911110442.0A Active CN110968180B (zh) 2019-11-14 2019-11-14 一种通过减少数据传输实现gpu降耗的方法及系统

Country Status (1)

Country Link
CN (1) CN110968180B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114595070B (zh) * 2022-05-10 2022-08-12 上海登临科技有限公司 一种处理器、多线程合并方法及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102947807A (zh) * 2010-06-14 2013-02-27 富士通株式会社 多核处理器系统、缓存一致性控制方法以及缓存一致性控制程序
CN105045564A (zh) * 2015-06-26 2015-11-11 季锦诚 图形处理器中的前端动态共享方法
CN106407063A (zh) * 2016-10-11 2017-02-15 东南大学 一种GPU L1 Cache处访存序列的仿真生成与排序方法
CN108595258A (zh) * 2018-05-02 2018-09-28 北京航空航天大学 一种gpgpu寄存器文件动态扩展方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8643656B2 (en) * 2010-09-30 2014-02-04 Nec Laboratories America, Inc. Energy-aware task consolidation on graphics processing unit (GPU)

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102947807A (zh) * 2010-06-14 2013-02-27 富士通株式会社 多核处理器系统、缓存一致性控制方法以及缓存一致性控制程序
CN105045564A (zh) * 2015-06-26 2015-11-11 季锦诚 图形处理器中的前端动态共享方法
CN106407063A (zh) * 2016-10-11 2017-02-15 东南大学 一种GPU L1 Cache处访存序列的仿真生成与排序方法
CN108595258A (zh) * 2018-05-02 2018-09-28 北京航空航天大学 一种gpgpu寄存器文件动态扩展方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Cache-Conscious Wavefront Scheduling;Timothy G. Rogers等;《2012 45th Annual IEEE/ACM International Symposium on Microarchitecture》;20130404;第72-83页 *
Enabling coordinated register allocation and thread-level parallelism optimization for GPUs;Xiaolong Xie等;《2015 48th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO)》;20170216;第395-406页 *
图形处理器通用计算关键技术研究综述;王海峰等;《计算机学报》;20130430;第36卷(第4期);第16页 *
通用图形处理器线程调度优化方法研究综述;何炎祥等;《计算机学报》;20160930;第39卷(第9期);第1733-1749页 *

Also Published As

Publication number Publication date
CN110968180A (zh) 2020-04-07

Similar Documents

Publication Publication Date Title
EP2207092B1 (en) Software-based thread remapping for power savings
US8010764B2 (en) Method and system for decreasing power consumption in memory arrays having usage-driven power management
Marathe et al. A run-time system for power-constrained HPC applications
US8190863B2 (en) Apparatus and method for heterogeneous chip multiprocessors via resource allocation and restriction
US8683476B2 (en) Method and system for event-based management of hardware resources using a power state of the hardware resources
US7788519B2 (en) Method, system, and apparatus for improving multi-core processor performance
US9904346B2 (en) Methods and apparatus to improve turbo performance for events handling
US9223383B2 (en) Guardband reduction for multi-core data processor
US8738875B2 (en) Increasing memory capacity in power-constrained systems
US20050125702A1 (en) Method and system for power management including device controller-based device use evaluation and power-state control
US20090320031A1 (en) Power state-aware thread scheduling mechanism
US8607177B2 (en) Netlist cell identification and classification to reduce power consumption
Yoo et al. Integrated scheduling of real-time and interactive tasks for configurable industrial systems
CN108549574A (zh) 线程调度管理方法、装置、计算机设备和存储介质
CN110096350A (zh) 基于集群节点负载状态预测的冷热区域划分节能存储方法
CN110968180B (zh) 一种通过减少数据传输实现gpu降耗的方法及系统
Jia et al. PARS: A scheduling of periodically active rank to optimize power efficiency for main memory
CN107636563B (zh) 用于通过腾空cpu和存储器的子集来降低功率的方法和系统
Chakraborty et al. Exploring the role of large centralised caches in thermal efficient chip design
Agarwalla et al. Efficient cache resizing policy for DRAM-based LLCs in ChipMultiprocessors
Ofori-Attah et al. A survey of system level power management schemes in the dark-silicon era for many-core architectures
Joshi et al. Dimming hybrid caches to assist in temperature control of chip multiprocessors
Oh et al. A load balancing technique for memory channels
Wang et al. Shared Last-Level Cache Management and Memory Scheduling for GPGPUs with Hybrid Main Memory
US20240004725A1 (en) Adaptive power throttling system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant