CN114546666B - 基于多运算设备的功耗分配方法 - Google Patents

基于多运算设备的功耗分配方法 Download PDF

Info

Publication number
CN114546666B
CN114546666B CN202210438220.7A CN202210438220A CN114546666B CN 114546666 B CN114546666 B CN 114546666B CN 202210438220 A CN202210438220 A CN 202210438220A CN 114546666 B CN114546666 B CN 114546666B
Authority
CN
China
Prior art keywords
power consumption
current
master
value
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210438220.7A
Other languages
English (en)
Other versions
CN114546666A (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Muxi Technology Beijing Co ltd
Original Assignee
Muxi Technology Beijing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Muxi Technology Beijing Co ltd filed Critical Muxi Technology Beijing Co ltd
Priority to CN202210438220.7A priority Critical patent/CN114546666B/zh
Publication of CN114546666A publication Critical patent/CN114546666A/zh
Application granted granted Critical
Publication of CN114546666B publication Critical patent/CN114546666B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5094Allocation of resources, e.g. of the central processing unit [CPU] where the allocation takes into account power or heat criteria
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Power Sources (AREA)

Abstract

本发明涉及一种基于多运算设备的功耗分配方法,包括骤C1、Gi向master发送静态功耗参数,master为Gi设置初始分配功耗;步骤C2、每隔第一时间间隔,获取Gi当前的{Ui,Ii,Ti,Fi},结合当前分配功耗PAi进行运算设备内部功耗调节;步骤C3、Gi每隔第二时间间隔,基于{Ui,Ii,Ti,Fi}生成{UVi,IVi,TVi,FVi},发送给master;步骤C4、master基于服务器的预设功耗总量、{UVi,IVi,TVi,FVi}、静态功耗参数生成PAi ,更新PAi=PAi 。本发明提高了多个运算设备的功耗利用率。

Description

基于多运算设备的功耗分配方法
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于多运算设备的功耗分配方法。
背景技术
服务器中的GPU、FPGA、DSP、AI加速器等AI运算设备在正常运行过程中需要使得功耗维持在散热设计功耗(Thermal Design Power,简称TDP)附近,现有的服务器或服务器集群中通常包括多个运算设备,在多个运算设备运行过程中,如何合理为多个运算设备合理分配功耗至关重要。现有技术中,通常在多个运算设备中选定一个master(主运算设备),通过master来为多个运算设备分配功耗。但是现有技术中至少存在以下缺点:(1)现有技术通常随机选定master,可能会导致部分运算设备与master的距离远,延迟大,影响功耗分配的效率,即便初始选定时,考虑到各个运算设备的延迟,但是,由于运算设备的数量是可能发生变化的,运算设备的数量变化以后原来的master也无法再保证合理延迟,进而也会影响多个运算设备之间的功耗分配。(2)现有技术在为多个运算设备进行功耗分配过程中,通常仅基于运算设备的TDP值进行静态分配,而没有充分考虑每个运算设备的实时工作状态,因此会造成功耗浪费,功耗利用率低。由此可知,如何在多个运算设备中确定合理的master,以及如何在多个运算设备之间合理分配功耗成为亟待解决的技术问题。
发明内容
本发明目的在于,提供一种基于多运算设备的功耗分配方法,通过运算设备内部细粒度调整运算设备内部功耗,通过master粗粒度调整多个运算设备之间的动态功耗分配,且功耗分配反作用于每一运算设备的内部功耗调整,避免功耗浪费,提高了多个运算设备的功耗利用率。
本发明提供了一种基于多运算设备的功耗分配方法,包括:
步骤C1、当服务器上电时,所有Gi向master发送静态功耗参数,所述master为每一Gi设置初始分配功耗,所述master为服务器对应的多个运算设备中的其中一个运算设备,Gi为服务器中第i个运算设备,i的取值范围为1到N,N为服务器中运算设备的总数;
步骤C2、Gi每隔预设的第一时间间隔,获取Gi当前的{Ui,Ii,Ti,Fi},Gi基于当前的{Ui,Ii,Ti,Fi}以及当前分配功耗PAi进行运算设备内部功耗调节,其中,Ui表示Gi当前的电压值,Ii表示Gi当前的电流值,Ti表示Gi当前的温度值,Fi表示Gi当前的频率值;
步骤C3、Gi每隔预设的第二时间间隔,基于当前时刻之前的历史时间窗内的{Ui,Ii,Ti,Fi}生成{UVi,IVi,TVi,FVi},并发送给所述master,UVi表示Gi的当前周期电压值,IVi表示Gi的当前周期电流值,TVi表示Gi的当前周期温度值,FVi表示Gi的当前周期频率值,所述第二时间间隔大于第一时间间隔;
步骤C4、所述master基于服务器的预设功耗总量、每一Gi的{UVi,IVi,TVi,FVi}、每一Gi的静态功耗参数生成每一Gi的当前分配功耗PAi ,更新PAi= PAi
本发明与现有技术相比具有明显的优点和有益效果。借由上述技术方案,本发明提供的一种基于多运算设备的功耗分配方法可达到相当的技术进步性及实用性,并具有产业上的广泛利用价值,其至少具有下列优点:
本发明通过运算设备内部细粒度调整运算设备内部功耗,并结合master粗粒度调整多个运算设备之间的动态功耗分配,且功耗分配反作用于每一运算设备的内部功耗调整,提高了多个运算设备的功耗利用率,避免了功耗浪费,实现了多个运算设备之间功耗的实时合理分配。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为本发明实施例提供的多运算设备的master选择方法流程图;
图2为本发明实施例提供的基于多运算设备的功耗分配方法流程图。
具体实施方式
为更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于多运算设备的master选择方法的具体实施方式及其功效,详细说明如后。
实施例一、
实施例一提供了一种基于多运算设备的master选择方法,如图1所示,包括:
步骤S1、当服务器上电时,获取运算设备拓扑结构信息{G1,G2,…GN},若G1,G2,…GN依次连接构成线性拓扑结构,则执行步骤S2;
其中,服务器上电时,即服务器启动时,当服务器内部的运算设备需要在增加、减少或者调整拓扑结构时,需要关闭服务器,调整完运算设备的数量后再重新上电,上电后,本实施例所述方法也能基于当前最新的运算设备数量、运算设备拓扑结构来自适应确定最佳的master。 服务器具体为单个服务器,或多个服务器组成的集群,服务器中的CPU可以连接一个运算设备,也可以连接多个运算设备,服务器对应的所有运算设备按照预设的拓扑结构连接,拓扑结构可以为线性拓扑结构、全互联拓扑结构或环形拓扑结构。
步骤S2、每一Gi生成请求数据包Ri,Ri包括Gi的id,Gi将Ri沿线性拓扑结构的第一方向从Gi-1依次传递至G1,Gi将Ri沿线性拓扑结构的第二方向从Gi+1依次传递至GN;Gj在收到Ri后,生成回复数据包Qi j,Qi j包括Gj的id以及Gj目标参数,Gj沿着线性结构将Qi j传递给Gi,i和j的取值范围均为1到N,N为服务器中运算设备的总数,i≠j;
可以理解的是,第一方向和第二方向为相反的方向,以运算设备的id从大到小为第一方向,从小到大为第二方向为例,当i=1时,Gi仅能延第二方向传递Ri,当i=n时,Gi仅能延第一方向传递Ri。目标参数根据具体应用场景确定,例如选择master用于多个运算设备之间的功耗分配,那么对应的目标参数为静态功耗参数,静态功耗参数具体可以包括运算设备的峰值功率(peak power)和散热设计功耗(Thermal Design Power,简称)值,运算设备的峰值功率为运算设备的最大功率,TDP值为运算设备正常工作下的功率,同行运算设备正常工作过后才能中,功率会维持在TDP附近,偶尔可能会达到峰值功率,但也会快速回落到TDP。但是,受运算设备负载工作等因素的影响,实际工作过程中,运算设备工作所需的功率是可能小于TDP,也可能处于TDP和峰值功率之间的,因此,需要基于运算设备的工作状态,及时调整运算设备的功耗分配,避免功耗浪费。
步骤S3、获取每一Gi接收到的沿线性拓扑结构的第一方向发出的Ri所收到的Qi j的数量Mi1以及沿线性拓扑结构的第二方向发出的Ri所收到的Qi j的数量Mi2,若Mi1= Mi2,或者Mi1+1= Mi2,则将Gi确定为master。
本领域技术人员可以理解的是,服务器上电后,步骤S1-S3是能够迅速执行完毕的,能够快速确定master。此外,需要说明的是,实施例一确定master不仅限于多个运算设备功耗分配的场景,其他需要选择master的场景也在本申请的保护范围之内,运算设备具体可包括GPU、FPGA、DSP、AI加速器等AI运算设备。
实施例一所述方法能够在服务器每次上电时,多个运算设备选择位置居中的master,使得各运算设备之间进行信息交互的延迟最小,提高了多个运算设备之间的信息交互效率,且由于运算设备数量的增加或减少后,一定会重新上电,本发明能够在每次上电时,基于当前的运算设备数量和连接结构自适应确定master。
作为一种实施例,所述步骤S1中,若G1,G2,…GN组成全互联拓扑结构,则直接将预设的Gx确定为master,x为预设值,x=1、2、…或N。需要说明的是,由于全互联结构任何两个运算设备之间均存在连接,因此任意选择一个运算设备延迟效果均一致,作为优选示例,可以直接设置x的取值为1。
作为一种实施例,所述步骤S1中,若G1,G2,…GN组成环形拓扑结构,则设置Gy和Gy+1之间不直接传送请求数据包和回复数据包,将G1,G2,…GN转换成线性拓扑结构,然后执行步骤S2,其中,y的取值范围为1到N,且当y=N时,将y+1设置为1。通过将环形结构转换为线性拓扑结构,后续直接基于步骤S2和步骤S3确定master即可。需要说明的是,将环形拓扑结构转换为线性拓扑结构并非直接将Gy和Gy+1之间的物理连接断开,只是在确定master的过程中,设置Gy和Gy+1之间不直接传送请求数据包和回复数据包,起到暂时断开的效果,Gy和Gy+1之间传输其他数据包是不受影响的。
作为一种实施例,所述步骤S2中,每一Gi生成请求数据包Ri,包括:
步骤S21、每一Gi基于第一数据包格式生成请求数据包Ri,所述第一数据包格式包括第一包头段和第一数据段,所述包头段包括预设的请求标识,所述第一数据段包括Gi的id。
需要说明的是,当每一Gi收到一端连接的Gi发来的请求数据包,识别预设的请求标识后即自动向另一端逐个传递。
作为一种实施例,所述步骤S2中,Gj在收到Ri后,生成回复数据包Qi j,包括:
步骤S22、Gj在收到Ri后,解析Ri,获取预设的请求标识和Ri对应的Gi的id;
步骤S23、Gj按照预设的第二数据包格式生成回复数据包Qi j,所述第二数据包格式包括第二包头段和第二数据段,所述第二包头段包括与所述预设的请求标识对应的回复标识,所述第二数据段包括Ri对应的Gi的id、生成Qi j的Gj的id、以及生成Qi j的Gj的目标参数。
需要说明的是,运算设备的id可不仅仅包括运算设备的标识信息,例如还可包括运算设备的接收地址信息等,所述接收地址信息可为用于接收master参数的目标地址,可直接供后续第三数据包和/或第四数据包使用,但可以理解的是,第三数据包和/或第四数据包也可以根据具体需求生成对应的运算设备的id使用。此外,Gj生成Ri对应的回复数据包Qi j后,即沿着线性结构传递,每一运算设备收到Qi j后,识别预设的请求标识后即沿着线性结构传递自动下一运算设备,直至传递给Gi,这样最终使得每一Gi能收到所有Gj的回复数据包。
当运算设备数量过大时,直接选择一个master,距离master较远的运算设备延迟依然比较大,作为一种实施例,所述步骤S1中,若N≥N1,N1表示第一预设阈值,第一预设阈值根据具体应用需求,结合具体运算设备参数来定,例如,可以设置为16。所述方法还包括:
步骤S10、将G1,G2,…GN切分为S个分组{L1,L2,…LS},Ls表示第s组,s的取值范围为1到S,Us表示Ls中运算设备的运算设备的数量,max(Us)≤N2,N2表示第二预设阈值, N2<N1
需要说明的是,作为优选的实施例,尽量将G1,G2,…GN均分为S个分组,例如N=32,N1=16,N2=8,那么将G1,G2,…GN切分为四组,每组8个运算设备。
步骤S20、获取每一Gi对应的Mi1和Mi2, 以及Gi所属的分组号h,h的取值范围为1到S,基于Mi1、Mi2、h、Us获取Gi对应的第一中间参数MAi1和第二中间参数MAi2
Figure 100002_DEST_PATH_IMAGE001
Figure DEST_PATH_IMAGE002
其中,具体基于步骤S2和步骤S3获取Mi1和Mi2,在此不再赘述。
步骤S30、将每一分组Ls中,满足MAi1= MAi2,或者MAi1+1= MAi2的Gi确定为Ls对应的第二master,将步骤S3获取的master确定为第一master,所述第一master为所述第二master的主master。
作为一种实施例,具体可以先通过步骤S3确定第一master,然后通过第一master向每一Gi发送S和Us, Gi根据S和Us可确定出Gi所属的分组号h,例如可采用以下方式确定h:当h满足 Mi1 > sum(Us),其中,s取值范围为[1,h-1], 且 Mi2 >= sum(Us),其中,s取值范围为[h+1,S]时,h即为Gi所属的分组号,其中,sum(Us)表示Us对应取值的总和。需要说明的是,上述仅是一种确定h 的算法,并不仅限于此。此外,还可在分组时,直接唯一Gi设置对应的组号标识,直接根据组号标识确定对应的h值。
需要说明的是,仍以功耗分配为例,第一master先对所有的第二master进行功耗分配,每一第二master在基于所分配到的功耗在组内对多个运算设备进行功耗分配,提高功耗分配的效率,减少信息传递的延时。
作为一种实施例,所述方法还包括:
步骤S4、所述master按照预设的第三数据包格式生成master通知数据包,所述第三数据包格式包括第三包头段和第三数据段,所述第三包头段包括预设的master通知标识,所述第三数据段包括master对应的Gi的id。
可以理解的是,每一运算设备收到master通知数据包之后,均会朝着背向master的方向的运算设备逐个传递,在此不再赘述。
通过步骤S4可以让每一运算设备获取master的运算设备id,从而后续向所述master上报对应的信息。
可以理解的是,如果所述方法还经过了步骤S10-步骤S30的分组和分级别确定master的操作,那么通过步骤S4所述方法,将第一master的运算设备id发送至每一第二master,每一第二master将其对应的运算设备id发送给组内的运算设备即可,实现细节与步骤S4一致,在此不再赘述。
除了多个运算设备之间的目标参数传递外,相连接的运算设备之间还可传递其他交互信息,作为一种实施例,所述方法还包括:
步骤S100、Gi按照预设的第四数据包格式生成信息交互数据包,所述第四数据报格式包括第四包头段和第四数据段,所述第四包头段包括信息交互标识,所述第四数据段包括发起端id、接收端id和目标交互信息,所述发起端id用于存储生成信息交互数据包的Gi的id,所述接收端id用于存储信息交互数据包的Gi的id 需要说明的是,如果前序回复数据包和/或master通知数据包中的Gi的id中已经包含了供第四数据包使用的地址信息,则此处可以不在第四数据包中添加对应的接收端id,直接基于对应的接收端地址信息进行发送即可。
步骤S200、Gi将所述信息交互数据包发送给接收端运算设备。
实施例一所述的master可以直接应用于实施例二所述的基于多运算设备的功耗分配方法中,也可适用于其他需要选择master的应用场景。
实施例二、
实施例二提供了一种基于多运算设备的功耗分配方法,如图2所示,包括:
步骤C1、当服务器上电时,所有Gi向master发送静态功耗参数,所述master为每一Gi设置初始分配功耗,所述master为服务器对应的多个运算设备中的其中一个运算设备,Gi为服务器中第i个运算设备,i的取值范围为1到N,N为服务器中运算设备的总数;
其中,初始分配功率可以基于Gi的静态功耗参数、以及服务器的功耗总量直接分配,也可以直接设置默认值,由于上电后可以很快确定master,很快进入到动态分配功耗的过程,因此,设置合理的初始分配功耗即可,后续所述方法是连续采集动态数据,连续调整功耗分配的,因此初始值对后需调整不会造成影响。
需要说明的是,所述master满足所有Gi传输信息至所述master的时延总和为最小值。master可以直接设定,也可以按照实施例一所述的方法自适应选择master,在此不再赘述。
步骤C2、Gi每隔预设的第一时间间隔,获取Gi当前的{Ui,Ii,Ti,Fi},Gi基于当前的{Ui,Ii,Ti,Fi}以及当前分配功耗PAi进行运算设备内部功耗调节,其中,Ui表示Gi当前的电压值,Ii表示Gi当前的电流值,Ti表示Gi当前的温度值,Fi表示Gi当前的频率值;
可以理解的是,通过Ui,Ii可以确定瞬时功率,Ti,Fi均与Gi的功耗成正比。
步骤C3、Gi每隔预设的第二时间间隔,基于当前时刻之前的历史时间窗内的{Ui,Ii,Ti,Fi}生成{UVi,IVi,TVi,FVi},并发送给所述master,UVi表示Gi的当前周期电压值,IVi表示Gi的当前周期电流值,TVi表示Gi的当前周期温度值,FVi表示Gi的当前周期频率值,所述第二时间间隔大于第一时间间隔;
其中,需要说明的是,每一历史时间窗对应一个周期,历史时间窗大于等于第二时间间隔,优选的,历史时间窗等于第二时间间隔。
步骤C4、所述master基于服务器的预设功耗总量、每一Gi的{UVi,IVi,TVi,FVi}、每一Gi的静态功耗参数生成每一Gi的当前分配功耗PAi ,更新PAi= PAi
实施例二通过运算设备内部细粒度调整运算设备内部功耗,并结合master粗粒度调整多个运算设备之间的动态功耗分配,且功耗分配反作用于每一G的内部功耗调整,提高了多个运算设备的功耗利用率,避免了功耗浪费,实现了多个运算设备之间功耗的实时合理分配。
作为一种实施例,所述步骤C2中,Gi基于当前的{Ui,Ii,Ti,Fi}以及当前分配功耗PAi进行运算设备内部功耗调节,包括:
步骤C21、若Ui*Ii-PAi>PXi,PXi为Gi对应的功耗浮动阈值,则控制降低Gi的Ti和/或Fi,若PAi-Ui*Ii >PXi,则控制升高Gi的Ti和/或Fi,其中,温度调整具体可通过调整风扇或者冷却设备来实现。
可以理解的是,正常情况下,Gi应该在当前分配功耗PAi的附近工作,但由于每一Gi工作量等情况的实时变化,会造成Gi的当前与PAi相差较大,因此可通过步骤C21来调整温度和/或频率来控制Gi的功耗,但可以理解的是,功耗调整会有一个过程,且每一Gi工作量等情况的可能实时变化,因此,还需通过master基于所有运算设备的功耗状态来实时动态分配,从而提高功耗利用率,避免功耗浪费。
作为一种实施例,所述步骤C3中,基于当前时刻之前的历史时间窗内的{Ui,Ii,Ti,Fi}生成{UVi,IVi,TVi,FVi},包括:
将当前时刻之前的历史时间窗内的所有Ui的均值确定为UVi,所有Ii的均值确定为IVi,所有Ti的均值确定为TVi,所有Fi的均值确定为FVi
作为另一种实施例,所述步骤C3中,基于当前时刻之前的历史时间窗内的{Ui,Ii,Ti,Fi}生成{UVi,IVi,TVi,FVi},包括:
将当前时刻之前的历史时间窗内的所有Ui中的最大值确定为UVi,所有Ii中的最大值确定为IVi,所有Ti中的最大值确定为TVi,所有Fi中的最大值确定为FVi
可以理解的是,上述取均值或最大值的方式仅为两种实施例,也可根据应用需求基于{Ui,Ii,Ti,Fi}取其他合理的数值,生成{UVi,IVi,TVi,FVi},在此不再一一罗列。
作为一种实施例,所述步骤C4包括:
步骤C41、若UVi*IVi-PAi≥PBi,PBi为功耗分配浮动阈值,则设置Gi的动态调整系数ki=(UVi*IVi-PAi)/ PAi,若PAi-UVi*IVi≥PBi,则设置ki=-(PAi-UVi*IVi )/ UVi*IVi,若│UVi*IVi-PAi│< PB,则设置ki=0;
步骤C42、根据当前动态调整步长λ以及Gi的动态调整系数获取Gi的当前分配功耗 PAi =PAi+ki*λ,λ满足
Figure DEST_PATH_IMAGE003
≤0,更新PAi= PAi
通过步骤C41-步骤C42能够在保证不超过总功耗的情况下,将当前分配功耗有余量的Gi的当前分配功耗降低,将当前分配功耗可以更高的Gi的当前分配功耗升高,提高了功耗的利用率,此外,由于设备能够在功耗允许的范围内运行达到最高的频率,从而能更快的完成设备上的任务,提高了设备性能。
作为一种实施例,所述第一时间间隔设置为毫秒级,所述第一时间间隔内,Gi的温度变化小于预设的温度变化阈值,例如,第一时间间隔取1ms。所述第二时间间隔设置为秒级,例如第二时间间隔设置为1s。
需要说明的是,已经在实施例一种展开描述的相同技术细节,在实施例二中不再赘述,实施例一和实施例二的相关技术细节可以结合使用。
需要说明的是,实施例一和实施例二中一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,其中很多步骤的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。处理可以对应于方法、函数、规程、子例程、子程序等等。
本发明实施例还提供一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被设置为用于执行本发明实施例所述的方法。
本发明实施例还提供一种计算机可读存储介质,所述计算机指令用于执行本发明实施例所述的方法。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (7)

1.一种基于多运算设备的功耗分配方法,其特征在于,包括:
步骤C1、当服务器上电时,所有Gi向master发送静态功耗参数,所述master为每一Gi设置初始分配功耗,所述master为服务器对应的多个运算设备中的其中一个运算设备,Gi为服务器中第i个运算设备,i的取值范围为1到N,N为服务器中运算设备的总数;
步骤C2、Gi每隔预设的第一时间间隔,获取Gi当前的{Ui,Ii,Ti,Fi},Gi基于当前的{Ui,Ii,Ti,Fi}以及当前分配功耗PAi进行运算设备内部功耗调节,其中,Ui表示Gi当前的电压值,Ii表示Gi当前的电流值,Ti表示Gi当前的温度值,Fi表示Gi当前的频率值;
步骤C3、Gi每隔预设的第二时间间隔,基于当前时刻之前的历史时间窗内的{Ui,Ii,Ti,Fi}生成{UVi,IVi,TVi,FVi},并发送给所述master,UVi表示Gi的当前周期电压值,IVi表示Gi的当前周期电流值,TVi表示Gi的当前周期温度值,FVi表示Gi的当前周期频率值,所述第二时间间隔大于第一时间间隔;
步骤C4、所述master基于服务器的预设功耗总量、每一Gi的{UVi,IVi,TVi,FVi}、每一Gi的静态功耗参数生成每一Gi的当前分配功耗PAi ,更新PAi= PAi
所述步骤C4包括:
步骤C41、若UVi*IVi-PAi≥PBi,PBi为功耗分配浮动阈值,则设置Gi的动态调整系数ki=(UVi*IVi-PAi)/ PAi,若PAi-UVi*IVi≥PBi,则设置ki=-(PAi-UVi*IVi)/ UVi*IVi,若│UVi*IVi-PAi│< PB,则设置ki=0;
步骤C42、根据当前动态调整步长λ以及Gi的动态调整系数获取Gi的当前分配功耗PAi =PAi+ki*λ,λ满足
Figure DEST_PATH_IMAGE001
≤0,更新PAi= PAi
2.根据权利要求1所述的方法,其特征在于,
所述步骤C2中,Gi基于当前的{Ui,Ii,Ti,Fi}以及当前分配功耗PAi进行运算设备内部功耗调节,包括:
步骤C21、若Ui*Ii-PAi>PXi,PXi为Gi对应的功耗浮动阈值,则控制降低Gi的Ti和/或Fi,若PAi-Ui*Ii >PXi,则控制升高Gi的Ti和/或Fi
3.根据权利要求1所述的方法,其特征在于,
所述步骤C3中,基于当前时刻之前的历史时间窗内的{Ui,Ii,Ti,Fi}生成{UVi,IVi,TVi,FVi},包括:
将当前时刻之前的历史时间窗内的所有Ui的均值确定为UVi,所有Ii的均值确定为IVi,所有Ti的均值确定为TVi,所有Fi的均值确定为FVi
4.根据权利要求1所述的方法,其特征在于,
所述步骤C3中,基于当前时刻之前的历史时间窗内的{Ui,Ii,Ti,Fi}生成{UVi,IVi,TVi,FVi},包括:
将当前时刻之前的历史时间窗内的所有Ui中的最大值确定为UVi,所有Ii中的最大值确定为IVi,所有Ti中的最大值确定为TVi,所有Fi中的最大值确定为FVi
5.根据权利要求1所述的方法,其特征在于,
所述第一时间间隔设置为毫秒级,所述第一时间间隔内,Gi的温度变化小于预设的温度变化阈值。
6.根据权利要求1所述的方法,其特征在于,
所述第二时间间隔设置为秒级。
7.根据权利要求1所述的方法,其特征在于,
所述master满足所有Gi传输信息至所述master的时延总和为最小值。
CN202210438220.7A 2022-04-25 2022-04-25 基于多运算设备的功耗分配方法 Active CN114546666B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210438220.7A CN114546666B (zh) 2022-04-25 2022-04-25 基于多运算设备的功耗分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210438220.7A CN114546666B (zh) 2022-04-25 2022-04-25 基于多运算设备的功耗分配方法

Publications (2)

Publication Number Publication Date
CN114546666A CN114546666A (zh) 2022-05-27
CN114546666B true CN114546666B (zh) 2022-07-19

Family

ID=81667354

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210438220.7A Active CN114546666B (zh) 2022-04-25 2022-04-25 基于多运算设备的功耗分配方法

Country Status (1)

Country Link
CN (1) CN114546666B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102479128A (zh) * 2010-11-30 2012-05-30 英业达股份有限公司 一种用于对多个服务器进行分组的方法
CN106874158A (zh) * 2017-01-11 2017-06-20 广东工业大学 一种异构系统全程序功耗计量方法
CN108599966A (zh) * 2018-03-13 2018-09-28 山东超越数控电子股份有限公司 一种网安设备功耗动态调整系统和方法
CN112286756A (zh) * 2020-09-29 2021-01-29 深圳致星科技有限公司 用于联邦学习异构处理系统的fpga功耗预测方法及系统
CN113608971A (zh) * 2021-10-11 2021-11-05 苏州浪潮智能科技有限公司 一种数据中心的服务器功耗管理方法、装置及设备
CN113688001A (zh) * 2021-07-23 2021-11-23 苏州浪潮智能科技有限公司 服务器硬盘功耗动态均衡方法、装置、终端及存储介质
CN114138098A (zh) * 2022-02-07 2022-03-04 苏州浪潮智能科技有限公司 功耗调节方法、装置、存储设备及可读存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102055166A (zh) * 2009-10-27 2011-05-11 深圳长城开发科技股份有限公司 电力设备及其高温自我保护方法
CN102497275A (zh) * 2011-12-02 2012-06-13 曙光信息产业(北京)有限公司 一种基于功耗池的集群功耗分配方法
CN105867586A (zh) * 2016-03-24 2016-08-17 联想(北京)有限公司 一种控制方法及电子设备
US10608433B1 (en) * 2019-10-28 2020-03-31 Lancium Llc Methods and systems for adjusting power consumption based on a fixed-duration power option agreement

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102479128A (zh) * 2010-11-30 2012-05-30 英业达股份有限公司 一种用于对多个服务器进行分组的方法
CN106874158A (zh) * 2017-01-11 2017-06-20 广东工业大学 一种异构系统全程序功耗计量方法
CN108599966A (zh) * 2018-03-13 2018-09-28 山东超越数控电子股份有限公司 一种网安设备功耗动态调整系统和方法
CN112286756A (zh) * 2020-09-29 2021-01-29 深圳致星科技有限公司 用于联邦学习异构处理系统的fpga功耗预测方法及系统
CN113688001A (zh) * 2021-07-23 2021-11-23 苏州浪潮智能科技有限公司 服务器硬盘功耗动态均衡方法、装置、终端及存储介质
CN113608971A (zh) * 2021-10-11 2021-11-05 苏州浪潮智能科技有限公司 一种数据中心的服务器功耗管理方法、装置及设备
CN114138098A (zh) * 2022-02-07 2022-03-04 苏州浪潮智能科技有限公司 功耗调节方法、装置、存储设备及可读存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A Novel Optimization Technique for Mastering Energy Consumption in Cloud Data Center;Omar Ben Maaouia 等;《2017 IEEE International Symposium on Parallel and Distributed Processing with Applications and 2017 IEEE International Conference on Ubiquitous Computing and Communications (ISPA/IUCC)》;20180528;第475-480页 *
一种考虑可靠性的常带宽服务器低功耗调度算法;吴昊天 等;《吉林大学学报(工学版)》;20190905;第50卷(第5期);第1802-1808页 *
结合功率管理推力分配策略研究;徐云成 等;《船舶工程》;20171225;第39卷(第12期);第56-59、64页 *

Also Published As

Publication number Publication date
CN114546666A (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
US7982336B2 (en) Power sharing with stackable switches
CN113364850A (zh) 软件定义云边协同网络能耗优化方法和系统
CN104243405A (zh) 一种请求处理方法、装置及系统
CN111083232B (zh) 一种基于改进一致性哈希的服务器端负载均衡方法
WO2022111453A1 (zh) 任务处理方法及装置、任务分配方法、电子设备、介质
CN102123087A (zh) 快速定标多级转发负载均衡方法及多级转发网络系统
CN116566712A (zh) 一种基于信任分数的物联网区块链共识方法
CN108282526A (zh) 双集群间服务器动态分配方法及系统
CN114697333A (zh) 一种能量队列均衡的边缘计算方法
CN114546666B (zh) 基于多运算设备的功耗分配方法
CN114546095B (zh) 基于多运算设备的master选择方法
CN114697187B (zh) 一种master选择方法
Ghaderi et al. Joint latency and energy-aware data management layer for Industrial IoT
CN113672372A (zh) 一种基于强化学习的多边缘协同负载均衡任务调度方法
CN114546630A (zh) 任务处理方法及分配方法、装置、电子设备、介质
CN116546053A (zh) 一种资源受限物联网场景下的边缘计算服务放置系统
CN116684422A (zh) 5g电力mec下多维边缘资源高效配置方法及系统
Erdil et al. Adaptive approach to information dissemination in self-organizing grids
Trumler et al. Adaptive self-optimization in distributed dynamic environments
Billard et al. Dynamic scope of control in decentralized job scheduling
Kwan et al. Bag-of-tasks applications scheduling on volunteer desktop grids with adaptive information dissemination
CN110636104B (zh) 一种资源请求方法、电子设备及存储介质
JP5699589B2 (ja) 処理割り当て装置、処理割り当てシステム、処理割り当て方法、処理割り当てプログラム
TW201720208A (zh) 多請求的排程方法及排程裝置
JP2009064310A (ja) データ通信方法およびクライアントサーバシステム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant