CN114462593A - 深度神经网络的剪枝方法、装置、终端及存储介质 - Google Patents
深度神经网络的剪枝方法、装置、终端及存储介质 Download PDFInfo
- Publication number
- CN114462593A CN114462593A CN202111674645.XA CN202111674645A CN114462593A CN 114462593 A CN114462593 A CN 114462593A CN 202111674645 A CN202111674645 A CN 202111674645A CN 114462593 A CN114462593 A CN 114462593A
- Authority
- CN
- China
- Prior art keywords
- pruning
- neural network
- deep neural
- optimization function
- threshold value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013138 pruning Methods 0.000 title claims abstract description 215
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 163
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000005457 optimization Methods 0.000 claims abstract description 75
- 238000004364 calculation method Methods 0.000 claims abstract description 27
- 238000012545 processing Methods 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 80
- 238000004590 computer program Methods 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000010845 search algorithm Methods 0.000 claims description 10
- 230000009191 jumping Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 11
- 238000007781 pre-processing Methods 0.000 abstract description 4
- 238000012549 training Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Supply And Distribution Of Alternating Current (AREA)
Abstract
本发明提供一种深度神经网络的剪枝方法、装置、终端及存储介质。该方法包括:建立电力系统边缘计算的深度神经网络;基于随机权值,根据深度神经网络,建立剪枝优化函数;求解剪枝优化函数,得到最优剪枝门值;根据最优剪枝门值和预设阈值对深度神经网络进行剪枝处理,得到目标深度神经网络。本发明能够提供基于电力边缘计算的深度神经网络剪枝方法。本发明基于随机权值,不需要进行现有技术中的与训练权值和微调等复杂的预处理过程,可以应用于计算能力弱和存储能力差的电力边缘计算设备上,且提高了深度神经网络的剪枝方法的运行稳定度和效率。
Description
技术领域
本发明涉及神经网络优化技术领域,尤其涉及一种深度神经网络的剪枝方法、装置、终端及存储介质。
背景技术
随着智能电网地不断发展和电力物联网地持续进步,大量的传感、通讯和计算设备被安装在网络的边缘,共同构成了虚拟网络和实际网络结合的复杂电网。边缘网络通过传感器、控制器等边缘设备来实时监督或控制对象,为电网的智能运行提供可靠的依据。在靠近对象或数据源边缘的网络边缘,集成网络、计算、存储和应用核心能力的一个边缘计算的开放平台。边缘计算的价值取决于基于边缘计算的关键应用场景,只有通过应用才能发现边缘计算在发展中遇到的各种挑战和机遇。
在电力系统中,深度神经网络广泛应用于负荷预测、电价预测等领域。然而深度神经网络的结构复杂,导致其计算负担往往较重。电力系统的边缘计算设备的计算能力交叉,且存储能力较弱,因此随着深度神经网络在电力系统移动设备上的广泛部署,对减少模型复杂度和运行延迟的需求越来越大。但是现有技术中还没有可以稳定运行在电力系统上进行电力边缘计算的深度神经网络。
发明内容
本发明实施例提供了一种深度神经网络的剪枝方法、装置、终端及存储介质,以解决现有技术中没有可以稳定运行在电力系统上进行电力边缘计算的深度神经网络的问题。
第一方面,本发明实施例提供了一种深度神经网络的剪枝方法,包括:
建立电力系统边缘计算的深度神经网络;
基于随机权值,根据所述深度神经网络,建立剪枝优化函数;
求解所述剪枝优化函数,得到最优剪枝门值;
根据所述最优剪枝门值和预设阈值对所述深度神经网络进行剪枝处理,得到目标深度神经网络。
在一种可能的实现方式中,所述建立电力系统边缘计算的深度神经网络,包括:
根据不同的电力场景建立电力系统边缘计算对应的深度神经网络;其中电力场景至少包括电表误差分析、电力负荷预测和风电功率预测。
在一种可能的实现方式中,所述基于随机权值,根据所述深度神经网络,建立剪枝优化函数,包括:
设置随机权值;
根据所述随机权值和所述深度神经网络,建立初始剪枝优化函数;
根据所述初始剪枝优化函数中的标量门值和预设比例参数,确定正则项;
根据所述正则项更新所述初始剪枝优化函数,得到目标剪枝优化函数。
在一种可能的实现方式中,所述初始剪枝优化函数为
其中,A表示剪枝优化函数,f(xi;P,Λ)表示所述深度神经网络,xi表示第i个输入数据,i=1,2...N,N表示输入数据的数量,P表示设置的所述随机权值,Λ表示标量门值,其中Λ={v1,v2,...,vj,...vK},0≤vj≤1,j=1,2,...,K,K表示深度神经网络的总层数,yi表示深度神经网络中第i层的输出值,L(f(xi;P,Λ),yi)表示所述深度神经网络与第i层的输出值的交叉熵之和,α表示平衡因子,|vj|1表示第j个标量门值vj的范数。
在一种可能的实现方式中,所述目标剪枝优化函数,包括:
其中,Mj表示第j层的通道数量,β表示所述预设比例参数。
在一种可能的实现方式中,求解所述剪枝优化函数,得到最优剪枝门值,包括:
采用次梯度下降算法求解所述剪枝优化函数,得到最优剪枝门值。
在一种可能的实现方式中,根据所述最优剪枝门值和预设阈值对所述深度神经网络进行剪枝处理,得到目标深度神经网络,包括:
获取电力边缘计算设备的FLOPS约束;
根据FLOPS约束,采用二分搜索算法确定当前迭代次数对应的全局剪枝阈值;
根据所述全局剪枝阈值和所述最优剪枝门值对所述深度神经网络进行剪枝;
检测剪枝后的深度神经网络是否符合条件;
当剪枝后的深度神经网络符合条件时,输出所述剪枝后的优化函数;
当剪枝后的深度神经网络不符合条件时,则跳转到“根据FLOPS约束,采用二分搜索算法确定当前迭代次数对应的全局剪枝阈值”步骤确定下一次迭代次数对应的全局剪枝阈值,直到剪枝后的深度神经网络符合条件时,输出所述剪枝后的优化函数。
第二方面,本发明实施例提供了一种深度神经网络的剪枝装置,包括:
建立模块,用于建立电力系统边缘计算的深度神经网络;
所述建立模块,还用于基于随机权值,根据所述深度神经网络,建立剪枝优化函数;
计算模块,用于求解所述剪枝优化函数,得到最优剪枝门值;
所述计算模块,还用于根据所述最优剪枝门值和预设阈值对所述深度神经网络进行剪枝处理,得到目标深度神经网络。
第三方面,本发明实施例提供了一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上第一方面或第一方面的任一种可能的实现方式所述的深度神经网络的剪枝方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上第一方面或第一方面的任一种可能的实现方式所述的深度神经网络的剪枝方法的步骤。
本发明实施例提供一种深度神经网络的剪枝方法、装置、终端及存储介质,通过建立电力系统边缘计算的深度神经网络;基于随机权值,根据深度神经网络,建立剪枝优化函数;求解剪枝优化函数,得到最优剪枝门值;根据最优剪枝门值和预设阈值对深度神经网络进行剪枝处理,得到目标深度神经网络,从而可以提供基于电力边缘计算的深度神经网络剪枝方法。本发明基于随机权值,不需要进行现有技术中的与训练权值和微调等复杂的预处理过程,可以应用于计算能力弱和存储能力差的电力边缘计算设备上,且提高了深度神经网络的剪枝方法的运行稳定度和效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的深度神经网络的剪枝方法的实现流程图;
图2是本发明实施例提供的得到目标剪枝优化函数的实现流程图;
图3是本发明实施例提供的进行剪枝处理,得到目标深度神经网络的实现流程图;
图4是本发明实施例提供的未剪枝的LSTM神经网络模型和采用深度神经网络的剪枝方法的LSTM神经网络模型对风电功率预测结果对比示意图;
图5是本发明实施例提供的深度神经网络的剪枝装置的结构示意图;
图6是本发明实施例提供的终端的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图通过具体实施例来进行说明。
图1为本发明实施例提供的一种深度神经网络的剪枝方法的实现流程图,详述如下:
步骤101,建立电力系统边缘计算的深度神经网络。
根据不同的电力场景建立电力系统边缘计算对应的深度神经网络;其中电力场景至少包括电表误差分析、电力负荷预测和风电功率预测,电力场景还可以包括电力数据采集、计量和电力设备的巡检等。
建立的深度神经网络可以为f(x,P,S),其中,x表示输入数据,P表示设置的随机权值,S表示网络结构,通常包括操作符类型或网络超参数。
由于电力边缘计算设备的计算能力较差且存储能力较弱,故需要对复杂的深度神经网络进行剪枝操作,具体参见步骤102-步骤104。
步骤102,基于随机权值,根据深度神经网络,建立剪枝优化函数。
深度神经网络剪枝的原理是在当前隐含层的输出与下一隐含层的输入之间增加了一个通道,当该通道的标量门值为1时,则表明该通道对应的神经元完全被激活;若该通道的标量门值为0时,则表明该通道对应的神经元完全被抑制,则该神经元被剪枝,从而实现整个深度神经网络的剪枝。
如图2所示,基于随机权值,根据深度神经网络,建立剪枝优化函数可以包括以下步骤1-步骤3。
在步骤1中,设置随机权值,根据随机权值和深度神经网络,建立初始剪枝优化函数。
假设在深度神经网络的电力模型的当前层与第j层相连的一组通道标量门值为vj,所有K层的标量门值为Λ={v1,v2,...,vj,...vK}。标量门值Λ乘以对应层的输出得到该层的最终输出,该输出结果输入到下一层。因此接近于零的标量门值将抑制相应层的通道输出,从而实现深度神经网络的剪枝。
在一实施例中,在标量门值的学习过程中,采用的是随机权值,且并不更新此随机权值,因此并不需要预训练此随机权值,而现有技术中在微调环节,标量门值的学习过程从头开始,需要对权值进行预训练,因此较现有技术相比,本实施例提供的深度神经网络的剪枝方法,剪枝时间更短,效率更高,更适合在计算能力较弱且存储能力差的电力边缘设备中运行。
因此初始剪枝优化函数,即标量门限的寻优函数为
其中,A表示剪枝优化函数,f(xi;P,Λ)表示深度神经网络,xi表示第i个输入数据,i=1,2...N,N表示输入数据的数量,P表示设置的随机权值,Λ表示标量门值,其中Λ={v1,v2,...,vj,...vK},0≤vj≤1,j=1,2,...,K,K表示深度神经网络的总层数,yi表示深度神经网络中第i层的输出值,L(f(xi;P,Λ),yi)表示深度神经网络与第i层的输出值的交叉熵之和,α表示平衡因子,|vj|1表示第j个标量门值vj的范数。
在步骤2中,根据初始剪枝优化函数中的标量门值和预设比例参数,确定正则项。
由于现有技术中的剪枝方法的正则项采用的是L1的范数,会将标量门值精准地压缩为0,然而,有实验证明这种方法并不会产生一个良好的剪枝结构,会产生过度的剪枝,导致得到的深度神经网络不能清楚地表达原电力场景对应的待解决问题。为了提高剪枝结构的准确度,在一实施例中,正则项采用标量门值对应范数的平均值来近似整体剪枝优化函数的稀疏率,然后再采用此稀疏率减去预设比例参数的平方得到。则正则项可以表示为其中,Mj表示第j层的通道数量,β表示预设比例参数,根据需求设置的,因此可以通过调节β的值以便实现不同的正则化效果。
在剪枝优化过程中,选择稀疏性小于β且达到最大验证精度的标量门值,可以更精准的确定标量门值,较现有技术中,避免深度神经网络的过度剪枝,产生良好的简直结构。
在步骤3中,根据正则项更新初始剪枝优化函数,得到目标剪枝优化函数。
将步骤2中得到的正则项替换初始剪枝优化函数中的范数表达式,得到目标剪枝优化函数。
目标剪枝优化函数,包括:
步骤103,求解剪枝优化函数,得到最优剪枝门值。
在一实施例中,采用次梯度下降算法求解剪枝优化函数,得到最优剪枝门值。
次梯度法是求解凸函数最优化问题的一种迭代法。次梯度法能够用于不可微的目标函数。当目标函数可微时,对于无约束问题次梯度法与梯度下降法具有同样的搜索方向。虽然在实际的应用中,次梯度法比内点法和牛顿法慢得多,但是次梯度法可以直接应用于更广泛的问题,次梯度法只需要很少的存储需求。由于电力边缘计算中的目标函数往往不可导,因此在本实施例中,采用次梯度下降算法求解剪枝优化函数。
求解剪枝优化函数时,首先初始化迭代次数x(0),然后重复下式x(k)=x(k-1)-tk.s(k),其中,k为当前迭代次数,为深度神经网络f(x,P,S)在x(k-1)次的任意次梯度,tk为搜索步长。此外,次梯度下降算法并不是一个严格梯度下降的算法,因此最佳迭代次数在x(0)和x(k)之间,因此次梯度下降算法满足即采用求解次梯度,并采用x(k)=x(k-1)-tk.s(k)更新次梯度,从而寻找最小次梯度值时的标量门值。
步骤104,根据最优剪枝门值和预设阈值对深度神经网络进行剪枝处理,得到目标深度神经网络。
在对深度神经网络进行剪枝时,设置一个阈值,通过设置的阈值来决定被剪枝的通道。
如图3所示,在步骤(1)中,获取电力边缘计算设备的FLOPS约束。由于电力边缘计算设备的存储能力和计算能力较弱,因此根据电力边缘计算设备的FLOPS约束来确定剪枝结构。FLOPS表示每秒浮点运算次数,又称为每秒峰值速度。
在步骤(2)中,根据FLOPS约束,采用二分搜索算法确定当前迭代次数对应的全局剪枝阈值。
二分搜索(binary search,BS),也叫折半搜索,是一种在有序数组中查找特定元素的搜索算法。本步骤中采用二分搜索算法确定由0和FLOPS构成的范围内的全局剪枝阈值,每搜索一次确定一个对应的全局剪枝阈值,采用确定的全局剪枝阈值进行后续剪枝和剪枝后的判定,以便确定最优的深度神经网络。
在步骤(3)中,根据全局剪枝阈值和最优剪枝门值对深度神经网络进行剪枝。
将全局剪枝阈值与最优剪枝门值进行比较,从而在某通道的最优剪枝门值小于全局剪枝阈值时,确定此通道为待剪枝通道。
在步骤(4)中,检测剪枝后的深度神经网络是否符合条件。
根据步骤(3)的剪枝操作后,得到剪枝后的深度神经网络,检测剪枝后的深度神经网络的性能是否满足实际要求。这里可以通过均方根误差或平均绝对误差作为检测剪枝后的深度神经网络是否符合网络性能的评价标准。
在步骤(5)中,当剪枝后的深度神经网络符合条件时,输出剪枝后的深度神经网络。
当剪枝后的深度神经网络的性能满足所要求的网络性能时,确定当前迭代次数对应的全局剪枝阈值为最优的全局剪枝阈值,通过该最优的全局剪枝阈值对深度神经网络进行剪枝后得到的深度神经网络为目标深度神经网络。
在步骤(6)中,当剪枝后的深度神经网络不符合条件时,则跳转到“根据FLOPS约束,采用二分搜索算法确定当前迭代次数对应的全局剪枝阈值”步骤确定下一次迭代次数对应的全局剪枝阈值,直到剪枝后的深度神经网络符合条件时,输出剪枝后的优化函数。
深度神经网络的剪枝方法可以适用于卷积神经网络和长短时记忆神经网络(LongShort Term Memory,LSTM)中。
例如,以某风电场的风电功率预测为例,分析剪枝前后LSTM模型的预测精度,并以均方根误差(RMSE)和平均绝对误差(MAE)作为评价标准,计算公式分别为:
将分别使用未剪枝的LSTM神经网络模型和采用深度神经网络的剪枝方法的LSTM神经网络模型对上述风电功率进行预测,例如采样点可以为96个。对比结果如下表和附图4所示。可以看出,采用深度神经网络的剪枝方法的LSTM神经网络模型进行风电功率预测的结果更加准确。
本发明实施例通过建立电力系统边缘计算的深度神经网络;基于随机权值,根据深度神经网络,建立剪枝优化函数;求解剪枝优化函数,得到最优剪枝门值;根据最优剪枝门值和预设阈值对深度神经网络进行剪枝处理,得到目标深度神经网络。本发明基于随机权值,不需要进行现有技术中的与训练权值和微调等复杂的预处理过程,可以应用于计算能力弱和存储能力差的电力边缘计算设备上,且提高了深度神经网络的剪枝方法的运行速度和精度。另外,根据电力边缘计算设备的FLOPS约束来寻找剪枝结构,使得剪枝后的深度神经网络可以在计算能力弱和存储能力差的电力边缘计算设备上稳定运行,并且时效性更强。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
以下为本发明的装置实施例,对于其中未详尽描述的细节,可以参考上述对应的方法实施例。
图5示出了本发明实施例提供的深度神经网络的剪枝装置的结构示意图,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
如图5所示,深度神经网络的剪枝装置包括:建立模块501和计算模块502。
建立模块501,用于建立电力系统边缘计算的深度神经网络;
建立模块501,还用于基于随机权值,根据深度神经网络,建立剪枝优化函数;
计算模块502,用于求解剪枝优化函数,得到最优剪枝门值;
计算模块502,还用于根据最优剪枝门值和预设阈值对深度神经网络进行剪枝处理,得到目标深度神经网络。
在一种可能的实现方式中,建立模块501建立电力系统边缘计算的深度神经网络时,用于:
根据不同的电力场景建立电力系统边缘计算对应的深度神经网络;其中电力场景至少包括电表误差分析、电力负荷预测和风电功率预测。
在一种可能的实现方式中,建立模块501基于随机权值,根据深度神经网络,建立剪枝优化函数时,用于:
设置随机权值;
根据随机权值和深度神经网络,建立初始剪枝优化函数;
根据初始剪枝优化函数中的标量门值和预设比例参数,确定正则项;
根据正则项更新初始剪枝优化函数,得到目标剪枝优化函数。
在一种可能的实现方式中,初始剪枝优化函数为
其中,A表示剪枝优化函数,f(xi;P,Λ)表示深度神经网络,xi表示第i个输入数据,i=1,2...N,N表示输入数据的数量,P表示设置的随机权值,Λ表示标量门值,其中Λ={v1,v2,...,vj,...vK},0≤vj≤1,j=1,2,...,K,K表示深度神经网络的总层数,yi表示深度神经网络中第i层的输出值,L(f(xi;P,Λ),yi)表示深度神经网络与第i层的输出值的交叉熵之和,α表示平衡因子,|vj|1表示第j个标量门值vj的范数。
在一种可能的实现方式中,目标剪枝优化函数,包括:
其中,Mj表示第j层的通道数量,β表示预设比例参数。
在一种可能的实现方式中,计算模块502求解剪枝优化函数,得到最优剪枝门值时,用于:
采用次梯度下降算法求解剪枝优化函数,得到最优剪枝门值。
在一种可能的实现方式中,计算模块502根据最优剪枝门值和预设阈值对深度神经网络进行剪枝处理,得到目标深度神经网络时,用于:
获取电力边缘计算设备的FLOPS约束;
根据FLOPS约束,采用二分搜索算法确定当前迭代次数对应的全局剪枝阈值;
根据全局剪枝阈值和最优剪枝门值对深度神经网络进行剪枝;
检测剪枝后的深度神经网络是否符合条件;
当剪枝后的深度神经网络符合条件时,输出剪枝后的优化函数;
当剪枝后的深度神经网络不符合条件时,则跳转到“根据FLOPS约束,采用二分搜索算法确定当前迭代次数对应的全局剪枝阈值”步骤确定下一次迭代次数对应的全局剪枝阈值,直到剪枝后的深度神经网络符合条件时,输出剪枝后的优化函数。
本发明实施例通过建立模块建立电力系统边缘计算的深度神经网络,以及基于随机权值,根据深度神经网络,建立剪枝优化函数;计算模块求解剪枝优化函数,得到最优剪枝门值,以及根据最优剪枝门值和预设阈值对深度神经网络进行剪枝处理,得到目标深度神经网络。本发明基于随机权值,不需要进行现有技术中的与训练权值和微调等复杂的预处理过程,可以应用于计算能力弱和存储能力差的电力边缘计算设备上,且提高了深度神经网络的剪枝方法的运行速度和精度。另外,根据电力边缘计算设备的FLOPS约束来寻找剪枝结构,使得剪枝后的深度神经网络可以在计算能力弱和存储能力差的电力边缘计算设备上稳定运行,并且时效性更强。
图6是本发明实施例提供的终端的示意图。如图6所示,该实施例的终端6包括:处理器60、存储器61以及存储在所述存储器61中并可在所述处理器60上运行的计算机程序62。所述处理器60执行所述计算机程序62时实现上述各个深度神经网络的剪枝方法实施例中的步骤,例如图1所示的步骤101至步骤104。或者,所述处理器60执行所述计算机程序62时实现上述各装置实施例中各模块/单元的功能,例如图5所示模块/单元501至502的功能。
示例性的,所述计算机程序62可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器61中,并由所述处理器60执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序62在所述终端6中的执行过程。例如,所述计算机程序62可以被分割成图5所示模块/单元501至502。
所述终端6可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是终端6的示例,并不构成对终端6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端还可以包括输入输出设备、网络接入设备、总线等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61可以是所述终端6的内部存储单元,例如终端6的硬盘或内存。所述存储器61也可以是所述终端6的外部存储设备,例如所述终端6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述终端6的内部存储单元也包括外部存储设备。所述存储器61用于存储所述计算机程序以及所述终端所需的其他程序和数据。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个深度神经网络的剪枝方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种深度神经网络的剪枝方法,其特征在于,包括:
建立电力系统边缘计算的深度神经网络;
基于随机权值,根据所述深度神经网络,建立剪枝优化函数;
求解所述剪枝优化函数,得到最优剪枝门值;
根据所述最优剪枝门值和预设阈值对所述深度神经网络进行剪枝处理,得到目标深度神经网络。
2.根据权利要求1所述的深度神经网络的剪枝方法,其特征在于,所述建立电力系统边缘计算的深度神经网络,包括:
根据不同的电力场景建立电力系统边缘计算对应的深度神经网络;其中电力场景至少包括电表误差分析、电力负荷预测和风电功率预测。
3.根据权利要求1所述的深度神经网络的剪枝方法,其特征在于,所述基于随机权值,根据所述深度神经网络,建立剪枝优化函数,包括:
设置随机权值;
根据所述随机权值和所述深度神经网络,建立初始剪枝优化函数;
根据所述初始剪枝优化函数中的标量门值和预设比例参数,确定正则项;
根据所述正则项更新所述初始剪枝优化函数,得到目标剪枝优化函数。
6.根据权利要求1所述的深度神经网络的剪枝方法,其特征在于,求解所述剪枝优化函数,得到最优剪枝门值,包括:
采用次梯度下降算法求解所述剪枝优化函数,得到最优剪枝门值。
7.根据权利要求6所述的深度神经网络的剪枝方法,其特征在于,根据所述最优剪枝门值和预设阈值对所述深度神经网络进行剪枝处理,得到目标深度神经网络,包括:
获取电力边缘计算设备的FLOPS约束;
根据FLOPS约束,采用二分搜索算法确定当前迭代次数对应的全局剪枝阈值;
根据所述全局剪枝阈值和所述最优剪枝门值对所述深度神经网络进行剪枝;
检测剪枝后的深度神经网络是否符合条件;
当剪枝后的深度神经网络符合条件时,输出所述剪枝后的优化函数;
当剪枝后的深度神经网络不符合条件时,则跳转到“根据FLOPS约束,采用二分搜索算法确定当前迭代次数对应的全局剪枝阈值”步骤确定下一次迭代次数对应的全局剪枝阈值,直到剪枝后的深度神经网络符合条件时,输出所述剪枝后的优化函数。
8.一种深度神经网络的剪枝装置,其特征在于,包括:
建立模块,用于建立电力系统边缘计算的深度神经网络;
所述建立模块,还用于基于随机权值,根据所述深度神经网络,建立剪枝优化函数;
计算模块,用于求解所述剪枝优化函数,得到最优剪枝门值;
所述计算模块,还用于根据所述最优剪枝门值和预设阈值对所述深度神经网络进行剪枝处理,得到目标深度神经网络。
9.一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上的权利要求1至7中任一项所述的深度神经网络的剪枝方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上的权利要求1至7中任一项所述的深度神经网络的剪枝方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111674645.XA CN114462593A (zh) | 2021-12-31 | 2021-12-31 | 深度神经网络的剪枝方法、装置、终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111674645.XA CN114462593A (zh) | 2021-12-31 | 2021-12-31 | 深度神经网络的剪枝方法、装置、终端及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114462593A true CN114462593A (zh) | 2022-05-10 |
Family
ID=81408493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111674645.XA Pending CN114462593A (zh) | 2021-12-31 | 2021-12-31 | 深度神经网络的剪枝方法、装置、终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114462593A (zh) |
-
2021
- 2021-12-31 CN CN202111674645.XA patent/CN114462593A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111860982A (zh) | 一种基于vmd-fcm-gru的风电场短期风电功率预测方法 | |
CN111435463B (zh) | 数据处理方法及相关设备、系统 | |
CN108959187A (zh) | 一种变量分箱方法、装置、终端设备及存储介质 | |
CN113553755B (zh) | 电力系统状态估计方法、装置及设备 | |
CN111461445B (zh) | 短期风速预测方法、装置、计算机设备及存储介质 | |
AU2021245165A1 (en) | Method and device for processing quantum data | |
CN109214502B (zh) | 神经网络权重离散化方法和系统 | |
CN113516275A (zh) | 一种配电网超短期负荷预测方法、装置及终端设备 | |
CN114490065A (zh) | 一种负载预测方法、装置及设备 | |
CN110728313A (zh) | 一种用于意图分类识别的分类模型训练方法及装置 | |
CN115660233A (zh) | 光伏功率预测方法、装置、电子设备及存储介质 | |
CN112766402A (zh) | 算法选择方法、装置和电子设备 | |
CN114781650A (zh) | 一种数据处理方法、装置、设备以及存储介质 | |
CN115796338A (zh) | 光伏发电功率预测模型构建及光伏发电功率预测方法 | |
CN115906741A (zh) | 一种基于高性能计算的射频电路寻优设计方法 | |
CN110337636A (zh) | 数据转换方法和装置 | |
CN113743650B (zh) | 电力负荷预测方法、装置、设备与存储介质 | |
CN116841753B (zh) | 一种流处理和批处理的切换方法及切换装置 | |
CN117833231A (zh) | 基于Bi-LSTM和双重注意力机制的负荷预测方法 | |
CN117217591A (zh) | 一种用于预测光伏发电功率的方法及系统 | |
CN111460734A (zh) | 一种结合先进自适应采样和人工神经网络的微波器件自动建模方法 | |
CN114462593A (zh) | 深度神经网络的剪枝方法、装置、终端及存储介质 | |
CN116365511A (zh) | 有源配电网模型构建方法、装置、终端及存储介质 | |
CN115687882A (zh) | 一种输电断面极限传输容量概率分布估计方法及装置 | |
CN115169173A (zh) | 工程机械可靠性分析方法和装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |