CN110309919A - 基于结构化贝叶斯后验概率估计的神经网络压缩方法 - Google Patents

基于结构化贝叶斯后验概率估计的神经网络压缩方法 Download PDF

Info

Publication number
CN110309919A
CN110309919A CN201910615130.9A CN201910615130A CN110309919A CN 110309919 A CN110309919 A CN 110309919A CN 201910615130 A CN201910615130 A CN 201910615130A CN 110309919 A CN110309919 A CN 110309919A
Authority
CN
China
Prior art keywords
parameter
neural network
posterior probability
estimation
grouping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910615130.9A
Other languages
English (en)
Inventor
王�琦
李学龙
郭年辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Northwest University of Technology
Original Assignee
Northwest University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwest University of Technology filed Critical Northwest University of Technology
Priority to CN201910615130.9A priority Critical patent/CN110309919A/zh
Publication of CN110309919A publication Critical patent/CN110309919A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于结构化贝叶斯后验概率估计的神经网络压缩方法,用于解决现有神经网络压缩方法存在非结构化压缩的技术问题。技术方案是通过重参数技巧在训练过程中对模型参数w引入方差可学习的高斯噪声,将神经网络从数值优化问题变换为概率推理问题,实现基于因果推理的贝叶斯参数估计。同时采用分组概率估计的约束方法,实现分组的参数不确定性估计,结合稀疏先验,实现结构化的分组参数压缩,更有利于模型的移动端部署。本发明从分组贝叶斯估计的角度实现了神经网络参数的稀疏学习,解决了现有神经网络压缩方法非结构化压缩的技术问题。

Description

基于结构化贝叶斯后验概率估计的神经网络压缩方法
技术领域
本发明涉及一种神经网络压缩方法,特别涉及一种基于结构化贝叶斯后验概率估计的神经网络压缩方法。
背景技术
深度神经网络已经在多个领域如计算机视觉,语音识别,机器人控制等取得了显著的成功。然而,有着海量参数的神经网络模型容易对训练数据过拟合而在测试时表现较差。因此,在模型训练时引入合适的正则化是必要的。其中最常用的一种正则化方式对神经网络推理过程引入噪声,如通过在训练阶段随机抛弃神经元及其对应的链接,实现对神经网络中协同自适应性问题的正则化效果,该方法被称为二值Dropout。另一种能达到相同效果的替代方法为对神经元的输入叠加乘性高斯噪声,这种方法被称为高斯Dropout。最近的研究表明,高斯Dropout可以被看做贝叶斯正则化的一种特殊情况,因此通过对神经网络引入高斯Dropout将神经网络转化为支持贝叶斯理论分析方法的概率模型,这为通过贝叶斯估计实现神经网络参数不确定分析提供了有利基础。
神经网络参数压缩从参数稀疏类型的角度,可以分为结构化压缩与非结构化压缩两个方向,其中,“Han S,Mao H,Dally W J.Deep Compression:Compressing Deep NeuralNetworks with Pruning,Trained Quantization and Huffman Coding[J].Fiber,2015,56(4):3--7.”为代表的非结构化压缩模型压缩算法已经被证明有效并能实现高度稀疏的神经网络结构。尽管高度稀疏是神经网络压缩的重要目标之一,但这样的非结构化稀疏并不意味着模型加速,因为由非结构化的稀疏矩阵并不能在现有的神经网络软件库中得到很好的支持。与此同时,由于移动硬件设备在计算和存储资源上的限制,同时实现参数压缩与计算加速是十分重要的,实现对深度学习模型的有效压缩是大规模深度学习应用的重要基础。
发明内容
为了克服现有神经网络压缩方法存在非结构化压缩的不足,本发明提供一种基于结构化贝叶斯后验概率估计的神经网络压缩方法。该方法通过重参数技巧在训练过程中对模型参数w引入方差可学习的高斯噪声,将神经网络从数值优化问题变换为概率推理问题,实现基于因果推理的贝叶斯参数估计。同时采用分组概率估计的约束方法,实现分组的参数不确定性估计,结合稀疏先验,实现结构化的分组参数压缩,更有利于模型的移动端部署。本发明从分组贝叶斯估计的角度实现了神经网络参数的稀疏学习,解决了现有神经网络压缩方法非结构化压缩的技术问题。
本发明解决其技术问题所采用的技术方案:一种基于结构化贝叶斯后验概率估计的神经网络压缩方法,其特点是包括以下步骤:
步骤一、构建常规神经网络参数,与此同时,为每一个参数配置一个基于梯度调整的参数α,作为后验概率分布的方差。
步骤二、在每一次前向推理时,利用中心极限定理得到参数后验概率分布以及参数层输出的分组后验概率分布,根据步骤一参数层输出后验概率分布的公式化表示,再结合高斯分布线性可加性,得到分组表示的组合高斯分布表示,并使用重参数技巧得到所述组合高斯分布的实际采样结果:
步骤三、将采样得到的参数层输出和剪枝掩码相乘,消除已经被剪枝参数在前向传播中的影响,再将计算结果作为下一层的输入,当再次进行线性层推理时,重复步骤二。
步骤四、完成一次前向传播后,计算需要优化的变分下限,包括对数似然期望值、后验概率分布与先验分布间的KL散度约束值。
步骤五、根据随机梯度下降对神经网络参数进行调整,对步骤四得到的当前迭代步的变分下限最小化处理。
步骤六、至此完成了模型参数W与分布参数α的调整,根据分布参数α的数值,对用于剪枝的掩码进行更新并重新回到步骤二:
logαij=3
步骤七、根据最终掩码对神经网络进行剪枝,得到压缩过后的神经网络结构及其参数。
本发明的有益效果是:该方法通过重参数技巧在训练过程中对模型参数w引入方差可学习的高斯噪声,将神经网络从数值优化问题变换为概率推理问题,实现基于因果推理的贝叶斯参数估计。同时采用分组概率估计的约束方法,实现分组的参数不确定性估计,结合稀疏先验,实现结构化的分组参数压缩,更有利于模型的移动端部署。本发明从分组贝叶斯估计的角度实现了神经网络参数的稀疏学习,解决了现有神经网络压缩方法非结构化压缩的技术问题。
下面结合附图和具体实施方式对本发明作详细说明。
附图说明
图1是本发明基于结构化贝叶斯后验概率估计的神经网络压缩方法的流程图。
图2是本发明方法与其他两种方法压缩及加速结果的对比图。
具体实施方式
参照图1。本发明基于结构化贝叶斯后验概率估计的神经网络压缩方法具体步骤如下:
步骤一、构建常规神经网络参数,与此同时,为每一个参数配置一个基于梯度调整的参数α,作为后验概率分布的方差。
步骤二、在每一次前向推理时,利用中心极限定理得到参数后验概率分布以及参数层输出的分组后验概率分布,根据步骤一参数层输出后验概率分布的公式化表示,再结合高斯分布线性可加性,得到分组表示的组合高斯分布表示,并使用重参数技巧得到所述组合高斯分布的实际采样结果:
步骤三、将采样得到的参数层输出和剪枝掩码相乘,消除已经被剪枝参数在前向传播中的影响,再将计算结果作为下一层的输入,当再次进行线性层推理时,重复步骤二。
步骤四、完成一次前向传播后,计算需要优化的变分下限,包括对数似然期望值、后验概率分布与先验分布间的KL散度约束值。
步骤五、根据随机梯度下降对神经网络参数进行调整,对步骤四得到的当前迭代步的变分下限最小化处理。
步骤六、至此完成了模型参数W与分布参数α的调整,根据分布参数α的数值,对用于剪枝的掩码进行更新并重新回到步骤二:
logαij=3
步骤七、根据最终掩码对神经网络进行剪枝,得到压缩过后的神经网络结构及其参数。
本发明的效果通过以下仿真实验做进一步的说明。
1、仿真条件。
本发明是在中央处理器为i5-3470 3.2GHz CPU、内存16G、NVIDIA 1080TIGPU、WINDOWS 10操作系统上,运用Pytorch软件进行的仿真。
仿真中使用的数据及模型分别为CIFAR10数据集以及VGG模型。
2、仿真内容。
为了验证算法的有效性,选择与两种算法进行对比。分别为SparseVD压缩算法与SBP压缩算法。SparseVD检测算法由Aly等人在文献“Molchanov D,Ashukha A,VetrovD.Variational Dropout Sparsifies Deep Neural Networks[J].2017.”中提出。SBP压缩算法由Neklyudov等人在文献“Neklyudov K,Molchanov D,Ashukha A,et al.Structuredbayesian pruning via log-normal multiplicative noise[C]//Advances in NeuralInformation Processing Systems.2017:6778-6787.”中提出。
在验证结果集上,为了体现公平的原则,三种算法均使用同一种数据及基础模型库,由VGG实验室发布的CIFAR10公开数据集以及VGG16模型。压缩及加速结果显示在图2中。
相比于其他两种算法的结果,我们(Ours)的结果不论是在各层通道压缩数量,还是在CPU或者GPU以及理论加速效果,都有相较于其他两种算法更好的效果。
总的来说,本发明具有高压缩度,精度丢失少的特点,通过以上仿真实验也可以验证本发明的有效性。

Claims (1)

1.一种基于结构化贝叶斯后验概率估计的神经网络压缩方法,其特征在于包括以下步骤:
步骤一、构建常规神经网络参数,与此同时,为每一个参数配置一个基于梯度调整的参数α,作为后验概率分布的方差;
步骤二、在每一次前向推理时,利用中心极限定理得到参数后验概率分布以及参数层输出的分组后验概率分布,根据步骤一参数层输出后验概率分布的公式化表示,再结合高斯分布线性可加性,得到分组表示的组合高斯分布表示,并使用重参数技巧得到所述组合高斯分布的实际采样结果:
步骤三、将采样得到的参数层输出和剪枝掩码相乘,消除已经被剪枝参数在前向传播中的影响,再将计算结果作为下一层的输入,当再次进行线性层推理时,重复步骤二;
步骤四、完成一次前向传播后,计算需要优化的变分下限,包括对数似然期望值、后验概率分布与先验分布间的KL散度约束值;
步骤五、根据随机梯度下降对神经网络参数进行调整,对步骤四得到的当前迭代步的变分下限最小化处理;
步骤六、至此完成了模型参数W与分布参数α的调整,根据分布参数α的数值,对用于剪枝的掩码进行更新并重新回到步骤二:
logαij=3
步骤七、根据最终掩码对神经网络进行剪枝,得到压缩过后的神经网络结构及其参数。
CN201910615130.9A 2019-07-09 2019-07-09 基于结构化贝叶斯后验概率估计的神经网络压缩方法 Pending CN110309919A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910615130.9A CN110309919A (zh) 2019-07-09 2019-07-09 基于结构化贝叶斯后验概率估计的神经网络压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910615130.9A CN110309919A (zh) 2019-07-09 2019-07-09 基于结构化贝叶斯后验概率估计的神经网络压缩方法

Publications (1)

Publication Number Publication Date
CN110309919A true CN110309919A (zh) 2019-10-08

Family

ID=68079375

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910615130.9A Pending CN110309919A (zh) 2019-07-09 2019-07-09 基于结构化贝叶斯后验概率估计的神经网络压缩方法

Country Status (1)

Country Link
CN (1) CN110309919A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111142065A (zh) * 2019-12-20 2020-05-12 郑州大学 一种低复杂度稀疏贝叶斯矢量的估计方法及系统
CN111461322A (zh) * 2020-03-13 2020-07-28 中国科学院计算技术研究所 一种深度神经网络模型压缩方法
CN112215353A (zh) * 2020-09-29 2021-01-12 电子科技大学 一种基于变分结构优化网络的通道剪枝方法
CN112244853A (zh) * 2020-10-26 2021-01-22 生物岛实验室 边缘计算节点的制造方法和边缘计算节点
CN112633390A (zh) * 2020-12-29 2021-04-09 重庆科技学院 一种基于贝叶斯概率优化的青蒿素提净度分析方法
CN113313229A (zh) * 2019-08-26 2021-08-27 辉达公司 模型压缩中对稀疏率的贝叶斯优化

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113313229A (zh) * 2019-08-26 2021-08-27 辉达公司 模型压缩中对稀疏率的贝叶斯优化
CN111142065A (zh) * 2019-12-20 2020-05-12 郑州大学 一种低复杂度稀疏贝叶斯矢量的估计方法及系统
CN111461322A (zh) * 2020-03-13 2020-07-28 中国科学院计算技术研究所 一种深度神经网络模型压缩方法
CN111461322B (zh) * 2020-03-13 2024-03-08 中国科学院计算技术研究所 一种深度神经网络模型压缩方法
CN112215353A (zh) * 2020-09-29 2021-01-12 电子科技大学 一种基于变分结构优化网络的通道剪枝方法
CN112215353B (zh) * 2020-09-29 2023-09-01 电子科技大学 一种基于变分结构优化网络的通道剪枝方法
CN112244853A (zh) * 2020-10-26 2021-01-22 生物岛实验室 边缘计算节点的制造方法和边缘计算节点
CN112244853B (zh) * 2020-10-26 2022-05-13 生物岛实验室 边缘计算节点的制造方法和边缘计算节点
CN112633390A (zh) * 2020-12-29 2021-04-09 重庆科技学院 一种基于贝叶斯概率优化的青蒿素提净度分析方法
CN112633390B (zh) * 2020-12-29 2022-05-20 重庆科技学院 一种基于贝叶斯概率优化的青蒿素提净度分析方法

Similar Documents

Publication Publication Date Title
CN110309919A (zh) 基于结构化贝叶斯后验概率估计的神经网络压缩方法
CN107590565B (zh) 一种构建建筑能耗预测模型的方法及装置
EP3192016B1 (en) Computing system for training neural networks
CN101221213A (zh) 基于粒子群算法的模拟电路故障诊断神经网络方法
CN110858973A (zh) 小区网络流量预测方法及装置
CN108921286B (zh) 一种免阈值设定的静息态功能脑网络构建方法
CN111709534A (zh) 基于演化计算的联邦学习方法、装置、设备及介质
CN113065653B (zh) 面向移动端图像分类的轻量级卷积神经网络的设计方法
EP2672659A2 (en) Method and device for artificial synthesis of network flow
CN111260124A (zh) 一种基于注意力机制深度学习的混沌时间序列预测方法
CN109784488A (zh) 一种适用于嵌入式平台的二值化卷积神经网络的构建方法
CN114490065A (zh) 一种负载预测方法、装置及设备
CN111756587B (zh) 一种采用GraphSAGE预测时序网络链路的方法
CN110598585A (zh) 基于卷积神经网络的起坐动作识别方法
CN105577473A (zh) 一种基于网络流量模型的多业务流量生成系统
CN114169506A (zh) 一种基于工业物联网平台的深度学习边缘计算系统框架
CN101540504B (zh) 一种基于变步长神经网络的潮流分析装置及方法
CN116227553A (zh) 基于卷积神经网络的声源定位的方法及系统
CN110839253A (zh) 一种确定无线网格网络流量的方法
He et al. OptQuant: Distributed training of neural networks with optimized quantization mechanisms
CN115759251A (zh) 一种决策树训练方法、装置、计算机设备以及存储介质
CN115113855A (zh) 音频数据处理方法、装置、电子设备和存储介质
CN103219998A (zh) 一种多通道压缩感知框架下的混合参数估计方法
CN108734267A (zh) 深度神经网络模型的压缩方法及装置、终端、存储介质
CN113743012A (zh) 一种多用户场景下的云-边缘协同模式任务卸载优化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191008

RJ01 Rejection of invention patent application after publication