CN110992432A - 基于深度神经网络最小方差梯度量化压缩及图像处理方法 - Google Patents

基于深度神经网络最小方差梯度量化压缩及图像处理方法 Download PDF

Info

Publication number
CN110992432A
CN110992432A CN201911029711.0A CN201911029711A CN110992432A CN 110992432 A CN110992432 A CN 110992432A CN 201911029711 A CN201911029711 A CN 201911029711A CN 110992432 A CN110992432 A CN 110992432A
Authority
CN
China
Prior art keywords
gradient
quantization
neural network
value
deep neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911029711.0A
Other languages
English (en)
Other versions
CN110992432B (zh
Inventor
符芳诚
周跃
崔斌
聂小楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN201911029711.0A priority Critical patent/CN110992432B/zh
Publication of CN110992432A publication Critical patent/CN110992432A/zh
Application granted granted Critical
Publication of CN110992432B publication Critical patent/CN110992432B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公布了一种基于深度神经网络最小方差梯度量化压缩及图像处理方法,针对包含类别标签的有监督数据,采用深度神经网络中对梯度进行非均匀量化的网络压缩,使用韦伯分布族建模梯度分布,再通过搜索最优量化点求解量化方差最小化,使得量化误差最小,提高深度神经网络模型的收敛速度;该神经网络压缩方法用于图像分类处理,可提高图像处理效率。

Description

基于深度神经网络最小方差梯度量化压缩及图像处理方法
技术领域
本发明属于信息处理技术领域,涉及深度学习及图像处理技术,尤其涉及一种基于深度神经网络领域最小方差梯度量化压缩优化方法及基于压缩优化的图像处理方法。
背景技术
在图像处理技术领域,深度学习(Deep Learning,DL)给机器学习带来了革命性的变化,并在各种复杂任务上取得了显著的改进。近年来,随着图像处理大数据量的惊人增长,许多研究人员致力于以分布式方式训练深度神经网络(DNNs)。在分布式训练下,普遍采用数据并行随机梯度下降(SGD)的方法进行训练,训练实例分散在每个worker上,每个worker基于自己的数据训练梯度,然后使用all reduce或参数服务器的方式聚合所有梯度更新模型参数,更新后的参数发送回下一次迭代的所有worker。分布式深度学习虽然减少了计算时间,但数据并行性需要相当大的通信开销。为此,基于gpu的大规模分布式深度学习中降低通信开销的研究日益受到关注。在这个方向上,梯度量化是一种众所周知的方法,通过将梯度量化为更少的比特数可以用来降低处理过程的通信成本。
近年以来,DNNs领域显著的梯度量化工作是TernGrad和QSGD(①Wen,W.;Xu,C.;Yan,F.;Wu,C.;Wang,Y.;Chen,Y.;and Li,H.2017.Terngrad:Ternary gradients toreduce communication in distributed deep learning.In Advances in neuralinformation processing systems,1509–1519.;②Alistarh,D.;Grubic,D.;Li,J.;Tomioka,R.;and Vojnovic,M.2017.Qsgd:Communication-efficient sgd via gradientquantization and encoding.In Advances in Neural Information ProcessingSystems,1709–1720.)。Terngrad利用无偏性证明了梯度量化方法的收敛性。然而,它只考虑一个很少的量化级别n=2。在实际应用中,需要获得理想的收敛性,例如梯度裁剪和不量化最后一个全连接层,但这会损害压缩比。上述方法还使用了更多的量化级别,考虑了量化级别和收敛性之间的权衡,但该方法只关注了均匀量化。因此,现有方法大多采用均匀量化机制,对梯度值进行均匀量化。这样的方案可导致较大的量化方差,在实际应用中减慢收敛速度,使得图像处理效率不高。
发明内容
为了克服上述现有技术的不足,本发明提供一种基于深度神经网络最小方差梯度量化压缩优化方法及基于压缩优化的图像处理(图像分类)方法,采用非均匀量化方法,以合理的先验值逼近梯度分布,根据梯度的分布找到量化方差最小的最优量化点,利用分布特性实现理论上的最优量化方差。在相同的压缩水平下,本发明方法能获得较低的量化方差,且收敛速度快于均匀量化方法,与全精度训练算法具有相似的收敛性能,将上述神经网络压缩方法用于图像分类处理,可提高图像处理效率。
以下为本发明的术语及相应说明:
梯度下降(GD):梯度下降是迭代法的一种,可以用于求解最小二乘问题。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一。假设目标函数f:
Figure BDA0002249781200000021
的输入是一个多维向量x=[x1,x2,…,xd]T,目标函数f(x)有关x的梯度是一个由偏导数组成的向量
Figure BDA0002249781200000022
为了最小化f(x),可以通过梯度下降算法来不断降低目标函数f的值:
Figure BDA0002249781200000023
其中η:学习率。
随机梯度下降(SGD):随机梯度下降在计算下降最快的方向时随机选一个数据进行计算,而不是扫描全部训练数据集,这样就加快了迭代速度,比较适用于数据集较大的情况。
方差:概率论中方差用来度量随机变量和其数学期望(即均值)之间的偏离程度。设X是一个随机变量,若E{[X-E(X)]2}存在,则称其为X的方差,记为D(X),即:D(X)=E{[X-E(X)]2}。
韦伯分布(Weibull distribution):韦伯分布是连续性的概率分布,它的累积分布函数是扩展的指数分布函数,其概率密度为:
Figure BDA0002249781200000024
其中,x是随机变量,λ>0是比例参数(scale parameter),k>0是形状参数(shapeparameter)。
伽马函数(Gamma Function):通常写成Γ(x),在实数域上伽马函数通常定义为:
Figure BDA0002249781200000025
使用伽马函数来表示韦伯分布的均值和方差分别如下:
均值:E=λΓ(1+1/k),方差为:
Figure BDA0002249781200000026
而标准差是方差的算术平方根。
本发明的技术方案是:
一种基于深度神经网络最小方差梯度量化压缩优化方法MVQsgd,及将该压缩优化方法应用于图像处理的方法,可针对用于做图像分类的图像数据(一般是含有或部分含有类别标签的有监督图像数据),采用深度神经网络中对梯度进行非均匀量化的网络压缩方法MVQsgd:Minimum Variance Quantization stochastic gradient descent,使得量化误差最小,提高深度神经网络模型的收敛速度,将上述神经网络压缩方法用于图像分类处理,可提高图像处理效率。
在本发明中使用韦伯分布族来建模梯度分布,尔后将搜索最优量化点(使量化方差最小化)作为一个优化问题来求解,并导出该问题的一般解。
本发明的方法包括以下步骤:
1)将深度神经网络的训练集数据(如用于做图像分类的图像)分批输入架构有深度神经网络模型的多个工作计算机上;
2)多个工作计算机分别利用本地的图像训练集对深度神经网络模型进行训练,并计算得出模型参数(如卷积层的卷积核参数、全连接层的权重以及偏置等参数)的训练梯度值;
3)为降低梯度值传输通信开销,使用以下方法对梯度值进行压缩;
31)首先建立梯度分布符合韦伯分布情况下插值参数k-CV(k:shape parameter形状参数;CV:Coefficient of Variation变化系数,其值为该分布的标准差除以期望)表,确定在不同的参数k(0.1<k<1,按照一定的步进大小对k进行循环)情况下,CV(Coefficientof Variation变化系数)函数的函数值
Figure BDA0002249781200000031
便于对比计算。此步骤在第一次训练迭代前计算一次并常驻内存即可,后续迭代时直接调用,不用重复计算;
32)对给定的梯度分布,计算均值μ和标准差σ,据此求出真实梯度下的CV值:CV=σ/μ;
33)使用二分查找法查找31)中建立的k-CV表,确定与真实梯度分布下的CV值最接近的表中的CV值,进而确定参数k以及梯度分布函数等;
34)计算量化点。
求解量化点
Figure BDA0002249781200000032
其中:M=3σ,σ为32)中求解出来的梯度分布标准差,λ和k为步骤33)中确定的韦伯分布参数,λ=μ/Γ(1+1/k)。据此,量化点区间分别为{-||g||,-s,0,s,||g||},其中||g||代表梯度分布的∞-范数,即梯度分布元素的绝对值的最大值;
35)按照以下方法循环计算梯度分布各元素的量化之后的梯度值,其中gi表示原梯度元素值,
Figure BDA0002249781200000033
表示量化之后的元素值,[st,st+1]表示34)中求解的量化点区间,
Figure BDA0002249781200000041
4)每个工作计算机将量化之后的梯度值通过网络传递给参数服务器。参数服务器使用平均值的方法得出最终的梯度值,并传输给每个工作计算机;
5)工作计算机收到最终的梯度值后,按照随机梯度下降(SGD)的一般方法对模型参数进行更新;
6)完成一轮迭代,并重复第2-5步进入下一次迭代,直到达到停止条件(一般是误差小于特定值或者达到特定迭代轮数,如:交叉熵损失函数值<0.0001或迭代达到10000次)。前6步为模型的训练过程,经过前6步的训练,得到了模型的最终参数并建立了最终的图像分类模型。使用本模型对图像进行分类时,应按照以下步骤进行:
7)将需要分类的图像(称之为:测试集)输入工作计算机中;
8)工作计算机将输入的图像填入训练完成的最终模型中,按照机器学习的基本理论对模型进行运算,计算得出该图像分属某一类别的概率(如对于一个三分类的图像分类问题:类别1:0.1、类别2:0.2、类别3:0.7);
9)根据最终的类别概率确定该图像的类别(如上例中该图像应属于概率最大的类别3)。
通过上述步骤,实现了基于深度神经网络最小方差梯度量化压缩的图像分类处理。
与现有技术相比,本发明的有益效果是:
本发明提供一种基于深度神经网络最小方差梯度量化压缩的图像处理(图像分类)方法,采用非均匀量化方法,以合理的先验值逼近梯度分布,根据梯度的分布找到量化方差最小的最优量化点,利用分布特性实现理论上的最优量化方差。在相同的压缩水平下,本发明方法能获得较低的量化方差,进而在训练时收敛速度快于均匀量化方法,与全精度训练算法具有相似的收敛性能,将上述神经网络压缩方法用于图像分类处理,可提高图像处理效率。
附图说明
图1是本发明方法中的网络结构框图。
图2是本发明提供方法的流程框图。
图3是本发明实施例中三种分布的KL散度在ResNet34上的性能表现示意图;三种分布分别是韦伯分布、拉普拉斯分布、高斯分布。
具体实施方式
下面结合附图,通过实施例进一步描述本发明,但不以任何方式限制本发明的范围。
本发明实施例提供的梯度非均匀量化算法可应用于图1所示的系统中,用户Client通过调用接口将计算任务发送给主节点Master,主节点Master通过与多个计算节点Worker通信进而组成分布式机器学习系统。其中主节点Master提供数据和参数矩阵的分片和分发,资源申请,管理和监控任务运行状态等功能;参数服务器Parameter Server负责存储和更新参数,可以通过增加机器水平扩展,以容纳更多参数;计算节点Worker负责具体的模型训练或者结果预测,包含一个或者多个任务Task,Task之间共享Worker的资源,所有计算节点对当前拥有的数据集进行计算,并将计算结果返回主节点Master。主节点Master根据所有计算节点的计算结果,更新全局变量并将全局变量向所有计算节点进行广播。各计算节点收到全局变量以后根据全局变量完成对模型中相应维度进行参数更新。
本发明实施例提供的系统计算步骤如下所示,具体见图2所示:
步骤1,用户节点启动参数服务器及其它系统;
步骤2,计算节点分别建立模型或通过网络通信从参数服务器拉取事先建立好的模型(如VGG19);
步骤3,启动进程执行任务task;
步骤4,将图像分类数据集(训练集)分批装载进各个计算节点;
步骤5,计算节点Worker初始化模型参数或者从参数服务器拉取已初始化好的模型参数(如卷积层的卷积核参数、全连接层的权重以及偏置等参数);
步骤6,按照深度学习以及人工神经网络基本理论,计算节点将图像输入模型之中,求解计算损失函数以及每个参数相对应的梯度值;
步骤7,每个计算节点将步骤6求解出来的梯度值均通过网络传递给参数服务器,参数服务器按照平均值方法计算最终梯度值,并传递给各个计算节点;步骤8,重复步骤6、7,直到达到停止条件(一般是误差小于特定值或者达到特定迭代轮数);
步骤9,模型训练完成后,保存训练模型。
按照以上的分布式深度学习基本步骤,本实施例说明的机器学习系统可运用于图像分类等训练任务中,具体来说,可以运用于CIFAR10、CIFAR100、ImageNet等图像数据集的训练,以下选取CIFAR10数据集运用VGG19模型进行训练来说明具体运用方式。VGG19模型为由文献(Very Deep Convolutional Networks for Large-Scale Image Recognition,Karen Simonyan and Andrew Zisserman,ICLR 2015)中提出的共19层的深度神经网络模型。
步骤1,将VGG19模型装载进参数服务器,启动训练任务,各个计算节点从读取CIFAR10数据集;
步骤2,各计算节点对数据集分别进行训练,训练结束后生成梯度等参数信息,根据本文“发明内容”中“步骤A:梯度分布的拟合和步骤B:量化点的计算”的说明,首先拟合出各个计算节点的梯度值大致分布情况,而后计算出需要的量化点,并将量化点矩阵作为最终的梯度值传递给参数服务器进行计算。
步骤3,参数服务器使用均值法计算出最终梯度值后,传递给各个计算节点更新模型参数,进行迭代训练。
步骤4,使用训练好的VGG19模型,对图像进行分类,包括:
步骤41,将待分类数据集(测试集)输入计算节点,计算节点将测试集输入VGG19模型之中;
步骤42,VGG19模型根据输入的测试集计算分属每个图像类别的概率;
步骤43,取最大的概率所在的类别作为该图像的分类类别,输入最终结果。
梯度分布的拟合算法的伪代码如下:
输入:梯度张量g
输出:合适的梯度分布
A1.函数:初始化CV表(步进大小delta=0.001)
Figure BDA0002249781200000061
A2.函数:查表(梯度表stat,CV表T)
1:μ=stat表的均值,σ=stat表的标准差
2:求出CV=σ/μ
3:使用二分查找法查找表T中的元素<k′,CV′>使得(CV-CV′)绝对值最小
4:求出:λ′=μ/Γ(1+1/k′)
5:返回<k′,λ′>
A3.如果CV表没有初始化,则执行函数A1:初始化CV表
A4.将梯度g按照桶大小为d分成t个桶:b1,b2,…,bt
A5.对于第i个桶(i为1到t)执行以下循环:
所有正值梯度bi.pos_stat执行函数A2:查表,返回值为posi
所有负值梯度bi.neg_stat执行函数A2:查表,返回值为negi
A6:得到k-λ结果对:<posi,negi>,<posi,negi>,…,<post,negt>
B:量化点的计算(考虑实践应用,本发明着重讨论了n=4的量化点情况)
根据公式求解得出n=4时的量化点值
Figure BDA0002249781200000071
其中,M=3σ通过本发明所提供的非均匀梯度量化算法,降低了梯度压缩的方差,加快了模型收敛速度。
下面从梯度压缩使用分布的合理性以及具体压缩效果与其它压缩方法进行对比的角度进行分析如下:
(一)使用韦伯分布的合理性分析实例。
梯度的分布对获得最小方差至关重要,为了确保可实践性,在每一次迭代中可以计算梯度的一些统计信息如均值和标准差,然后据此用先验来估计梯度的分布。论文(Bernstein,J.;Wang,Y.-X.;Azizzadenesheli,K.;and Anandkumar,A.2018.Signsgd:Compressed optimisation for nonconvex problems.In International Conference onMachine Learning,559–568.)指出:梯度的分布是单峰对称的。根据实际绘制了一些梯度的经验分布,并注意到除了单峰对称外,梯度分布还符合中心趋势和长尾效应。为此,本发明使用韦伯分布来建模梯度的分布。
如附图3所示,为了验证本发明对梯度分布的分析,通过KL散度将梯度与拟合分布进行了实证比较。使用ResNet34在Cifar100数据集上分别使用韦伯分布、拉普拉斯分布、高斯分布来建模梯度的KL散度。ResNet34是文献(Deep Residual Learning for ImageRecognition,Kaiming He,Xiangyu Zhang,Shaoqing Ren,Jian Sun,arXiv:1512.03385)中提出的34层的深度残差神经网络模型。可以看出,在整个训练过程中韦伯分布总能获得最小的KL散度值。事实上,拉普拉斯分布是韦伯分布的一个特例,它没有足够的复杂性来描述梯度。而高斯分布由于与梯度分布有着显著差异,表现性能也较差。
(二)CV表的计算。
为了提高计算效率,本发明事先维护一个不同k值情况下的CV表,其中0.1<k<1。
对于韦伯分布
Figure BDA0002249781200000081
来说,其均值为
Figure BDA0002249781200000082
其方差为:
Figure BDA0002249781200000083
其中Γ(·)为伽马函数:
Figure BDA0002249781200000084
Figure BDA0002249781200000085
为此:
Figure BDA0002249781200000086
(三)量化的性能效果实例。
本发明实例化了若干模型并进行了验证,在相同批大小以及初始学习率等参数配置下,分别使用本发明(MVQsgd)、QSGD、Terngrad以及无压缩(FP32)等方法,对CIFAR10、CIFAR100、ImageNet数据集训练VGG19、ResNet34、ResNet50等,得到训练损失以及准确率如下表如示。可以看出,因MVQsgd与QSGD和Terngrad相比能始终获得较低的方法,为此,训练效率和准确率略低于无任何压缩的FP32,高于QSGD和Terngrad方法。
表1本发明模型方法与现有模型的训练损失及准确率
Figure BDA0002249781200000087
需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。

Claims (9)

1.一种基于深度神经网络最小方差梯度量化压缩优化方法,针对包含类别标签的有监督数据,采用深度神经网络中对梯度进行非均匀量化的网络压缩,使用韦伯分布族建模梯度分布,再通过搜索最优量化点求解量化方差最小化,使得量化误差最小,提高深度神经网络模型的收敛速度;包括以下步骤:
1)将深度神经网络的训练集数据分批输入架构有深度神经网络模型的多个工作计算机上;
2)多个工作计算机分别利用本地的训练集数据对深度神经网络模型进行训练,并计算得出模型参数的训练梯度值;
3)使用以下方法对梯度值进行压缩:
31)首先建立梯度分布符合韦伯分布情况下插值参数k-CV表,确定在不同的韦伯分布参数k情况下,CV函数的函数值,在第一次训练迭代前计算一次并常驻内存,迭代时直接调用;
Figure FDA0002249781190000011
Γ为伽马函数;
32)计算梯度分布的均值μ和标准差σ,并求出真实梯度下的CV值,再求出真实梯度下的CV值:CV=σ/μ;
33)使用二分查找法查找31)中建立的k-CV表,确定与真实梯度分布下的CV值最接近的表中的CV值,参数k和梯度分布函数;
34)计算量化点区间;
求解量化点
Figure FDA0002249781190000012
其中,M=3σ;λ和k为步骤33)中的韦伯分布参数,λ=μ/Γ(1+1/k);量化点区间分别为{-||g||,-s,0,s,||g||},其中||g||代表梯度分布的∞-范数,即梯度分布元素的绝对值的最大值;
35)按照以下方法循环计算梯度分布各元素的量化之后的梯度值:
Figure FDA0002249781190000013
其中,gi表示原梯度元素值,
Figure FDA0002249781190000014
表示量化之后的元素值,[st,st+1]表示步骤34)中求解的量化点区间;
4)每个工作计算机将量化之后的梯度值通过网络传递给参数服务器;参数服务器得出最终梯度值,并传输给每个工作计算机;
5)工作计算机收到最终梯度值后,对模型参数进行更新;
6)完成一轮迭代,并重复步骤2)~5)步进入下一次迭代,直到迭代停止,由此得到模型参数并训练好的深度神经网络模型;
7)将待处理的数据集输入工作计算机中;
8)工作计算机将输入的数据集填入步骤6)得到的训练好的深度神经网络模型中进行计算,输出即为处理结果;
通过上述步骤,实现基于深度神经网络最小方差梯度量化压缩优化并采用优化的深度神经网络进行数据处理。
2.如权利要求1所述基于深度神经网络最小方差梯度量化压缩优化方法,其特征是,所述包含类别标签的有监督数据为用于做图像分类的图像数据;将所述基于深度神经网络最小方差梯度量化压缩优化方法应用于图像分类处理。
3.如权利要求2所述基于深度神经网络最小方差梯度量化压缩优化方法,其特征是,步骤1)具体将用于做图像分类的图像训练集数据分批输入多个工作计算机;多个工作计算机分别利用本地的图像训练集对深度神经网络模型进行训练;模型参数包括:卷积层的卷积核参数、全连接层的权重和偏置。
4.如权利要求2所述基于深度神经网络最小方差梯度量化压缩优化方法,其特征是,步骤6)得到训练好的图像分类模型,将待分类的图像数据集输入训练好的图像分类模型中,安装机器学习方法进行计算,得到图像的类别概率;再根据类别概率识别得到该图像的类别。
5.如权利要求1所述基于深度神经网络最小方差梯度量化压缩优化方法,其特征是,步骤31)中,参数k取值为0.1<k<1。
6.如权利要求1所述基于深度神经网络最小方差梯度量化压缩优化方法,其特征是,步骤5)具体采用随机梯度下降方法对模型参数进行更新。
7.如权利要求1所述基于深度神经网络最小方差梯度量化压缩优化方法,其特征是,步骤34)中,通过如下公式计算得到量化点的值:
Figure FDA0002249781190000021
其中,
Figure FDA0002249781190000022
为量化点的值;Γ为伽马函数;M=3σ。
8.如权利要求1所述基于深度神经网络最小方差梯度量化压缩优化方法,其特征是,深度神经网络具体采用ResNet34或VGG19模型。
9.如权利要求1所述基于深度神经网络最小方差梯度量化压缩优化方法,其特征是,训练数据集采用CIFAR10、CIFAR100或ImageNet图像数据集。
CN201911029711.0A 2019-10-28 2019-10-28 基于深度神经网络最小方差梯度量化压缩及图像处理方法 Active CN110992432B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911029711.0A CN110992432B (zh) 2019-10-28 2019-10-28 基于深度神经网络最小方差梯度量化压缩及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911029711.0A CN110992432B (zh) 2019-10-28 2019-10-28 基于深度神经网络最小方差梯度量化压缩及图像处理方法

Publications (2)

Publication Number Publication Date
CN110992432A true CN110992432A (zh) 2020-04-10
CN110992432B CN110992432B (zh) 2021-07-09

Family

ID=70082576

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911029711.0A Active CN110992432B (zh) 2019-10-28 2019-10-28 基于深度神经网络最小方差梯度量化压缩及图像处理方法

Country Status (1)

Country Link
CN (1) CN110992432B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580805A (zh) * 2020-12-25 2021-03-30 三星(中国)半导体有限公司 神经网络模型的量化方法和量化神经网络模型的装置
CN115086437A (zh) * 2022-06-15 2022-09-20 中国科学技术大学苏州高等研究院 基于分簇和xdp技术的梯度聚合加速方法和装置
CN117496582A (zh) * 2023-12-28 2024-02-02 苏州元脑智能科技有限公司 人脸识别模型训练方法、装置、电子设备及存储介质
US11948279B2 (en) 2020-11-23 2024-04-02 Samsung Electronics Co., Ltd. Method and device for joint denoising and demosaicing using neural network

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101132531A (zh) * 2006-08-21 2008-02-27 美国西门子医疗解决公司 用于医学图像的基于快速jpeg-ls的压缩方法
CN108764458A (zh) * 2018-05-15 2018-11-06 武汉环宇智行科技有限公司 一种非均匀量化的模型压缩方法及系统
EP3432230A1 (en) * 2016-04-18 2019-01-23 Nippon Telegraph And Telephone Corporation Learning device, learning method, and learning program
JP2019080232A (ja) * 2017-10-26 2019-05-23 株式会社Preferred Networks 勾配圧縮装置、勾配圧縮方法及びプログラム
CN110309904A (zh) * 2019-01-29 2019-10-08 广州红贝科技有限公司 一种神经网络压缩方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101132531A (zh) * 2006-08-21 2008-02-27 美国西门子医疗解决公司 用于医学图像的基于快速jpeg-ls的压缩方法
EP3432230A1 (en) * 2016-04-18 2019-01-23 Nippon Telegraph And Telephone Corporation Learning device, learning method, and learning program
JP2019080232A (ja) * 2017-10-26 2019-05-23 株式会社Preferred Networks 勾配圧縮装置、勾配圧縮方法及びプログラム
CN108764458A (zh) * 2018-05-15 2018-11-06 武汉环宇智行科技有限公司 一种非均匀量化的模型压缩方法及系统
CN110309904A (zh) * 2019-01-29 2019-10-08 广州红贝科技有限公司 一种神经网络压缩方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YUSUKE TSUZUKU等: "Variance-Based Gradient Compression For Efficient Distributed Deep Learning》", 《CORNELL UNIVERSITY ARXIV.ORG COMPUTER SCIENCE》 *
黄迪等: "《智能决策系统的深度神经网络加速与压缩方法综述》", 《智慧信息系统与技术》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11948279B2 (en) 2020-11-23 2024-04-02 Samsung Electronics Co., Ltd. Method and device for joint denoising and demosaicing using neural network
CN112580805A (zh) * 2020-12-25 2021-03-30 三星(中国)半导体有限公司 神经网络模型的量化方法和量化神经网络模型的装置
CN115086437A (zh) * 2022-06-15 2022-09-20 中国科学技术大学苏州高等研究院 基于分簇和xdp技术的梯度聚合加速方法和装置
CN115086437B (zh) * 2022-06-15 2023-08-22 中国科学技术大学苏州高等研究院 基于分簇和xdp技术的梯度聚合加速方法和装置
CN117496582A (zh) * 2023-12-28 2024-02-02 苏州元脑智能科技有限公司 人脸识别模型训练方法、装置、电子设备及存储介质
CN117496582B (zh) * 2023-12-28 2024-04-16 苏州元脑智能科技有限公司 人脸识别模型训练方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN110992432B (zh) 2021-07-09

Similar Documents

Publication Publication Date Title
CN110992432B (zh) 基于深度神经网络最小方差梯度量化压缩及图像处理方法
KR102170105B1 (ko) 신경 네트워크 구조의 생성 방법 및 장치, 전자 기기, 저장 매체
CN110533183B (zh) 流水线分布式深度学习中异构网络感知的任务放置方法
CN113361680B (zh) 一种神经网络架构搜索方法、装置、设备及介质
CN112418482B (zh) 一种基于时间序列聚类的云计算能耗预测方法
CN113095512A (zh) 联邦学习建模优化方法、设备、介质及计算机程序产品
CN109784474A (zh) 一种深度学习模型压缩方法、装置、存储介质及终端设备
CN110309904B (zh) 一种神经网络压缩方法
CN116681104B (zh) 分布式空间图神经网络的模型建立及实现方法
CN113962362A (zh) 强化学习模型训练方法、决策方法、装置、设备及介质
Mesquita et al. Embarrassingly parallel MCMC using deep invertible transformations
CN111950611A (zh) 基于随机梯度追踪技术的大数据二分类分布式优化方法
CN110263917B (zh) 一种神经网络压缩方法及装置
CN115660116A (zh) 基于稀疏适配器的联邦学习方法及系统
Liu et al. Distributed inexact newton-type pursuit for non-convex sparse learning
Barger et al. k-means for streaming and distributed big sparse data
Xu et al. Optimal gradient quantization condition for communication-efficient distributed training
CN115913995A (zh) 一种基于卡尔曼滤波修正的云服务动态QoS预测方法
CN113378900B (zh) 一种基于聚类的大规模不规则kpi时间序列的异常检测方法
WO2021244203A1 (zh) 参数优化的方法、电子设备和存储介质
CN112667394B (zh) 一种计算机资源利用率优化方法
CN115168326A (zh) Hadoop大数据平台分布式能源数据清洗方法及系统
KR20190129422A (ko) 뉴럴 네트워크를 이용한 변분 추론 방법 및 장치
CN114298319A (zh) 联合学习贡献值的确定方法、装置、电子设备及存储介质
US20240111607A1 (en) Similarity-based quantization selection for federated learning with heterogeneous edge devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant