CN111222532A - 具有分类精度保持和带宽保护的边云协同深度学习模型训练方法 - Google Patents
具有分类精度保持和带宽保护的边云协同深度学习模型训练方法 Download PDFInfo
- Publication number
- CN111222532A CN111222532A CN201911012549.1A CN201911012549A CN111222532A CN 111222532 A CN111222532 A CN 111222532A CN 201911012549 A CN201911012549 A CN 201911012549A CN 111222532 A CN111222532 A CN 111222532A
- Authority
- CN
- China
- Prior art keywords
- encoder
- edge
- data
- self
- cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000012549 training Methods 0.000 title claims abstract description 48
- 238000013136 deep learning model Methods 0.000 title claims abstract description 21
- 238000012423 maintenance Methods 0.000 title claims abstract description 9
- 238000007906 compression Methods 0.000 claims abstract description 60
- 230000006835 compression Effects 0.000 claims abstract description 57
- 238000013145 classification model Methods 0.000 claims abstract description 9
- 238000013139 quantization Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 14
- 238000013135 deep learning Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims description 2
- 238000004321 preservation Methods 0.000 claims 7
- 238000004891 communication Methods 0.000 abstract description 2
- 230000008878 coupling Effects 0.000 abstract 1
- 238000010168 coupling process Methods 0.000 abstract 1
- 238000005859 coupling reaction Methods 0.000 abstract 1
- 230000014759 maintenance of location Effects 0.000 abstract 1
- 238000005457 optimization Methods 0.000 abstract 1
- 238000012545 processing Methods 0.000 abstract 1
- 230000001902 propagating effect Effects 0.000 abstract 1
- 238000013144 data compression Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本发明公开了一种具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,解决了边云协同分类模型训练出现的网络带宽消耗和分类精度问题。我们实现了利用压缩自编码器打造的高分类有效性图像压缩方案,增加图片压缩与图片分类目标组件间的耦合关系。通过两阶段的处理,第一阶段,使用简单分类器模型反向传播梯度优化自编码器,一定程度上控制有损压缩的损失目标,第二阶段,压缩结果上云,利用强大的计算资源进行高精度分类模型的训练。同时通过边缘上压缩自编码器的控制压缩率参数,对系统的边云通信带宽消耗和云端分类精度进行权衡,在有效的保证了数据分类特性留存的同时,实现了一套完善的边云协同训练方案。
Description
技术领域
本发明属于人工智能领域,具体涉及一种具有分类精度保持和带宽保护的边云协同深度学习模型训练方法。
背景技术
不断增长的边缘计算范式已经成为将深度学习应用于更广泛的实践领域的最有前景的方法之一,并且在在网络带宽节省、延迟减少和隐私保护方面显示出巨大的优势。传统集中式云计算常用于训练高精度深学习模型,例如深层神经网络,然而,数据上云造成的带宽压力造成云上难以汇聚到全局的数据。使用分布式边缘计算范式,边缘服务器从附近的终端节点获取图像、视频等原始数据,在没有大规模原始数据上传的情况下进行本地学习,以减少边缘和云端之间的带宽消耗,然而,在真实场景中边缘节点有着资源的限制,训练高精度的模型是难以实现的。基于边缘服务器上的本地学习和云上的协作是必要的,同时我们需要实现在带宽消耗和模型精度之间进行权衡的方案。对于边缘云协作式深度学习,在保证模型准确性的同时降低带宽消耗,一种直观的方法是在将原始数据上传到云之前压缩边缘服务器上的数据。通常,数据压缩可以是无损的,也可以是有损的。无损压缩方法完全地保留了数据信息,但在减小数据大小方面能力有限,无法缓解协同学习带来的带宽压力。有损压缩方法以丢失数据细节为代价,可以显著的地减小数据大小,但会对此类压缩数据训练的模型的准确性产生影响。开发一种数据压缩方法是至关重要的,数据压缩后上传云端可以有效减少边云带宽压力,同时有选择地保留有价值的细节,以便进行准确的模型训练。
发明内容
本发明的目的在于克服上述现有技术的缺点,提供了一种具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,该方法实现了一种对分类目标具有高可用性的压缩方法,和边云协同训练的方案,并且提供了控制压缩率的方法,可以在同一个深度学习压缩自编码器中实现不同的压缩率,切换压缩率是只有极小的fine-tune成本。
为达到上述目的,本发明采用如下技术方案来实现的:
具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,包括两个阶段。阶段一在边缘端训练简单的模型处理数据,并将数据上传云端。阶段二,在云端上训练具有高分类精度的模型,权衡网络情况与模型精度,对边缘的压缩率进行调整。具体包括以下步骤:
阶段一:
1)利用边缘节点上汇聚的终端数据,使用一个量化压缩自编码器和一个分类器,将分类器接在自编码器之后使分类器的梯度可以反向传播到自编码器,来指导自编码器的训练,使分类器与自编码器在同一学习率下进行训练,并设定模型常规超参数;
2)压缩自编码器加入量化操作,设定一个控制压缩率的掩码m;训练过程中利用分类器对自编码器进行指导,设定一个控制分类器指导能力的衰减率α,在边缘端上进行模型训练,得到一个针对分类目标的压缩自编码器;
3)在边缘上的压缩自编码器模型训练完成后,使用得到的压缩自编码器,将当前边缘上有的全部数据,经由训练出的编码器部分压缩成量化后的比特向量;
4)将自编码器的解码器模型结构、参数与量化压缩后的边缘数据及标签,经过边云间的通信网络,由边缘端上传到云端,在云端进行存储,为第二阶段进行准备;
阶段二:
5)云端汇聚边缘端的数据并将其保存后,统一进行读取,并用各自边缘上传数据所携带的解码器进行解码,尽可能的还原数据原貌,同时也还原了数据原本的结构;
6)以解码后的数据作为输入数据,同时使用边缘上传的相应数据标签,选用一个大规模、高精度、资源需求大的主流深度学习分类器,给这一复杂分类器模型设定相应超参数后,利用云上强大的计算资源训练具有更高精度的分类器,训练至模型收敛,测试精度;
7)评估边缘和云之间的带宽情况和分类模型精度需求,参照上一步得到的测试精度,对精度和带宽进行权衡,来调整边缘压缩自编码器的压缩率。
本发明的进一步改进在于,提出分类驱动压缩(CDC)的方法,使用分类目标去指导压缩过程,将自编码器(A)和分类器(C)联合训练,输入t条数据标签hC(x)为分类器的输出结果,hA(x)为自编码器的输出结果,考虑分类器的损失函数LC、自编码器的损失函数LA,得到联合训练的损失函数LF为:
LF=LA(hA(x),x)+LC(hC(hA(x)),y)
本发明的进一步改进在于,为了控制分类器给自编码器影响的程度,加入衰减率来控制训练中的指导过程,衰减率α的条件下,得到的联合训练的损失函数LF为
本发明的进一步改进在于,在梯度反向传播过程中,联合损失函数只对自编码器产生作用,而分类器只受到自身梯度带来的损失函数作用,自编码器(AE)和分类器(EC)的实际用于优化自身参数权重的梯度不同:
本发明的进一步改进在于,带宽调整通过控制量化压缩过程中的掩码值实现,量化过程加在编码器之后,云上的解码器解码前也会经过反量化处理。掩码值为m,且有m∈{0,1,2,3,4},针对编码器最后tanh激活函数的M维输出,量化过程使用随机量化方法,使用随机变量ε∈(-0.5,0.5),对数据的每一维x,量化Q与反量化Q′的过程,及量化操作Q(x)和反量化操作Q′(x)计算过程分别为:
Q:(-1,1)M→[-24-m+1,...,-1,0,1,...,24-m]M
Q′:[-24-m+1,...,-1,0,1,...,24-m]M→(-1,1)M
Q′(x)=(x-0.5)/24-m.
边缘节点根据云端的反馈选择适用于当前环境的掩码值m,伴随着m越大,对数据的压缩量越大,带宽节省越多,云端模型的精度越低。
本发明具有如下有益的技术效果:
本发明提供的一种具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,给了边云协同模型训练问题提供了一种高可用性的解决方案。在边缘节点上,使用少量的计算资源完成数据针对分类任务的高可用性压缩,压缩算法提供压缩率的调整方法,并且做到在同一深度学习模型中调整压缩率只需极小的计算资源代价。在云端,利用边缘压缩的数据训练高精度的分类模型,同时通过评估网络情况来进行精度和带宽消耗的折中,选择合适的压缩率。该方法在利用分类指导实现针对分类目标的数据压缩前提下,同时实现模型精度和带宽消耗的折中,给解决边云协同深度学习模型训练问题提供了可靠的方案。
附图说明
图1为边云协同训练过程整体框架及流程示意图;
图2为边缘端深度学习模型结构图;
图3为自编码器分类器连接关系图
图4为压缩图像视觉结果对照图
图5为衰减率作用效果图(左:LSUN数据集下;右:ImageNet子集下)
图6为调整压缩率模型微调过程(左:压缩率逐步下降;右:衰减率逐步提高)
具体实施方式
下面结合附图对本发明作进一步详细描述。
参考图1,考虑数据直接上云带来的带宽负荷难以被网络消化,且在边缘设备上,无法汇聚全局的数据,且无法提供大量的计算资源来支撑高精度模型的训练。提出具有分类精度保持和带宽保护的边云协同深度学习模型训练方法。包括两个阶段,阶段一,在边缘端训练简单的模型处理数据,并将数据上传云端。阶段二,在云端上训练具有高分类精度的模型,权衡网络情况与模型精度,对边缘的压缩率进行调整。具体包括以下步骤:
阶段一:
1)利用边缘节点上汇聚的终端数据,在这里使用大规模场景理解(large-scalescene understanding,LSUN)数据集和ImageNet数据集的数据,进行大规模场景感知分类任务和物体分类任务的测试,使用一个量化压缩自编码器和一个分类器,将分类器接在自编码器之后使分类器的梯度可以反向传播到自编码器,来指导自编码器的训练,使分类器与自编码器在同一学习率下进行训练,并设定模型常规超参数,如学习率等;
2)压缩自编码器加入量化操作,设定一个控制压缩率的掩码m;训练过程中利用分类器对自编码器进行指导,设定一个控制分类器指导能力的衰减率α,在边缘端上进行模型训练,得到一个针对分类目标的压缩自编码器,在实现过程中,衰减率作用于分类器的输入层上,这一层同时也是自编码器中解码器的输出层;
3)在边缘上的压缩自编码器模型训练完成后,将当前边缘上有的全部数据,即用于训练模型的LSUN和ImageNet数据集数据,经由训练出的编码器部分压缩成量化后的比特向量;
4)将自编码器的解码器模型结构、参数与量化压缩后的边缘数据及标签,由边缘端上传到云端;
阶段二:
5)云端汇聚边缘端的数据,用边缘上传数据携带的解码器解码,解码边缘上传的数据,还原出LSUN数据集和ImageNet数据集的数据,同时还原数据原本的结构;
6)以解码后的数据作为输入数据,同时使用边缘上传的相应数据标签,给主流复杂分类器模型设定相应超参数后,利用云上强大的计算资源训练具有更高精度的分类器;
7)评估边缘和云之间的带宽情况和分类模型精度需求,对精度和带宽进行权衡,通过控制掩码值m,来调整边缘压缩自编码器的压缩率。
参考图2,本发明设计了边缘上的深度学习模型结构,重点在于编码器和解码器之间有量化器的插入,量化过程加在编码器之后,云上的解码器解码前也会经过反量化处理。量化器实现时,设置掩码值为m,且有m∈{0,1,2,3,4},边缘节点根据云端的反馈选择适用于当前环境的掩码值m,伴随着m越大,对数据的压缩量越大,带宽节省越多,云端模型的精度越低。针对编码器最后tanh激活函数的M维输出,量化过程使用随机量化方法,使用随机变量ε∈(-0.5,0.5),对数据的每一维x,量化Q与反量化Q′的计算分别为:
Q:(-1,1)M→[-24-m+1,...,-1,0,1,...,24-m]M
Q′:[-24-m+1,...,-1,0,1,...,24-m]M→(-1,1)M
Q′(x)=(x-0.5)/24-m.
参考图3,利用由分类器指导的压缩自编码器(利用分类结果对压缩自编码器进行微调,使其压缩时更多舍弃与分类无关的信息特征,保留分类关键特征),进行与分类任务强耦合的图像压缩。训练过程如下图所示,将数据输入压缩自编码器进行压缩和还原,还原出的图像同时输入到图像优化器和简单分类器中,将两者反向传播的梯度结合进行自编码器的优化。输入t条数据标签hC(x)为分类器的输出结果,hA(x)为自编码器的输出结果,高分类有效性压缩自编码器(AE)和简单分类器(EC)的实际用于优化自身参数权重的梯度δ计算为:
参考图4,我们使用大规模场景理解(large-scale scene understanding,LSUN)数据集进行完整的边缘端压缩。对比相同压缩率下,原始图片、分类驱动的压缩(CDC)图片、JPEG压缩图片、相同网络结构但无分类指导的压缩自编码器(Autoencoder)得到的图片结果,可以看到CDC的压缩结果在视觉上,能明显区提升图自编码器模糊掉的图像细节质量,针对分类目标有效的提升了图像压缩后的质量,且没有传统JPEG的噪点。
参考图5,我们使用大规模场景理解(LSUN)数据集,和ImageNet数据集中选出的10类子集进行完整的边云协同过程,得到不同衰减率下云端模型的精确度。相同压缩率下,加入指导的压缩自编码器在不同衰减率α下的得到的云端模型精度表现出了随着α先升,后降至不加入指导的水平的趋势,从结果的角度验证了分类器的指导对于后续云端模型在分类工作精度上的作用。
参考图6,我们使用大规模场景理解(LSUN)数据集,在模型收敛后进行压缩率的切换,模型不会出现崩溃的情况,而是会在当前基础上快速收敛,此类压缩率的改变方案,相较传统的改变压缩率需要改变整个网络模型方法,在边缘设备这种计算资源不丰富的场景中有着很高的实用价值。
Claims (8)
1.具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,用于分类模型训练的数据先在边缘节点中进行针对分类目标的压缩,再上传到云端进行高精度的分类模型训练,包括以下七个步骤:
阶段一:
1)利用边缘节点上汇聚的终端数据,使用深度学习中的自编码器及分类器模型,设计网络结构并设定模型常规超参数;
2)压缩自编码器加入量化操作,设定一个控制压缩率的掩码m;训练过程中利用分类器对自编码器进行指导,设定一个控制分类器指导能力的衰减率α,得到一个针对分类目标的压缩自编码器;
3)使用得到的压缩自编码器压缩处理已有数据,将其转化为量化后的比特向量;
4)将压缩后的数据、数据标签及解码器上传云端;
阶段二:
5)在云端利用边缘上传的解码器,解码边缘上传的数据;
6)使用得到的数据,给主流复杂分类器模型设定相应超参数后,在云上训练高精度的分类模型;
7)评估边缘和云之间的带宽情况和分类模型精度需求,对精度和带宽进行权衡,来调整边缘压缩自编码器的压缩率。
2.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤1)的具体操作为:使用一个量化压缩自编码器和一个分类器,将分类器接在自编码器之后使分类器的梯度可以反向传播到自编码器,来指导自编码器的训练,使分类器与自编码器在同一学习率下进行训练。
3.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤2)的具体操作为:将自编码器(A)和分类器(C)联合训练,输入t条数据标签hC(x)为分类器的输出结果,hA(x)为自编码器的输出结果,考虑分类器的损失函数LC:
自编码器的损失函数LA:
联合训练在同一学习率下进行,且使用衰减率α控制分类器对自编码器的影响,联合训练的损失函数LF为:
在梯度反向传播过程中,联合损失函数只对自编码器产生作用,而分类器只受到自身梯度带来的损失函数作用,自编码器(AE)和分类器(EC)的实际用于优化自身参数权重的梯度不同:
在实现过程中,衰减率作用于分类器的输入层上,它同时也是自编码器中解码器的输出层。
4.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤3)的具体操作为:在边缘上的压缩自编码器模型训练完成后,将当前边缘上有的全部数据,经由训练出的编码器部分压缩成量化后的比特向量。
5.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤4)的具体操作为:将自编码器的解码器模型结构、参数与量化压缩后的边缘数据及标签,由边缘端上传到云端。
6.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤5)的具体操作为:云端汇聚边缘端的数据,用边缘上传数据携带的解码器解码,还原数据原本的结构。
7.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤6)的具体操作为:以解码后的数据作为输入数据,同时使用边缘上传的相应数据标签,利用云上强大的计算资源训练具有更高精度的分类器。
8.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤7)的具体操作为:带宽调整通过控制量化压缩过程中的掩码值实现,量化过程加在编码器之后,云上的解码器解码前也会经过反量化处理,掩码值为m,且有m∈{0,1,2,3,4},针对编码器最后tanh激活函数的M维输出,量化Q与反量化Q′的操作实现:
Q:(-1,1)M→[-24-m+1,...,-1,0,1,...,24-m]M
Q′:[-24-m+1,...,-1,0,1,...,24-m]M→(-1,1)M
量化过程使用随机量化方法,使用随机变量ε∈(-0.5,0.5),对数据的每一维x,量化与反量化的计算分别为:
Q′(x)=(x-0.5)/24-m.
边缘节点根据云端的反馈选择适用于当前环境的掩码值m,伴随着m越大,对数据的压缩量越大,带宽节省越多,云端模型的精度越低。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911012549.1A CN111222532B (zh) | 2019-10-23 | 2019-10-23 | 具有分类精度保持和带宽保护的边云协同深度学习模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911012549.1A CN111222532B (zh) | 2019-10-23 | 2019-10-23 | 具有分类精度保持和带宽保护的边云协同深度学习模型训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111222532A true CN111222532A (zh) | 2020-06-02 |
CN111222532B CN111222532B (zh) | 2024-04-02 |
Family
ID=70827545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911012549.1A Active CN111222532B (zh) | 2019-10-23 | 2019-10-23 | 具有分类精度保持和带宽保护的边云协同深度学习模型训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111222532B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110968426A (zh) * | 2019-11-29 | 2020-04-07 | 西安交通大学 | 一种基于在线学习的边云协同k均值聚类的模型优化方法 |
CN111736999A (zh) * | 2020-06-19 | 2020-10-02 | 复旦大学 | 一种降低通信成本的神经网络端云协同训练系统 |
CN112115830A (zh) * | 2020-09-10 | 2020-12-22 | 同济大学 | 一种基于比特域特征提取的目标分布式融合识别方法 |
CN112527849A (zh) * | 2020-12-23 | 2021-03-19 | 珠海星客合创科技有限公司 | 一种基于云-边混合物联网系统的智能数据标注方法 |
CN113067873A (zh) * | 2021-03-19 | 2021-07-02 | 北京邮电大学 | 基于深度强化学习的边云协同优化方法 |
US20220060235A1 (en) * | 2020-08-18 | 2022-02-24 | Qualcomm Incorporated | Federated learning for client-specific neural network parameter generation for wireless communication |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108174218A (zh) * | 2018-01-23 | 2018-06-15 | 中国科学技术大学 | 基于学习的视频编解码框架 |
US20180338017A1 (en) * | 2017-05-17 | 2018-11-22 | CodeShop, B.V. | System and Method for Aggregation, Archiving and Compression of Internet Of Things wireless Sensor Data |
CN109495476A (zh) * | 2018-11-19 | 2019-03-19 | 中南大学 | 一种基于边缘计算的数据流差分隐私保护方法及系统 |
CN109714421A (zh) * | 2018-12-28 | 2019-05-03 | 国汽(北京)智能网联汽车研究院有限公司 | 基于车路协同的智能网联汽车运行系统 |
-
2019
- 2019-10-23 CN CN201911012549.1A patent/CN111222532B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180338017A1 (en) * | 2017-05-17 | 2018-11-22 | CodeShop, B.V. | System and Method for Aggregation, Archiving and Compression of Internet Of Things wireless Sensor Data |
CN108174218A (zh) * | 2018-01-23 | 2018-06-15 | 中国科学技术大学 | 基于学习的视频编解码框架 |
CN109495476A (zh) * | 2018-11-19 | 2019-03-19 | 中南大学 | 一种基于边缘计算的数据流差分隐私保护方法及系统 |
CN109714421A (zh) * | 2018-12-28 | 2019-05-03 | 国汽(北京)智能网联汽车研究院有限公司 | 基于车路协同的智能网联汽车运行系统 |
Non-Patent Citations (2)
Title |
---|
YUTAO HUANG等,: "Task Scheduling with Optimized Transmission Time in Collaborative Cloud-Edge Learning", 《2018 27TH INTERNATIONAL CONFERENCE ON COMPUTER COMMUNICATION AND NETWORKS (ICCCN)》 * |
黄嘉伟,: "基于边缘降噪自动编码器的深度协同推荐方法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110968426A (zh) * | 2019-11-29 | 2020-04-07 | 西安交通大学 | 一种基于在线学习的边云协同k均值聚类的模型优化方法 |
CN110968426B (zh) * | 2019-11-29 | 2022-02-22 | 西安交通大学 | 一种基于在线学习的边云协同k均值聚类的模型优化方法 |
CN111736999A (zh) * | 2020-06-19 | 2020-10-02 | 复旦大学 | 一种降低通信成本的神经网络端云协同训练系统 |
US20220060235A1 (en) * | 2020-08-18 | 2022-02-24 | Qualcomm Incorporated | Federated learning for client-specific neural network parameter generation for wireless communication |
US11909482B2 (en) * | 2020-08-18 | 2024-02-20 | Qualcomm Incorporated | Federated learning for client-specific neural network parameter generation for wireless communication |
CN112115830A (zh) * | 2020-09-10 | 2020-12-22 | 同济大学 | 一种基于比特域特征提取的目标分布式融合识别方法 |
CN112115830B (zh) * | 2020-09-10 | 2023-06-02 | 同济大学 | 一种基于比特域特征提取的目标分布式融合识别方法 |
CN112527849A (zh) * | 2020-12-23 | 2021-03-19 | 珠海星客合创科技有限公司 | 一种基于云-边混合物联网系统的智能数据标注方法 |
CN113067873A (zh) * | 2021-03-19 | 2021-07-02 | 北京邮电大学 | 基于深度强化学习的边云协同优化方法 |
CN113067873B (zh) * | 2021-03-19 | 2022-08-30 | 北京邮电大学 | 基于深度强化学习的边云协同优化方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111222532B (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111222532A (zh) | 具有分类精度保持和带宽保护的边云协同深度学习模型训练方法 | |
Tschannen et al. | Deep generative models for distribution-preserving lossy compression | |
WO2018223822A1 (zh) | 基于剪枝和蒸馏的卷积神经网络压缩方法 | |
JP2019512938A (ja) | 量子化パラメータに基づくビデオ処理のためのシステム及び方法 | |
WO2019001095A1 (zh) | 一种视频编码方法、解码方法、装置及电子设备 | |
Dong et al. | Semantic communication system based on semantic slice models propagation | |
US10863206B2 (en) | Content-weighted deep residual learning for video in-loop filtering | |
US20220256140A1 (en) | Video encoding method and apparatus, computer device, and storage medium | |
US11477460B2 (en) | Image processing apparatus, learning appratus, image processing method, learning method and program | |
CN110753225A (zh) | 一种视频压缩方法、装置及终端设备 | |
CN109495744A (zh) | 基于联合生成对抗网络的大倍率遥感影像压缩方法 | |
CN110795235B (zh) | 一种移动web深度学习协作的方法及系统 | |
CN106937112A (zh) | 基于h.264视频压缩标准的码率控制方法 | |
CN113313777A (zh) | 一种图像压缩处理方法、装置、计算机设备和存储介质 | |
CN113595993A (zh) | 边缘计算下模型结构优化的车载感知设备联合学习方法 | |
WO2022246986A1 (zh) | 数据处理方法、装置、设备及计算机可读存储介质 | |
US20240080495A1 (en) | Iteratively updating a filtering model | |
CN112399177B (zh) | 一种视频编码方法、装置、计算机设备及存储介质 | |
US20230319292A1 (en) | Reinforcement learning based rate control | |
CN117034008A (zh) | 高效联邦大模型调节方法、系统及相关设备 | |
CN115567712A (zh) | 基于人眼恰可察觉失真的屏幕内容视频编码感知码率控制方法及装置 | |
CN115690238A (zh) | 图像生成及模型训练方法、装置、设备和存储介质 | |
Mahmoud et al. | Learning algorithm effect on multilayer feed forward artificial neural network performance in image coding | |
Theis et al. | Importance weighted compression | |
CN113610731A (zh) | 用于生成画质提升模型的方法、装置及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |