CN111222532A - 具有分类精度保持和带宽保护的边云协同深度学习模型训练方法 - Google Patents

具有分类精度保持和带宽保护的边云协同深度学习模型训练方法 Download PDF

Info

Publication number
CN111222532A
CN111222532A CN201911012549.1A CN201911012549A CN111222532A CN 111222532 A CN111222532 A CN 111222532A CN 201911012549 A CN201911012549 A CN 201911012549A CN 111222532 A CN111222532 A CN 111222532A
Authority
CN
China
Prior art keywords
encoder
edge
data
self
cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911012549.1A
Other languages
English (en)
Other versions
CN111222532B (zh
Inventor
董元睿
杨树森
赵聪
赵鹏
张靖琪
赵方圆
王路辉
韩青
王艺蒙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN201911012549.1A priority Critical patent/CN111222532B/zh
Publication of CN111222532A publication Critical patent/CN111222532A/zh
Application granted granted Critical
Publication of CN111222532B publication Critical patent/CN111222532B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明公开了一种具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,解决了边云协同分类模型训练出现的网络带宽消耗和分类精度问题。我们实现了利用压缩自编码器打造的高分类有效性图像压缩方案,增加图片压缩与图片分类目标组件间的耦合关系。通过两阶段的处理,第一阶段,使用简单分类器模型反向传播梯度优化自编码器,一定程度上控制有损压缩的损失目标,第二阶段,压缩结果上云,利用强大的计算资源进行高精度分类模型的训练。同时通过边缘上压缩自编码器的控制压缩率参数,对系统的边云通信带宽消耗和云端分类精度进行权衡,在有效的保证了数据分类特性留存的同时,实现了一套完善的边云协同训练方案。

Description

具有分类精度保持和带宽保护的边云协同深度学习模型训练 方法
技术领域
本发明属于人工智能领域,具体涉及一种具有分类精度保持和带宽保护的边云协同深度学习模型训练方法。
背景技术
不断增长的边缘计算范式已经成为将深度学习应用于更广泛的实践领域的最有前景的方法之一,并且在在网络带宽节省、延迟减少和隐私保护方面显示出巨大的优势。传统集中式云计算常用于训练高精度深学习模型,例如深层神经网络,然而,数据上云造成的带宽压力造成云上难以汇聚到全局的数据。使用分布式边缘计算范式,边缘服务器从附近的终端节点获取图像、视频等原始数据,在没有大规模原始数据上传的情况下进行本地学习,以减少边缘和云端之间的带宽消耗,然而,在真实场景中边缘节点有着资源的限制,训练高精度的模型是难以实现的。基于边缘服务器上的本地学习和云上的协作是必要的,同时我们需要实现在带宽消耗和模型精度之间进行权衡的方案。对于边缘云协作式深度学习,在保证模型准确性的同时降低带宽消耗,一种直观的方法是在将原始数据上传到云之前压缩边缘服务器上的数据。通常,数据压缩可以是无损的,也可以是有损的。无损压缩方法完全地保留了数据信息,但在减小数据大小方面能力有限,无法缓解协同学习带来的带宽压力。有损压缩方法以丢失数据细节为代价,可以显著的地减小数据大小,但会对此类压缩数据训练的模型的准确性产生影响。开发一种数据压缩方法是至关重要的,数据压缩后上传云端可以有效减少边云带宽压力,同时有选择地保留有价值的细节,以便进行准确的模型训练。
发明内容
本发明的目的在于克服上述现有技术的缺点,提供了一种具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,该方法实现了一种对分类目标具有高可用性的压缩方法,和边云协同训练的方案,并且提供了控制压缩率的方法,可以在同一个深度学习压缩自编码器中实现不同的压缩率,切换压缩率是只有极小的fine-tune成本。
为达到上述目的,本发明采用如下技术方案来实现的:
具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,包括两个阶段。阶段一在边缘端训练简单的模型处理数据,并将数据上传云端。阶段二,在云端上训练具有高分类精度的模型,权衡网络情况与模型精度,对边缘的压缩率进行调整。具体包括以下步骤:
阶段一:
1)利用边缘节点上汇聚的终端数据,使用一个量化压缩自编码器和一个分类器,将分类器接在自编码器之后使分类器的梯度可以反向传播到自编码器,来指导自编码器的训练,使分类器与自编码器在同一学习率下进行训练,并设定模型常规超参数;
2)压缩自编码器加入量化操作,设定一个控制压缩率的掩码m;训练过程中利用分类器对自编码器进行指导,设定一个控制分类器指导能力的衰减率α,在边缘端上进行模型训练,得到一个针对分类目标的压缩自编码器;
3)在边缘上的压缩自编码器模型训练完成后,使用得到的压缩自编码器,将当前边缘上有的全部数据,经由训练出的编码器部分压缩成量化后的比特向量;
4)将自编码器的解码器模型结构、参数与量化压缩后的边缘数据及标签,经过边云间的通信网络,由边缘端上传到云端,在云端进行存储,为第二阶段进行准备;
阶段二:
5)云端汇聚边缘端的数据并将其保存后,统一进行读取,并用各自边缘上传数据所携带的解码器进行解码,尽可能的还原数据原貌,同时也还原了数据原本的结构;
6)以解码后的数据作为输入数据,同时使用边缘上传的相应数据标签,选用一个大规模、高精度、资源需求大的主流深度学习分类器,给这一复杂分类器模型设定相应超参数后,利用云上强大的计算资源训练具有更高精度的分类器,训练至模型收敛,测试精度;
7)评估边缘和云之间的带宽情况和分类模型精度需求,参照上一步得到的测试精度,对精度和带宽进行权衡,来调整边缘压缩自编码器的压缩率。
本发明的进一步改进在于,提出分类驱动压缩(CDC)的方法,使用分类目标去指导压缩过程,将自编码器(A)和分类器(C)联合训练,输入t条数据
Figure BDA0002244629480000031
标签
Figure BDA0002244629480000032
hC(x)为分类器的输出结果,hA(x)为自编码器的输出结果,考虑分类器的损失函数LC、自编码器的损失函数LA,得到联合训练的损失函数LF为:
Figure BDA0002244629480000033
Figure BDA0002244629480000034
LF=LA(hA(x),x)+LC(hC(hA(x)),y)
本发明的进一步改进在于,为了控制分类器给自编码器影响的程度,加入衰减率来控制训练中的指导过程,衰减率α的条件下,得到的联合训练的损失函数LF
Figure BDA0002244629480000035
本发明的进一步改进在于,在梯度反向传播过程中,联合损失函数只对自编码器产生作用,而分类器只受到自身梯度带来的损失函数作用,自编码器(AE)和分类器(EC)的实际用于优化自身参数权重的梯度不同:
Figure BDA0002244629480000036
Figure BDA0002244629480000037
本发明的进一步改进在于,带宽调整通过控制量化压缩过程中的掩码值实现,量化过程加在编码器之后,云上的解码器解码前也会经过反量化处理。掩码值为m,且有m∈{0,1,2,3,4},针对编码器最后tanh激活函数的M维输出,量化过程使用随机量化方法,使用随机变量ε∈(-0.5,0.5),对数据的每一维x,量化Q与反量化Q′的过程,及量化操作Q(x)和反量化操作Q′(x)计算过程分别为:
Q:(-1,1)M→[-24-m+1,...,-1,0,1,...,24-m]M
Q′:[-24-m+1,...,-1,0,1,...,24-m]M→(-1,1)M
Figure BDA0002244629480000041
Q′(x)=(x-0.5)/24-m.
边缘节点根据云端的反馈选择适用于当前环境的掩码值m,伴随着m越大,对数据的压缩量越大,带宽节省越多,云端模型的精度越低。
本发明具有如下有益的技术效果:
本发明提供的一种具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,给了边云协同模型训练问题提供了一种高可用性的解决方案。在边缘节点上,使用少量的计算资源完成数据针对分类任务的高可用性压缩,压缩算法提供压缩率的调整方法,并且做到在同一深度学习模型中调整压缩率只需极小的计算资源代价。在云端,利用边缘压缩的数据训练高精度的分类模型,同时通过评估网络情况来进行精度和带宽消耗的折中,选择合适的压缩率。该方法在利用分类指导实现针对分类目标的数据压缩前提下,同时实现模型精度和带宽消耗的折中,给解决边云协同深度学习模型训练问题提供了可靠的方案。
附图说明
图1为边云协同训练过程整体框架及流程示意图;
图2为边缘端深度学习模型结构图;
图3为自编码器分类器连接关系图
图4为压缩图像视觉结果对照图
图5为衰减率作用效果图(左:LSUN数据集下;右:ImageNet子集下)
图6为调整压缩率模型微调过程(左:压缩率逐步下降;右:衰减率逐步提高)
具体实施方式
下面结合附图对本发明作进一步详细描述。
参考图1,考虑数据直接上云带来的带宽负荷难以被网络消化,且在边缘设备上,无法汇聚全局的数据,且无法提供大量的计算资源来支撑高精度模型的训练。提出具有分类精度保持和带宽保护的边云协同深度学习模型训练方法。包括两个阶段,阶段一,在边缘端训练简单的模型处理数据,并将数据上传云端。阶段二,在云端上训练具有高分类精度的模型,权衡网络情况与模型精度,对边缘的压缩率进行调整。具体包括以下步骤:
阶段一:
1)利用边缘节点上汇聚的终端数据,在这里使用大规模场景理解(large-scalescene understanding,LSUN)数据集和ImageNet数据集的数据,进行大规模场景感知分类任务和物体分类任务的测试,使用一个量化压缩自编码器和一个分类器,将分类器接在自编码器之后使分类器的梯度可以反向传播到自编码器,来指导自编码器的训练,使分类器与自编码器在同一学习率下进行训练,并设定模型常规超参数,如学习率等;
2)压缩自编码器加入量化操作,设定一个控制压缩率的掩码m;训练过程中利用分类器对自编码器进行指导,设定一个控制分类器指导能力的衰减率α,在边缘端上进行模型训练,得到一个针对分类目标的压缩自编码器,在实现过程中,衰减率作用于分类器的输入层上,这一层同时也是自编码器中解码器的输出层;
3)在边缘上的压缩自编码器模型训练完成后,将当前边缘上有的全部数据,即用于训练模型的LSUN和ImageNet数据集数据,经由训练出的编码器部分压缩成量化后的比特向量;
4)将自编码器的解码器模型结构、参数与量化压缩后的边缘数据及标签,由边缘端上传到云端;
阶段二:
5)云端汇聚边缘端的数据,用边缘上传数据携带的解码器解码,解码边缘上传的数据,还原出LSUN数据集和ImageNet数据集的数据,同时还原数据原本的结构;
6)以解码后的数据作为输入数据,同时使用边缘上传的相应数据标签,给主流复杂分类器模型设定相应超参数后,利用云上强大的计算资源训练具有更高精度的分类器;
7)评估边缘和云之间的带宽情况和分类模型精度需求,对精度和带宽进行权衡,通过控制掩码值m,来调整边缘压缩自编码器的压缩率。
参考图2,本发明设计了边缘上的深度学习模型结构,重点在于编码器和解码器之间有量化器的插入,量化过程加在编码器之后,云上的解码器解码前也会经过反量化处理。量化器实现时,设置掩码值为m,且有m∈{0,1,2,3,4},边缘节点根据云端的反馈选择适用于当前环境的掩码值m,伴随着m越大,对数据的压缩量越大,带宽节省越多,云端模型的精度越低。针对编码器最后tanh激活函数的M维输出,量化过程使用随机量化方法,使用随机变量ε∈(-0.5,0.5),对数据的每一维x,量化Q与反量化Q′的计算分别为:
Q:(-1,1)M→[-24-m+1,...,-1,0,1,...,24-m]M
Q′:[-24-m+1,...,-1,0,1,...,24-m]M→(-1,1)M
Figure BDA0002244629480000061
Q′(x)=(x-0.5)/24-m.
参考图3,利用由分类器指导的压缩自编码器(利用分类结果对压缩自编码器进行微调,使其压缩时更多舍弃与分类无关的信息特征,保留分类关键特征),进行与分类任务强耦合的图像压缩。训练过程如下图所示,将数据输入压缩自编码器进行压缩和还原,还原出的图像同时输入到图像优化器和简单分类器中,将两者反向传播的梯度结合进行自编码器的优化。输入t条数据
Figure BDA0002244629480000062
标签
Figure BDA0002244629480000063
hC(x)为分类器的输出结果,hA(x)为自编码器的输出结果,高分类有效性压缩自编码器(AE)和简单分类器(EC)的实际用于优化自身参数权重的梯度δ计算为:
Figure BDA0002244629480000071
Figure BDA0002244629480000072
参考图4,我们使用大规模场景理解(large-scale scene understanding,LSUN)数据集进行完整的边缘端压缩。对比相同压缩率下,原始图片、分类驱动的压缩(CDC)图片、JPEG压缩图片、相同网络结构但无分类指导的压缩自编码器(Autoencoder)得到的图片结果,可以看到CDC的压缩结果在视觉上,能明显区提升图自编码器模糊掉的图像细节质量,针对分类目标有效的提升了图像压缩后的质量,且没有传统JPEG的噪点。
参考图5,我们使用大规模场景理解(LSUN)数据集,和ImageNet数据集中选出的10类子集进行完整的边云协同过程,得到不同衰减率下云端模型的精确度。相同压缩率下,加入指导的压缩自编码器在不同衰减率α下的得到的云端模型精度表现出了随着α先升,后降至不加入指导的水平的趋势,从结果的角度验证了分类器的指导对于后续云端模型在分类工作精度上的作用。
参考图6,我们使用大规模场景理解(LSUN)数据集,在模型收敛后进行压缩率的切换,模型不会出现崩溃的情况,而是会在当前基础上快速收敛,此类压缩率的改变方案,相较传统的改变压缩率需要改变整个网络模型方法,在边缘设备这种计算资源不丰富的场景中有着很高的实用价值。

Claims (8)

1.具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,用于分类模型训练的数据先在边缘节点中进行针对分类目标的压缩,再上传到云端进行高精度的分类模型训练,包括以下七个步骤:
阶段一:
1)利用边缘节点上汇聚的终端数据,使用深度学习中的自编码器及分类器模型,设计网络结构并设定模型常规超参数;
2)压缩自编码器加入量化操作,设定一个控制压缩率的掩码m;训练过程中利用分类器对自编码器进行指导,设定一个控制分类器指导能力的衰减率α,得到一个针对分类目标的压缩自编码器;
3)使用得到的压缩自编码器压缩处理已有数据,将其转化为量化后的比特向量;
4)将压缩后的数据、数据标签及解码器上传云端;
阶段二:
5)在云端利用边缘上传的解码器,解码边缘上传的数据;
6)使用得到的数据,给主流复杂分类器模型设定相应超参数后,在云上训练高精度的分类模型;
7)评估边缘和云之间的带宽情况和分类模型精度需求,对精度和带宽进行权衡,来调整边缘压缩自编码器的压缩率。
2.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤1)的具体操作为:使用一个量化压缩自编码器和一个分类器,将分类器接在自编码器之后使分类器的梯度可以反向传播到自编码器,来指导自编码器的训练,使分类器与自编码器在同一学习率下进行训练。
3.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤2)的具体操作为:将自编码器(A)和分类器(C)联合训练,输入t条数据
Figure FDA0002244629470000021
标签
Figure FDA0002244629470000022
hC(x)为分类器的输出结果,hA(x)为自编码器的输出结果,考虑分类器的损失函数LC
Figure FDA0002244629470000023
自编码器的损失函数LA
Figure FDA0002244629470000024
联合训练在同一学习率下进行,且使用衰减率α控制分类器对自编码器的影响,联合训练的损失函数LF为:
Figure FDA0002244629470000025
在梯度反向传播过程中,联合损失函数只对自编码器产生作用,而分类器只受到自身梯度带来的损失函数作用,自编码器(AE)和分类器(EC)的实际用于优化自身参数权重的梯度不同:
Figure FDA0002244629470000026
Figure FDA0002244629470000027
在实现过程中,衰减率作用于分类器的输入层上,它同时也是自编码器中解码器的输出层。
4.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤3)的具体操作为:在边缘上的压缩自编码器模型训练完成后,将当前边缘上有的全部数据,经由训练出的编码器部分压缩成量化后的比特向量。
5.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤4)的具体操作为:将自编码器的解码器模型结构、参数与量化压缩后的边缘数据及标签,由边缘端上传到云端。
6.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤5)的具体操作为:云端汇聚边缘端的数据,用边缘上传数据携带的解码器解码,还原数据原本的结构。
7.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤6)的具体操作为:以解码后的数据作为输入数据,同时使用边缘上传的相应数据标签,利用云上强大的计算资源训练具有更高精度的分类器。
8.根据权利要求1所述的具有分类精度保持和带宽保护的边云协同深度学习模型训练方法,其特征在于,步骤7)的具体操作为:带宽调整通过控制量化压缩过程中的掩码值实现,量化过程加在编码器之后,云上的解码器解码前也会经过反量化处理,掩码值为m,且有m∈{0,1,2,3,4},针对编码器最后tanh激活函数的M维输出,量化Q与反量化Q′的操作实现:
Q:(-1,1)M→[-24-m+1,...,-1,0,1,...,24-m]M
Q′:[-24-m+1,...,-1,0,1,...,24-m]M→(-1,1)M
量化过程使用随机量化方法,使用随机变量ε∈(-0.5,0.5),对数据的每一维x,量化与反量化的计算分别为:
Figure FDA0002244629470000031
Q′(x)=(x-0.5)/24-m.
边缘节点根据云端的反馈选择适用于当前环境的掩码值m,伴随着m越大,对数据的压缩量越大,带宽节省越多,云端模型的精度越低。
CN201911012549.1A 2019-10-23 2019-10-23 具有分类精度保持和带宽保护的边云协同深度学习模型训练方法 Active CN111222532B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911012549.1A CN111222532B (zh) 2019-10-23 2019-10-23 具有分类精度保持和带宽保护的边云协同深度学习模型训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911012549.1A CN111222532B (zh) 2019-10-23 2019-10-23 具有分类精度保持和带宽保护的边云协同深度学习模型训练方法

Publications (2)

Publication Number Publication Date
CN111222532A true CN111222532A (zh) 2020-06-02
CN111222532B CN111222532B (zh) 2024-04-02

Family

ID=70827545

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911012549.1A Active CN111222532B (zh) 2019-10-23 2019-10-23 具有分类精度保持和带宽保护的边云协同深度学习模型训练方法

Country Status (1)

Country Link
CN (1) CN111222532B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110968426A (zh) * 2019-11-29 2020-04-07 西安交通大学 一种基于在线学习的边云协同k均值聚类的模型优化方法
CN111736999A (zh) * 2020-06-19 2020-10-02 复旦大学 一种降低通信成本的神经网络端云协同训练系统
CN112115830A (zh) * 2020-09-10 2020-12-22 同济大学 一种基于比特域特征提取的目标分布式融合识别方法
CN112527849A (zh) * 2020-12-23 2021-03-19 珠海星客合创科技有限公司 一种基于云-边混合物联网系统的智能数据标注方法
CN113067873A (zh) * 2021-03-19 2021-07-02 北京邮电大学 基于深度强化学习的边云协同优化方法
US20220060235A1 (en) * 2020-08-18 2022-02-24 Qualcomm Incorporated Federated learning for client-specific neural network parameter generation for wireless communication

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108174218A (zh) * 2018-01-23 2018-06-15 中国科学技术大学 基于学习的视频编解码框架
US20180338017A1 (en) * 2017-05-17 2018-11-22 CodeShop, B.V. System and Method for Aggregation, Archiving and Compression of Internet Of Things wireless Sensor Data
CN109495476A (zh) * 2018-11-19 2019-03-19 中南大学 一种基于边缘计算的数据流差分隐私保护方法及系统
CN109714421A (zh) * 2018-12-28 2019-05-03 国汽(北京)智能网联汽车研究院有限公司 基于车路协同的智能网联汽车运行系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180338017A1 (en) * 2017-05-17 2018-11-22 CodeShop, B.V. System and Method for Aggregation, Archiving and Compression of Internet Of Things wireless Sensor Data
CN108174218A (zh) * 2018-01-23 2018-06-15 中国科学技术大学 基于学习的视频编解码框架
CN109495476A (zh) * 2018-11-19 2019-03-19 中南大学 一种基于边缘计算的数据流差分隐私保护方法及系统
CN109714421A (zh) * 2018-12-28 2019-05-03 国汽(北京)智能网联汽车研究院有限公司 基于车路协同的智能网联汽车运行系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YUTAO HUANG等,: "Task Scheduling with Optimized Transmission Time in Collaborative Cloud-Edge Learning", 《2018 27TH INTERNATIONAL CONFERENCE ON COMPUTER COMMUNICATION AND NETWORKS (ICCCN)》 *
黄嘉伟,: "基于边缘降噪自动编码器的深度协同推荐方法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110968426A (zh) * 2019-11-29 2020-04-07 西安交通大学 一种基于在线学习的边云协同k均值聚类的模型优化方法
CN110968426B (zh) * 2019-11-29 2022-02-22 西安交通大学 一种基于在线学习的边云协同k均值聚类的模型优化方法
CN111736999A (zh) * 2020-06-19 2020-10-02 复旦大学 一种降低通信成本的神经网络端云协同训练系统
US20220060235A1 (en) * 2020-08-18 2022-02-24 Qualcomm Incorporated Federated learning for client-specific neural network parameter generation for wireless communication
US11909482B2 (en) * 2020-08-18 2024-02-20 Qualcomm Incorporated Federated learning for client-specific neural network parameter generation for wireless communication
CN112115830A (zh) * 2020-09-10 2020-12-22 同济大学 一种基于比特域特征提取的目标分布式融合识别方法
CN112115830B (zh) * 2020-09-10 2023-06-02 同济大学 一种基于比特域特征提取的目标分布式融合识别方法
CN112527849A (zh) * 2020-12-23 2021-03-19 珠海星客合创科技有限公司 一种基于云-边混合物联网系统的智能数据标注方法
CN113067873A (zh) * 2021-03-19 2021-07-02 北京邮电大学 基于深度强化学习的边云协同优化方法
CN113067873B (zh) * 2021-03-19 2022-08-30 北京邮电大学 基于深度强化学习的边云协同优化方法

Also Published As

Publication number Publication date
CN111222532B (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
CN111222532A (zh) 具有分类精度保持和带宽保护的边云协同深度学习模型训练方法
Tschannen et al. Deep generative models for distribution-preserving lossy compression
WO2018223822A1 (zh) 基于剪枝和蒸馏的卷积神经网络压缩方法
JP2019512938A (ja) 量子化パラメータに基づくビデオ処理のためのシステム及び方法
WO2019001095A1 (zh) 一种视频编码方法、解码方法、装置及电子设备
Dong et al. Semantic communication system based on semantic slice models propagation
US10863206B2 (en) Content-weighted deep residual learning for video in-loop filtering
US20220256140A1 (en) Video encoding method and apparatus, computer device, and storage medium
US11477460B2 (en) Image processing apparatus, learning appratus, image processing method, learning method and program
CN110753225A (zh) 一种视频压缩方法、装置及终端设备
CN109495744A (zh) 基于联合生成对抗网络的大倍率遥感影像压缩方法
CN110795235B (zh) 一种移动web深度学习协作的方法及系统
CN106937112A (zh) 基于h.264视频压缩标准的码率控制方法
CN113313777A (zh) 一种图像压缩处理方法、装置、计算机设备和存储介质
CN113595993A (zh) 边缘计算下模型结构优化的车载感知设备联合学习方法
WO2022246986A1 (zh) 数据处理方法、装置、设备及计算机可读存储介质
US20240080495A1 (en) Iteratively updating a filtering model
CN112399177B (zh) 一种视频编码方法、装置、计算机设备及存储介质
US20230319292A1 (en) Reinforcement learning based rate control
CN117034008A (zh) 高效联邦大模型调节方法、系统及相关设备
CN115567712A (zh) 基于人眼恰可察觉失真的屏幕内容视频编码感知码率控制方法及装置
CN115690238A (zh) 图像生成及模型训练方法、装置、设备和存储介质
Mahmoud et al. Learning algorithm effect on multilayer feed forward artificial neural network performance in image coding
Theis et al. Importance weighted compression
CN113610731A (zh) 用于生成画质提升模型的方法、装置及计算机程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant