CN108334934B - 基于剪枝和蒸馏的卷积神经网络压缩方法 - Google Patents

基于剪枝和蒸馏的卷积神经网络压缩方法 Download PDF

Info

Publication number
CN108334934B
CN108334934B CN201710421225.8A CN201710421225A CN108334934B CN 108334934 B CN108334934 B CN 108334934B CN 201710421225 A CN201710421225 A CN 201710421225A CN 108334934 B CN108334934 B CN 108334934B
Authority
CN
China
Prior art keywords
model
network
convolutional neural
pruning
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710421225.8A
Other languages
English (en)
Other versions
CN108334934A (zh
Inventor
江帆
单羿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xilinx Inc
Original Assignee
Xilinx Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xilinx Inc filed Critical Xilinx Inc
Priority to CN201710421225.8A priority Critical patent/CN108334934B/zh
Priority to PCT/CN2018/087063 priority patent/WO2018223822A1/zh
Publication of CN108334934A publication Critical patent/CN108334934A/zh
Application granted granted Critical
Publication of CN108334934B publication Critical patent/CN108334934B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)

Abstract

本公开提供一种基于剪枝和蒸馏的卷积神经网络压缩方法(400),包括:对原始卷积神经网络模型进行剪枝操作,得到剪枝后的模型(S401);对剪枝后的模型进行参数微调(S403);利用原始卷积神经网络模型作为蒸馏算法的老师网络,将经过参数微调的剪枝后的模型作为蒸馏算法的学生网络,根据蒸馏算法,通过老师网络来指导学生网络进行训练(S405);将经过蒸馏算法训练的学生网络作为压缩后的卷积神经网络模型(S407)。本公开的方法通过将两个传统的网络压缩方法联合使用,更有效地压缩了卷积神经网络模型。

Description

基于剪枝和蒸馏的卷积神经网络压缩方法
技术领域
本发明涉及卷积神经网络,更具体涉及基于剪枝和蒸馏的卷积神经网络压缩方法。
背景技术
卷积神经网络(Convolutional Neural Network,CNN)目前被广泛地应用在计算机视觉的各个领域,如图像识别、物体检测、图像分割等等,是计算机视觉和多媒体领域的研究热点和关键技术,具有重要的研究意义和实用价值。卷积神经网络是深度学习技术中具有代表性的网络结构之一,在图像处理领域取得了很大的成功,在国际标准的ImageNet数据集上,许多成功的模型都是基于卷积神经网络。相较于传统的图像处理算法,卷积神经网络避免了对图像复杂的前期预处理过程(提取人工特征等),可以直接输入原始的图像,是一种端到端的模型。
卷积神经网络虽然取得了较好的效果,但由于卷积神经网络模型的参数量较大,运算次数较多,目前卷积神经网络的运算一般采用GPU进行加速,卷积神经网络的应用也多在云端,在终端落地面临巨大的挑战。
为了减少网络模型的冗余,科研人员提出对模型进行剪枝的压缩。例如,参见S.Han,J.Pool,J.Tran,W.J.DalIy(2015)Learning both Weights and Connections forEfficient Neural Network.In Advances in Neural Information ProcessingSystems,其公开的全部内容通过援引加入进来。另外,也可以参见和S.Han,H.Mao,W.J.Dally(2016)Deep compression:Compressing deep neural network with pruning,trained quantization and huffman coding.In International Conference onLearning Representations,其公开的全部内容通过援引加入进来。在剪枝中,通过一定的准则,保留比较重要的连接或元素,并将其余的连接或者元素删除,得到压缩的网络。然后,对压缩后的网络进行参数微调。图1是对卷积神经网络进行剪枝的示意图。该剪枝方法能够有效地减小模型的参数和运算量,但由于删除了原始模型中的部分元素和模块,压缩后模型的准确率也有一定程度的损失。
另一类模型压缩方法被称为蒸馏算法。例如,参见G.Hinton,O.Vinyals,J.Dean(2015)Distilling the knowledge in a neural network.arXiv preprint arXiv:1503.02531,其公开的全部内容通过援引加入进来。在蒸馏算法中,将复杂模型的“知识”提炼或者蒸馏到小模型,指导小模型的训练,从而也实现了对大模型的压缩。该类方法能够提升小模型的性能,减小大模型的运算量,但蒸馏后的小模型的性能往往不够理想。
考虑到针对卷积神经网络应用的现状,希望提出一种新型的卷积神经网络压缩方法。
发明内容
本发明提出了一种基于剪枝和蒸馏的卷积神经网络压缩方法,该方法在有效压缩模型的同时能达到较好的模型精度。对网络模型进行剪枝后,模型精度往往会有所降低,我们首先对该模型进行参数微调来恢复模型的精度。进一步地,我们采用蒸馏的方法将原始模型中的知识提炼到压缩模型中,提升压缩模型的性能。在蒸馏中,原始的模型作为大模型,剪枝后的模型作为小模型。训练时,我们使小网络的输出去拟合大网络的输出,从而达到蒸馏的目的。相对于剪枝方法和蒸馏方法,本发明将两个传统的网络压缩方法联合使用,更有效地压缩卷积神经网络模型。
具体地说,根据本发明,提供了卷积神经网络压缩方法,包括:对原始卷积神经网络模型进行剪枝操作,得到剪枝后的模型;对剪枝后的模型进行参数微调;利用原始卷积神经网络模型作为蒸馏算法的老师网络,将经过参数微调的剪枝后的模型作为蒸馏算法的学生网络,根据蒸馏算法,通过老师网络来指导学生网络进行训练;将经过蒸馏算法训练的学生网络作为压缩后的卷积神经网络模型。
优选地,所述的剪枝操作可以包括:保留原始卷积神经网络模型中重要的连接或模块,删除其余的连接或模块。
在根据本发明的方法中,优选地,基于剪枝准则来确定保留或删除哪些连接或模块。
优选地,所述剪枝准则可以是网络模型的元素的绝对值的大小,所述绝对值大于阈值的元素得以保留,所述绝对值小于阈值的元素被设置为0。
优选地,所述剪枝准则可以是网络模型的卷积核中的元素绝对值之和的大小,所述绝对值之和大于阈值的卷积核得以保留,所述绝对值之和小于阈值的卷积核被删除。
优选地,所述的根据蒸馏算法,通过老师网络来指导学生网络进行训练可以包括:通过用学生网络的输出去拟合老师网络的输出,对学生网络的参数进行调整。
附图说明
下面参考附图结合实施例说明本发明。在附图中:
图1是对卷积神经网络进行剪枝的示意图。
图2是对卷积神经网络进行蒸馏算法的示意图。
图3是根据本发明实施例的压缩方法的示意图。
图4是根据本发明实施例的卷积神经网络压缩方法的流程图。
具体实施方式
附图仅用于示例说明,不能理解为对本专利的限制;下面结合附图和实施例对本发明的技术方案做进一步的说明。
为了对卷积神经网络模型进行压缩,我们首先对网络进行剪枝操作。图1是对卷积神经网络进行剪枝的示意图。
在剪枝时,我们设定一个剪枝准则,对模型的每一层的参数,满足剪枝准则的元素或者模块被删除掉。剪枝的目的是保留比较重要的连接或者元素。
在对网络的元素剪枝时,剪枝准则一般是元素的绝对值的大小。绝对值大的元素被保留,绝对值小的元素被置为0。另一种剪枝方法是对网络的卷积核进行剪枝,将卷积核中的元素绝对值之和较大的卷积核保留,将其他的卷积核删除。
前一种剪枝方法可以有效减小运算量以及模型的尺寸,后一种剪枝方法可以压缩模型尺寸,在特定硬件上可以加速运算。
通过剪枝,我们得到了一个压缩后的小模型。由于原始模型的部分模块被删除,此时小模型的精度较差。我们对剪枝后的小模型进行参数微调。通常在参数微调后,模型的性能会得到较大的改善,但一般会低于原始网络模型的性能。在此基础上,我们通过蒸馏技术,进一步提升压缩模型的性能。
蒸馏是一种将大网络中的“知识”提炼到小网络中的技术。图2是对卷积神经网络进行蒸馏算法的示意图。蒸馏算法中有两个网络,即老师网络和学生网络。老师网络为大网络模型,学生网络为小的网络模型,老师网络指导学生网络的训练。训练的目标是使学生网络的输出逼近教师网络的输出。由于老师网络的输出相对于图片的标签包含更多的信息,因此蒸馏技术相对于传统的网络训练方法能够更好地训练网络。在蒸馏时,我们利用完整的网络作为教师网络,剪枝后的网络作为学生模型。训练的损失函数为教师网络全连接层的输出与学生网络全连接层的输出的交叉熵损失或者二范数损失。蒸馏的收敛往往比从头训练要快很多。
以上的过程可用图3来表示。图3是根据本发明实施例的压缩方法的示意图。
如图3中所示,首先,对卷积神经网络模型(原始模型)进行剪枝操作,保留比较重要的连接或者模块,删除其余的连接或者模块,得到剪枝后的模型。剪枝后的模型尺寸得到压缩,但是性能较差。
接下来,对剪枝后的模型进行参数微调,提升剪枝模型的性能,得到微调后的剪枝模型。微调后的剪枝模型性能有了较大的提升,但还是会略低于完整的模型。
然后,利用原始的卷积神经网络作为蒸馏算法的老师网络,将上一步骤中得到的微调后的剪枝模型作为蒸馏中的学生模型,通过原始网络模型指导剪枝网络模型训练,对参数进行调整,进一步提升剪枝模型的性能。
最后,蒸馏训练后的学生模型即为最终的压缩模型。
为清楚起见,申请人绘制了该方法的流程图。图4是根据本发明实施例的卷积神经网络压缩方法的流程图。
如图4中所示,根据本发明的卷积神经网络压缩方法400开始于步骤S401,在此步骤,对原始卷积神经网络模型进行剪枝操作,得到剪枝后的模型。
根据本发明的优选实施例,步骤S401所述的剪枝操作可以包括:保留原始卷积神经网络模型中重要的连接或模块,删除其余的连接或模块。更具体地说,基于剪枝准则来确定保留或删除哪些连接或模块。
根据本发明的一个优选实施例,所述剪枝准则可以是网络模型的元素的绝对值的大小,所述绝对值大于阈值的元素得以保留,所述绝对值小于阈值的元素被设置为0。
根据本发明的另一优选实施例,所述剪枝准则可以是网络模型的卷积核中的元素绝对值之和的大小,所述绝对值之和大于阈值的卷积核得以保留,所述绝对值之和小于阈值的卷积核被删除。
接下来,在步骤S403,对剪枝后的模型进行参数微调。
然后,在步骤S405,利用原始卷积神经网络模型作为蒸馏算法的老师网络,将经过参数微调的剪枝后的模型作为蒸馏算法的学生网络,根据蒸馏算法,通过老师网络来指导学生网络进行训练。通过用学生网络的输出去拟合老师网络的输出,对学生网络的参数进行调整。
在步骤S407,将经过蒸馏算法训练的学生网络作为压缩后的卷积神经网络模型。然后,方法400结束。
综上所述,本发明提出了一种基于剪枝和蒸馏的神经网络模型的压缩方法。该方法中,首先利用剪枝压缩网络模型,然后利用蒸馏算法来对压缩模型的参数进行调整,提升压缩模型的性能。本发明将两种传统的剪枝方法联合使用,压缩后的模型性能可以与原始模型的性能相当。
本领域普通技术人员通过以上的详细描述应该理解,本发明并非剪枝法与蒸馏法的简单组合。一方面,传统的剪枝法得到的模型精度往往有所降低,需要通过额外的手段来提升精度;另一方面,蒸馏算法中,通过使用剪枝后模型作为小网络,去拟合大网络的输出,蒸馏的收敛往往比从头训练要快得多。也就是说,通过本发明这样将剪枝法和蒸馏法的联合使用,不仅通过剪枝法大大压缩了网络模型的规模,提高了蒸馏算法的收敛速度,而且使得压缩后的网络模型的性能可以与原始模型的性能相当,从而充分达到了本领域技术人员压缩卷积神经网络的目标,更有利于在实践中应用。
上面已经描述了本发明的各种实施例和实施情形。但是,本发明的精神和范围不限于此。本领域技术人员将能够根据本发明的教导而做出更多的应用,而这些应用都在本发明的范围之内。
也就是说,本发明的上述实施例仅仅是为清楚说明本发明所做的举例,而非对本发明实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其他不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、替换或改进等,均应包含在本发明权利要求的保护范围之内。

Claims (5)

1.一种在图像处理中对卷积神经网络进行压缩的方法,包括:
对原始卷积神经网络模型进行剪枝操作,得到剪枝后的模型;
基于图像处理结果的准确率对剪枝后的模型进行参数微调,以通过提升精度来改善模型性能;
利用原始卷积神经网络模型作为蒸馏算法的老师网络,将经过参数微调的剪枝后的模型作为蒸馏算法的学生网络,根据蒸馏算法,通过用学生网络输出的图像处理结果去拟合老师网络输出的图像处理结果,对学生网络的参数进行调整,由此通过老师网络来指导学生网络进行训练以进一步改善模型性能,其中,老师网络输出的图像处理结果相对于图片的标签包含更多的信息;
将经过蒸馏算法训练的学生网络作为压缩后的卷积神经网络模型,使得压缩后的卷积神经网络模型性能得到恢复。
2.根据权利要求1所述的方法,其中,所述的剪枝操作包括:保留原始卷积神经网络模型中重要的连接或模块,删除其余的连接或模块。
3.根据权利要求2所述的方法,其中,基于剪枝准则来确定保留或删除哪些连接或模块。
4.根据权利要求3所述的方法,其中,所述剪枝准则是网络模型的元素的绝对值的大小,所述绝对值大于阈值的元素得以保留,所述绝对值小于阈值的元素被设置为0。
5.根据权利要求3所述的方法,其中,所述剪枝准则是网络模型中每一个卷积核的元素绝对值之和的大小,所述绝对值之和大于阈值的卷积核得以保留,所述绝对值之和小于阈值的卷积核被删除。
CN201710421225.8A 2017-06-07 2017-06-07 基于剪枝和蒸馏的卷积神经网络压缩方法 Active CN108334934B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710421225.8A CN108334934B (zh) 2017-06-07 2017-06-07 基于剪枝和蒸馏的卷积神经网络压缩方法
PCT/CN2018/087063 WO2018223822A1 (zh) 2017-06-07 2018-05-16 基于剪枝和蒸馏的卷积神经网络压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710421225.8A CN108334934B (zh) 2017-06-07 2017-06-07 基于剪枝和蒸馏的卷积神经网络压缩方法

Publications (2)

Publication Number Publication Date
CN108334934A CN108334934A (zh) 2018-07-27
CN108334934B true CN108334934B (zh) 2021-04-13

Family

ID=62923049

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710421225.8A Active CN108334934B (zh) 2017-06-07 2017-06-07 基于剪枝和蒸馏的卷积神经网络压缩方法

Country Status (2)

Country Link
CN (1) CN108334934B (zh)
WO (1) WO2018223822A1 (zh)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087303B (zh) * 2018-08-15 2022-04-01 中山大学 基于迁移学习提升语义分割模型效果的框架
CN109190521B (zh) * 2018-08-17 2022-03-04 北京亮亮视野科技有限公司 一种基于知识提纯的人脸识别模型的构建方法及应用
CN110929839B (zh) * 2018-09-20 2024-04-16 深圳市商汤科技有限公司 训练神经网络的方法和装置、电子设备和计算机存储介质
CN110929836B (zh) * 2018-09-20 2023-10-31 北京市商汤科技开发有限公司 神经网络训练及图像处理方法和装置、电子设备、介质
CN109409500B (zh) * 2018-09-21 2024-01-12 清华大学 基于知识蒸馏与非参数卷积的模型加速方法及装置
CN110163236B (zh) * 2018-10-15 2023-08-29 腾讯科技(深圳)有限公司 模型的训练方法和装置、存储介质、电子装置
CN109472360B (zh) 2018-10-30 2020-09-04 北京地平线机器人技术研发有限公司 神经网络的更新方法、更新装置和电子设备
CN109522949B (zh) * 2018-11-07 2021-01-26 北京交通大学 目标识别模型建立方法及装置
CN111178115B (zh) * 2018-11-12 2024-01-12 北京深醒科技有限公司 对象识别网络的训练方法及系统
CN109598340A (zh) * 2018-11-15 2019-04-09 北京知道创宇信息技术有限公司 卷积神经网络的裁剪方法、装置及存储介质
CN109816636B (zh) * 2018-12-28 2020-11-27 汕头大学 一种基于智能终端的裂缝检测方法
CN110070183B (zh) * 2019-03-11 2021-08-20 中国科学院信息工程研究所 一种弱标注数据的神经网络模型训练方法及装置
CN111695375B (zh) * 2019-03-13 2021-04-20 上海云从企业发展有限公司 基于模型蒸馏的人脸识别模型压缩方法、介质及终端
WO2020198520A1 (en) 2019-03-27 2020-10-01 Cognizant Technology Solutions U.S. Corporation Process and system including an optimization engine with evolutionary surrogate-assisted prescriptions
CN110097084B (zh) * 2019-04-03 2021-08-31 浙江大学 通过投射特征训练多任务学生网络的知识融合方法
CN110059740A (zh) * 2019-04-12 2019-07-26 杭州电子科技大学 一种针对嵌入式移动端的深度学习语义分割模型压缩方法
CN110119811B (zh) * 2019-05-15 2021-07-27 电科瑞达(成都)科技有限公司 一种基于熵重要性准则模型的卷积核裁剪方法
CN110097177B (zh) * 2019-05-15 2022-11-29 电科瑞达(成都)科技有限公司 一种基于伪孪生网络的网络剪枝方法
EP3748545A1 (en) 2019-06-07 2020-12-09 Tata Consultancy Services Limited Sparsity constraints and knowledge distillation based learning of sparser and compressed neural networks
US20230119593A1 (en) * 2019-06-21 2023-04-20 One Connect Smart Technology Co., Ltd. Method and apparatus for training facial feature extraction model, method and apparatus for extracting facial features, device, and storage medium
CN110348572B (zh) * 2019-07-09 2022-09-30 上海商汤智能科技有限公司 神经网络模型的处理方法及装置、电子设备、存储介质
CN110555417A (zh) * 2019-09-06 2019-12-10 福建中科亚创动漫科技股份有限公司 一种基于深度学习的视频图像识别系统及方法
WO2021068180A1 (en) * 2019-10-11 2021-04-15 Beijing Didi Infinity Technology And Development Co., Ltd. Method and system for continual meta-learning
CN110826344B (zh) 2019-10-24 2022-03-01 北京小米智能科技有限公司 神经网络模型压缩方法、语料翻译方法及其装置
CN111312271B (zh) * 2020-02-28 2023-03-21 云知声智能科技股份有限公司 一种提高收敛速度和处理性能的模型压缩方法和系统
CN111429415B (zh) * 2020-03-18 2020-12-08 东华大学 基于网络协同剪枝的产品表面缺陷高效检测模型构建方法
CN111695483B (zh) * 2020-06-05 2022-04-08 腾讯科技(深圳)有限公司 一种车辆违章检测方法、装置、设备及计算机存储介质
US11775841B2 (en) 2020-06-15 2023-10-03 Cognizant Technology Solutions U.S. Corporation Process and system including explainable prescriptions through surrogate-assisted evolution
CN111553169B (zh) * 2020-06-25 2023-08-25 北京百度网讯科技有限公司 语义理解模型的剪枝方法、装置、电子设备和存储介质
CN112070233B (zh) * 2020-08-25 2024-03-22 北京百度网讯科技有限公司 模型联合训练方法、装置、电子设备和存储介质
CN112215353B (zh) * 2020-09-29 2023-09-01 电子科技大学 一种基于变分结构优化网络的通道剪枝方法
CN112487899B (zh) * 2020-11-19 2023-04-07 武汉高德飞行器科技有限公司 基于无人机的目标识别方法、系统、存储介质及电子设备
WO2022198606A1 (zh) * 2021-03-26 2022-09-29 深圳市大疆创新科技有限公司 深度学习模型的获取方法、系统、装置及存储介质
CN113487028B (zh) * 2021-07-09 2024-05-24 平安科技(深圳)有限公司 知识蒸馏方法、装置、终端设备及介质
CN113837308B (zh) * 2021-09-29 2022-08-05 北京百度网讯科技有限公司 基于知识蒸馏的模型训练方法、装置、电子设备
CN114881227B (zh) * 2022-05-13 2023-07-04 北京百度网讯科技有限公司 模型压缩方法、图像处理方法、装置和电子设备
CN115496207B (zh) * 2022-11-08 2023-09-26 荣耀终端有限公司 神经网络模型压缩方法、装置和系统
CN117011617B (zh) * 2023-10-07 2024-03-22 之江实验室 基于二阶段教师-学生框架的肺结节检测装置及构建方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090299929A1 (en) * 2008-05-30 2009-12-03 Robert Kozma Methods of improved learning in simultaneous recurrent neural networks
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US20160189026A1 (en) * 2014-12-26 2016-06-30 Universidad De Santiago De Chile Running Time Prediction Algorithm for WAND Queries
KR102492318B1 (ko) * 2015-09-18 2023-01-26 삼성전자주식회사 모델 학습 방법 및 장치, 및 데이터 인식 방법
CN105894847B (zh) * 2016-06-27 2019-01-18 华南理工大学 一种云平台环境下无监督学习的实时公交动态调度系统及方法
CN106355248A (zh) * 2016-08-26 2017-01-25 深圳先进技术研究院 一种深度卷积神经网络训练方法及装置
CN111860826A (zh) * 2016-11-17 2020-10-30 北京图森智途科技有限公司 一种低计算能力处理设备的图像数据处理方法及装置
CN106779068A (zh) * 2016-12-05 2017-05-31 北京深鉴智能科技有限公司 调整人工神经网络的方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Going Deeper with Embedded FPGA Platform for Convolutional Neural Network;Jiantao Qiu 等;《PROCEEDINGS OF THE 2016 ACM/SIGDA INTERNATIONAL SYMPOSIUM ON FIELD-PROGRAMMABLE GATE ARRAYS (FPGA"16)》;20160221;第26-35页 *

Also Published As

Publication number Publication date
CN108334934A (zh) 2018-07-27
WO2018223822A1 (zh) 2018-12-13

Similar Documents

Publication Publication Date Title
CN108334934B (zh) 基于剪枝和蒸馏的卷积神经网络压缩方法
US11657264B2 (en) Content-specific neural network distribution
CN111164601A (zh) 情感识别方法、智能装置和计算机可读存储介质
WO2018150083A1 (en) A method and technical equipment for video processing
KR20220130630A (ko) 이미지 처리 방법, 안면 인식 모델 훈련 방법, 장치 및 기기
CN111797707B (zh) 一种基于聚类的镜头关键帧提取方法
CN112770061A (zh) 视频剪辑方法、系统、电子设备及存储介质
CN114022882A (zh) 文本识别模型训练、文本识别方法、装置、设备及介质
WO2023050720A1 (zh) 图像处理方法、图像处理装置、模型训练方法
CN113111889A (zh) 用于边缘计算端的目标检测网络处理方法
CN115953645A (zh) 模型训练方法、装置、电子设备及存储介质
CN111768466A (zh) 图像填充方法、装置、设备及存储介质
CN114973229A (zh) 文本识别模型训练、文本识别方法、装置、设备及介质
CN115082306A (zh) 一种基于蓝图可分离残差网络的图像超分辨率方法
CN115690238A (zh) 图像生成及模型训练方法、装置、设备和存储介质
CN110730347A (zh) 图像压缩方法、装置及电子设备
CN115941966A (zh) 一种视频压缩方法及电子设备
CN113593587B (zh) 语音分离方法及装置、存储介质、电子装置
CN113240780B (zh) 生成动画的方法和装置
CN110958417B (zh) 一种基于语音线索的视频通话类视频去除压缩噪声的方法
CN113610731A (zh) 用于生成画质提升模型的方法、装置及计算机程序产品
CN112669861A (zh) 音频数据处理方法、装置、设备和存储介质
CN113592074A (zh) 一种训练方法、生成方法及装置、电子设备
CN112533024A (zh) 一种人脸视频处理方法、装置及存储介质
CN112069877A (zh) 一种基于边缘信息和注意力机制的人脸信息识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20190927

Address after: 2100 San Jose Rojack Avenue, California, USA

Applicant after: XILINX INC

Address before: 100083, 17 floor, 4 Building 4, 1 Wang Zhuang Road, Haidian District, Beijing.

Applicant before: Beijing Shenjian Intelligent Technology Co., Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant