CN108334934A - 基于剪枝和蒸馏的卷积神经网络压缩方法 - Google Patents
基于剪枝和蒸馏的卷积神经网络压缩方法 Download PDFInfo
- Publication number
- CN108334934A CN108334934A CN201710421225.8A CN201710421225A CN108334934A CN 108334934 A CN108334934 A CN 108334934A CN 201710421225 A CN201710421225 A CN 201710421225A CN 108334934 A CN108334934 A CN 108334934A
- Authority
- CN
- China
- Prior art keywords
- network
- model
- beta pruning
- distillation
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Feedback Control In General (AREA)
Abstract
本公开提供一种基于剪枝和蒸馏的卷积神经网络压缩方法(400),包括:对原始卷积神经网络模型进行剪枝操作,得到剪枝后的模型(S401);对剪枝后的模型进行参数微调(S403);利用原始卷积神经网络模型作为蒸馏算法的老师网络,将经过参数微调的剪枝后的模型作为蒸馏算法的学生网络,根据蒸馏算法,通过老师网络来指导学生网络进行训练(S405);将经过蒸馏算法训练的学生网络作为压缩后的卷积神经网络模型(S407)。本公开的方法通过将两个传统的网络压缩方法联合使用,更有效地压缩了卷积神经网络模型。
Description
技术领域
本发明涉及卷积神经网络,更具体涉及基于剪枝和蒸馏的卷积神经网络压缩方法。
背景技术
卷积神经网络(Convolutional Neural Network,CNN)目前被广泛地应用在计算机视觉的各个领域,如图像识别、物体检测、图像分割等等,是计算机视觉和多媒体领域的研究热点和关键技术,具有重要的研究意义和实用价值。卷积神经网络是深度学习技术中具有代表性的网络结构之一,在图像处理领域取得了很大的成功,在国际标准的ImageNet数据集上,许多成功的模型都是基于卷积神经网络。相较于传统的图像处理算法,卷积神经网络避免了对图像复杂的前期预处理过程(提取人工特征等),可以直接输入原始的图像,是一种端到端的模型。
卷积神经网络虽然取得了较好的效果,但由于卷积神经网络模型的参数量较大,运算次数较多,目前卷积神经网络的运算一般采用GPU进行加速,卷积神经网络的应用也多在云端,在终端落地面临巨大的挑战。
为了减少网络模型的冗余,科研人员提出对模型进行剪枝的压缩。例如,参见S.Han,J.Pool,J.Tran,W.J.DalIy(2015)Learning both Weights and Connections forEfficient Neural Network.In Advances in Neural Information ProcessingSystems,其公开的全部内容通过援引加入进来。另外,也可以参见和S.Han,H.Mao,W.J.Dally(2016)Deep compression:Compressing deep neural network with pruning,trained quantization and huffman coding.In International Conference onLearning Representations,其公开的全部内容通过援引加入进来。在剪枝中,通过一定的准则,保留比较重要的连接或元素,并将其余的连接或者元素删除,得到压缩的网络。然后,对压缩后的网络进行参数微调。图1是对卷积神经网络进行剪枝的示意图。该剪枝方法能够有效地减小模型的参数和运算量,但由于删除了原始模型中的部分元素和模块,压缩后模型的准确率也有一定程度的损失。
另一类模型压缩方法被称为蒸馏算法。例如,参见G.Hinton,O.Vinyals,J.Dean(2015)Distilling the knowledge in a neural network.arXiv preprint arXiv:1503.02531,其公开的全部内容通过援引加入进来。在蒸馏算法中,将复杂模型的“知识”提炼或者蒸馏到小模型,指导小模型的训练,从而也实现了对大模型的压缩。该类方法能够提升小模型的性能,减小大模型的运算量,但蒸馏后的小模型的性能往往不够理想。
考虑到针对卷积神经网络应用的现状,希望提出一种新型的卷积神经网络压缩方法。
发明内容
本发明提出了一种基于剪枝和蒸馏的卷积神经网络压缩方法,该方法在有效压缩模型的同时能达到较好的模型精度。对网络模型进行剪枝后,模型精度往往会有所降低,我们首先对该模型进行参数微调来恢复模型的精度。进一步地,我们采用蒸馏的方法将原始模型中的知识提炼到压缩模型中,提升压缩模型的性能。在蒸馏中,原始的模型作为大模型,剪枝后的模型作为小模型。训练时,我们使小网络的输出去拟合大网络的输出,从而达到蒸馏的目的。相对于剪枝方法和蒸馏方法,本发明将两个传统的网络压缩方法联合使用,更有效地压缩卷积神经网络模型。
具体地说,根据本发明,提供了卷积神经网络压缩方法,包括:对原始卷积神经网络模型进行剪枝操作,得到剪枝后的模型;对剪枝后的模型进行参数微调;利用原始卷积神经网络模型作为蒸馏算法的老师网络,将经过参数微调的剪枝后的模型作为蒸馏算法的学生网络,根据蒸馏算法,通过老师网络来指导学生网络进行训练;将经过蒸馏算法训练的学生网络作为压缩后的卷积神经网络模型。
优选地,所述的剪枝操作可以包括:保留原始卷积神经网络模型中重要的连接或模块,删除其余的连接或模块。
在根据本发明的方法中,优选地,基于剪枝准则来确定保留或删除哪些连接或模块。
优选地,所述剪枝准则可以是网络模型的元素的绝对值的大小,所述绝对值大于阈值的元素得以保留,所述绝对值小于阈值的元素被设置为0。
优选地,所述剪枝准则可以是网络模型的卷积核中的元素绝对值之和的大小,所述绝对值之和大于阈值的卷积核得以保留,所述绝对值之和小于阈值的卷积核被删除。
优选地,所述的根据蒸馏算法,通过老师网络来指导学生网络进行训练可以包括:通过用学生网络的输出去拟合老师网络的输出,对学生网络的参数进行调整。
附图说明
下面参考附图结合实施例说明本发明。在附图中:
图1是对卷积神经网络进行剪枝的示意图。
图2是对卷积神经网络进行蒸馏算法的示意图。
图3是根据本发明实施例的压缩方法的示意图。
图4是根据本发明实施例的卷积神经网络压缩方法的流程图。
具体实施方式
附图仅用于示例说明,不能理解为对本专利的限制;下面结合附图和实施例对本发明的技术方案做进一步的说明。
为了对卷积神经网络模型进行压缩,我们首先对网络进行剪枝操作。图1是对卷积神经网络进行剪枝的示意图。
在剪枝时,我们设定一个剪枝准则,对模型的每一层的参数,满足剪枝准则的元素或者模块被删除掉。剪枝的目的是保留比较重要的连接或者元素。
在对网络的元素剪枝时,剪枝准则一般是元素的绝对值的大小。绝对值大的元素被保留,绝对值小的元素被置为0。另一种剪枝方法是对网络的卷积核进行剪枝,将卷积核中的元素绝对值之和较大的卷积核保留,将其他的卷积核删除。
前一种剪枝方法可以有效减小运算量以及模型的尺寸,后一种剪枝方法可以压缩模型尺寸,在特定硬件上可以加速运算。
通过剪枝,我们得到了一个压缩后的小模型。由于原始模型的部分模块被删除,此时小模型的精度较差。我们对剪枝后的小模型进行参数微调。通常在参数微调后,模型的性能会得到较大的改善,但一般会低于原始网络模型的性能。在此基础上,我们通过蒸馏技术,进一步提升压缩模型的性能。
蒸馏是一种将大网络中的“知识”提炼到小网络中的技术。图2是对卷积神经网络进行蒸馏算法的示意图。蒸馏算法中有两个网络,即老师网络和学生网络。老师网络为大网络模型,学生网络为小的网络模型,老师网络指导学生网络的训练。训练的目标是使学生网络的输出逼近教师网络的输出。由于老师网络的输出相对于图片的标签包含更多的信息,因此蒸馏技术相对于传统的网络训练方法能够更好地训练网络。在蒸馏时,我们利用完整的网络作为教师网络,剪枝后的网络作为学生模型。训练的损失函数为教师网络全连接层的输出与学生网络全连接层的输出的交叉熵损失或者二范数损失。蒸馏的收敛往往比从头训练要快很多。
以上的过程可用图3来表示。图3是根据本发明实施例的压缩方法的示意图。
如图3中所示,首先,对卷积神经网络模型(原始模型)进行剪枝操作,保留比较重要的连接或者模块,删除其余的连接或者模块,得到剪枝后的模型。剪枝后的模型尺寸得到压缩,但是性能较差。
接下来,对剪枝后的模型进行参数微调,提升剪枝模型的性能,得到微调后的剪枝模型。微调后的剪枝模型性能有了较大的提升,但还是会略低于完整的模型。
然后,利用原始的卷积神经网络作为蒸馏算法的老师网络,将上一步骤中得到的微调后的剪枝模型作为蒸馏中的学生模型,通过原始网络模型指导剪枝网络模型训练,对参数进行调整,进一步提升剪枝模型的性能。
最后,蒸馏训练后的学生模型即为最终的压缩模型。
为清楚起见,申请人绘制了该方法的流程图。图4是根据本发明实施例的卷积神经网络压缩方法的流程图。
如图4中所示,根据本发明的卷积神经网络压缩方法400开始于步骤S401,在此步骤,对原始卷积神经网络模型进行剪枝操作,得到剪枝后的模型。
根据本发明的优选实施例,步骤S401所述的剪枝操作可以包括:保留原始卷积神经网络模型中重要的连接或模块,删除其余的连接或模块。更具体地说,基于剪枝准则来确定保留或删除哪些连接或模块。
根据本发明的一个优选实施例,所述剪枝准则可以是网络模型的元素的绝对值的大小,所述绝对值大于阈值的元素得以保留,所述绝对值小于阈值的元素被设置为0。
根据本发明的另一优选实施例,所述剪枝准则可以是网络模型的卷积核中的元素绝对值之和的大小,所述绝对值之和大于阈值的卷积核得以保留,所述绝对值之和小于阈值的卷积核被删除。
接下来,在步骤S403,对剪枝后的模型进行参数微调。
然后,在步骤S405,利用原始卷积神经网络模型作为蒸馏算法的老师网络,将经过参数微调的剪枝后的模型作为蒸馏算法的学生网络,根据蒸馏算法,通过老师网络来指导学生网络进行训练。通过用学生网络的输出去拟合老师网络的输出,对学生网络的参数进行调整。
在步骤S407,将经过蒸馏算法训练的学生网络作为压缩后的卷积神经网络模型。然后,方法400结束。
综上所述,本发明提出了一种基于剪枝和蒸馏的神经网络模型的压缩方法。该方法中,首先利用剪枝压缩网络模型,然后利用蒸馏算法来对压缩模型的参数进行调整,提升压缩模型的性能。本发明将两种传统的剪枝方法联合使用,压缩后的模型性能可以与原始模型的性能相当。
本领域普通技术人员通过以上的详细描述应该理解,本发明并非剪枝法与蒸馏法的简单组合。一方面,传统的剪枝法得到的模型精度往往有所降低,需要通过额外的手段来提升精度;另一方面,蒸馏算法中,通过使用剪枝后模型作为小网络,去拟合大网络的输出,蒸馏的收敛往往比从头训练要快得多。也就是说,通过本发明这样将剪枝法和蒸馏法的联合使用,不仅通过剪枝法大大压缩了网络模型的规模,提高了蒸馏算法的收敛速度,而且使得压缩后的网络模型的性能可以与原始模型的性能相当,从而充分达到了本领域技术人员压缩卷积神经网络的目标,更有利于在实践中应用。
上面已经描述了本发明的各种实施例和实施情形。但是,本发明的精神和范围不限于此。本领域技术人员将能够根据本发明的教导而做出更多的应用,而这些应用都在本发明的范围之内。
也就是说,本发明的上述实施例仅仅是为清楚说明本发明所做的举例,而非对本发明实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其他不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、替换或改进等,均应包含在本发明权利要求的保护范围之内。
Claims (6)
1.一种卷积神经网络压缩方法,包括:
对原始卷积神经网络模型进行剪枝操作,得到剪枝后的模型;
对剪枝后的模型进行参数微调;
利用原始卷积神经网络模型作为蒸馏算法的老师网络,将经过参数微调的剪枝后的模型作为蒸馏算法的学生网络,根据蒸馏算法,通过老师网络来指导学生网络进行训练;
将经过蒸馏算法训练的学生网络作为压缩后的卷积神经网络模型。
2.根据权利要求1所述的方法,其中,所述的剪枝操作包括:保留原始卷积神经网络模型中重要的连接或模块,删除其余的连接或模块。
3.根据权利要求2所述的方法,其中,基于剪枝准则来确定保留或删除哪些连接或模块。
4.根据权利要求3所述的方法,其中,所述剪枝准则是网络模型的元素的绝对值的大小,所述绝对值大于阈值的元素得以保留,所述绝对值小于阈值的元素被设置为0。
5.根据权利要求3所述的方法,其中,所述剪枝准则是网络模型的卷积核中的元素绝对值之和的大小,所述绝对值之和大于阈值的卷积核得以保留,所述绝对值之和小于阈值的卷积核被删除。
6.根据权利要求1所述的方法,其中,所述的根据蒸馏算法,通过老师网络来指导学生网络进行训练包括:通过用学生网络的输出去拟合老师网络的输出,对学生网络的参数进行调整。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710421225.8A CN108334934B (zh) | 2017-06-07 | 2017-06-07 | 基于剪枝和蒸馏的卷积神经网络压缩方法 |
PCT/CN2018/087063 WO2018223822A1 (zh) | 2017-06-07 | 2018-05-16 | 基于剪枝和蒸馏的卷积神经网络压缩方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710421225.8A CN108334934B (zh) | 2017-06-07 | 2017-06-07 | 基于剪枝和蒸馏的卷积神经网络压缩方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108334934A true CN108334934A (zh) | 2018-07-27 |
CN108334934B CN108334934B (zh) | 2021-04-13 |
Family
ID=62923049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710421225.8A Active CN108334934B (zh) | 2017-06-07 | 2017-06-07 | 基于剪枝和蒸馏的卷积神经网络压缩方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108334934B (zh) |
WO (1) | WO2018223822A1 (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109087303A (zh) * | 2018-08-15 | 2018-12-25 | 中山大学 | 基于迁移学习提升语义分割模型效果的框架 |
CN109190521A (zh) * | 2018-08-17 | 2019-01-11 | 北京亮亮视野科技有限公司 | 一种基于知识提纯的人脸识别模型的构建方法及应用 |
CN109409500A (zh) * | 2018-09-21 | 2019-03-01 | 清华大学 | 基于知识蒸馏与非参数卷积的模型加速方法及装置 |
CN109472360A (zh) * | 2018-10-30 | 2019-03-15 | 北京地平线机器人技术研发有限公司 | 神经网络的更新方法、更新装置和电子设备 |
CN109522949A (zh) * | 2018-11-07 | 2019-03-26 | 北京交通大学 | 目标识别模型建立方法及装置 |
CN109598340A (zh) * | 2018-11-15 | 2019-04-09 | 北京知道创宇信息技术有限公司 | 卷积神经网络的裁剪方法、装置及存储介质 |
CN109816636A (zh) * | 2018-12-28 | 2019-05-28 | 汕头大学 | 一种基于智能终端的裂缝检测方法 |
CN110059740A (zh) * | 2019-04-12 | 2019-07-26 | 杭州电子科技大学 | 一种针对嵌入式移动端的深度学习语义分割模型压缩方法 |
CN110070183A (zh) * | 2019-03-11 | 2019-07-30 | 中国科学院信息工程研究所 | 一种弱标注数据的神经网络模型训练方法及装置 |
CN110097084A (zh) * | 2019-04-03 | 2019-08-06 | 浙江大学 | 通过投射特征训练多任务学生网络的知识融合方法 |
CN110097177A (zh) * | 2019-05-15 | 2019-08-06 | 电科瑞达(成都)科技有限公司 | 一种基于伪孪生网络的网络剪枝方法 |
CN110119811A (zh) * | 2019-05-15 | 2019-08-13 | 电科瑞达(成都)科技有限公司 | 一种基于熵重要性准则模型的卷积核裁剪方法 |
CN110163236A (zh) * | 2018-10-15 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 模型的训练方法和装置、存储介质、电子装置 |
CN110348572A (zh) * | 2019-07-09 | 2019-10-18 | 上海商汤智能科技有限公司 | 神经网络模型的处理方法及装置、电子设备、存储介质 |
CN110555417A (zh) * | 2019-09-06 | 2019-12-10 | 福建中科亚创动漫科技股份有限公司 | 一种基于深度学习的视频图像识别系统及方法 |
CN110929839A (zh) * | 2018-09-20 | 2020-03-27 | 深圳市商汤科技有限公司 | 训练神经网络的方法和装置、电子设备和计算机存储介质 |
CN110929836A (zh) * | 2018-09-20 | 2020-03-27 | 北京市商汤科技开发有限公司 | 神经网络训练及图像处理方法和装置、电子设备、介质 |
CN111178115A (zh) * | 2018-11-12 | 2020-05-19 | 北京深醒科技有限公司 | 对象识别网络的训练方法及系统 |
CN111312271A (zh) * | 2020-02-28 | 2020-06-19 | 云知声智能科技股份有限公司 | 一种提高收敛速度和处理性能的模型压缩方法和系统 |
CN111429415A (zh) * | 2020-03-18 | 2020-07-17 | 东华大学 | 基于网络协同剪枝的产品表面缺陷高效模型构建方法 |
CN111553169A (zh) * | 2020-06-25 | 2020-08-18 | 北京百度网讯科技有限公司 | 语义理解模型的剪枝方法、装置、电子设备和存储介质 |
CN111695375A (zh) * | 2019-03-13 | 2020-09-22 | 上海云从企业发展有限公司 | 基于模型蒸馏的人脸识别模型压缩算法、介质及终端 |
CN112070233A (zh) * | 2020-08-25 | 2020-12-11 | 北京百度网讯科技有限公司 | 模型联合训练方法、装置、电子设备和存储介质 |
WO2020253127A1 (zh) * | 2019-06-21 | 2020-12-24 | 深圳壹账通智能科技有限公司 | 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质 |
CN113837308A (zh) * | 2021-09-29 | 2021-12-24 | 北京百度网讯科技有限公司 | 基于知识蒸馏的模型训练方法、装置、电子设备 |
WO2022198606A1 (zh) * | 2021-03-26 | 2022-09-29 | 深圳市大疆创新科技有限公司 | 深度学习模型的获取方法、系统、装置及存储介质 |
WO2023279693A1 (zh) * | 2021-07-09 | 2023-01-12 | 平安科技(深圳)有限公司 | 知识蒸馏方法、装置、终端设备及介质 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3948692A4 (en) | 2019-03-27 | 2023-03-29 | Cognizant Technology Solutions U.S. Corporation | PROCESS AND SYSTEM CONTAINING A SCALABLE SUBSTITUTE-ASSISTED PRESCRIPTIONS OPTIMIZATION ENGINE |
EP3748545A1 (en) | 2019-06-07 | 2020-12-09 | Tata Consultancy Services Limited | Sparsity constraints and knowledge distillation based learning of sparser and compressed neural networks |
WO2021068180A1 (en) * | 2019-10-11 | 2021-04-15 | Beijing Didi Infinity Technology And Development Co., Ltd. | Method and system for continual meta-learning |
CN110826344B (zh) | 2019-10-24 | 2022-03-01 | 北京小米智能科技有限公司 | 神经网络模型压缩方法、语料翻译方法及其装置 |
CN111695483B (zh) * | 2020-06-05 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 一种车辆违章检测方法、装置、设备及计算机存储介质 |
US11775841B2 (en) | 2020-06-15 | 2023-10-03 | Cognizant Technology Solutions U.S. Corporation | Process and system including explainable prescriptions through surrogate-assisted evolution |
CN112215353B (zh) * | 2020-09-29 | 2023-09-01 | 电子科技大学 | 一种基于变分结构优化网络的通道剪枝方法 |
CN112487899B (zh) * | 2020-11-19 | 2023-04-07 | 武汉高德飞行器科技有限公司 | 基于无人机的目标识别方法、系统、存储介质及电子设备 |
CN114881227B (zh) * | 2022-05-13 | 2023-07-04 | 北京百度网讯科技有限公司 | 模型压缩方法、图像处理方法、装置和电子设备 |
CN115496207B (zh) * | 2022-11-08 | 2023-09-26 | 荣耀终端有限公司 | 神经网络模型压缩方法、装置和系统 |
CN117011617B (zh) * | 2023-10-07 | 2024-03-22 | 之江实验室 | 基于二阶段教师-学生框架的肺结节检测装置及构建方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140201126A1 (en) * | 2012-09-15 | 2014-07-17 | Lotfi A. Zadeh | Methods and Systems for Applications for Z-numbers |
US20160189026A1 (en) * | 2014-12-26 | 2016-06-30 | Universidad De Santiago De Chile | Running Time Prediction Algorithm for WAND Queries |
CN106355248A (zh) * | 2016-08-26 | 2017-01-25 | 深圳先进技术研究院 | 一种深度卷积神经网络训练方法及装置 |
CN106548234A (zh) * | 2016-11-17 | 2017-03-29 | 北京图森互联科技有限责任公司 | 一种神经网络剪枝方法及装置 |
CN106548190A (zh) * | 2015-09-18 | 2017-03-29 | 三星电子株式会社 | 模型训练方法和设备以及数据识别方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090299929A1 (en) * | 2008-05-30 | 2009-12-03 | Robert Kozma | Methods of improved learning in simultaneous recurrent neural networks |
CN105894847B (zh) * | 2016-06-27 | 2019-01-18 | 华南理工大学 | 一种云平台环境下无监督学习的实时公交动态调度系统及方法 |
CN106779068A (zh) * | 2016-12-05 | 2017-05-31 | 北京深鉴智能科技有限公司 | 调整人工神经网络的方法和装置 |
-
2017
- 2017-06-07 CN CN201710421225.8A patent/CN108334934B/zh active Active
-
2018
- 2018-05-16 WO PCT/CN2018/087063 patent/WO2018223822A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140201126A1 (en) * | 2012-09-15 | 2014-07-17 | Lotfi A. Zadeh | Methods and Systems for Applications for Z-numbers |
US20160189026A1 (en) * | 2014-12-26 | 2016-06-30 | Universidad De Santiago De Chile | Running Time Prediction Algorithm for WAND Queries |
CN106548190A (zh) * | 2015-09-18 | 2017-03-29 | 三星电子株式会社 | 模型训练方法和设备以及数据识别方法 |
CN106355248A (zh) * | 2016-08-26 | 2017-01-25 | 深圳先进技术研究院 | 一种深度卷积神经网络训练方法及装置 |
CN106548234A (zh) * | 2016-11-17 | 2017-03-29 | 北京图森互联科技有限责任公司 | 一种神经网络剪枝方法及装置 |
Non-Patent Citations (1)
Title |
---|
JIANTAO QIU 等: "Going Deeper with Embedded FPGA Platform for Convolutional Neural Network", 《PROCEEDINGS OF THE 2016 ACM/SIGDA INTERNATIONAL SYMPOSIUM ON FIELD-PROGRAMMABLE GATE ARRAYS (FPGA"16)》 * |
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109087303A (zh) * | 2018-08-15 | 2018-12-25 | 中山大学 | 基于迁移学习提升语义分割模型效果的框架 |
CN109087303B (zh) * | 2018-08-15 | 2022-04-01 | 中山大学 | 基于迁移学习提升语义分割模型效果的框架 |
CN109190521A (zh) * | 2018-08-17 | 2019-01-11 | 北京亮亮视野科技有限公司 | 一种基于知识提纯的人脸识别模型的构建方法及应用 |
CN109190521B (zh) * | 2018-08-17 | 2022-03-04 | 北京亮亮视野科技有限公司 | 一种基于知识提纯的人脸识别模型的构建方法及应用 |
CN110929836B (zh) * | 2018-09-20 | 2023-10-31 | 北京市商汤科技开发有限公司 | 神经网络训练及图像处理方法和装置、电子设备、介质 |
CN110929836A (zh) * | 2018-09-20 | 2020-03-27 | 北京市商汤科技开发有限公司 | 神经网络训练及图像处理方法和装置、电子设备、介质 |
CN110929839A (zh) * | 2018-09-20 | 2020-03-27 | 深圳市商汤科技有限公司 | 训练神经网络的方法和装置、电子设备和计算机存储介质 |
CN110929839B (zh) * | 2018-09-20 | 2024-04-16 | 深圳市商汤科技有限公司 | 训练神经网络的方法和装置、电子设备和计算机存储介质 |
CN109409500A (zh) * | 2018-09-21 | 2019-03-01 | 清华大学 | 基于知识蒸馏与非参数卷积的模型加速方法及装置 |
CN109409500B (zh) * | 2018-09-21 | 2024-01-12 | 清华大学 | 基于知识蒸馏与非参数卷积的模型加速方法及装置 |
CN110163236A (zh) * | 2018-10-15 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 模型的训练方法和装置、存储介质、电子装置 |
CN110163236B (zh) * | 2018-10-15 | 2023-08-29 | 腾讯科技(深圳)有限公司 | 模型的训练方法和装置、存储介质、电子装置 |
CN109472360A (zh) * | 2018-10-30 | 2019-03-15 | 北京地平线机器人技术研发有限公司 | 神经网络的更新方法、更新装置和电子设备 |
US11328180B2 (en) | 2018-10-30 | 2022-05-10 | Beijing Horizon Robotics Technology Research And Development Co., Ltd. | Method for updating neural network and electronic device |
CN109522949A (zh) * | 2018-11-07 | 2019-03-26 | 北京交通大学 | 目标识别模型建立方法及装置 |
CN111178115B (zh) * | 2018-11-12 | 2024-01-12 | 北京深醒科技有限公司 | 对象识别网络的训练方法及系统 |
CN111178115A (zh) * | 2018-11-12 | 2020-05-19 | 北京深醒科技有限公司 | 对象识别网络的训练方法及系统 |
CN109598340A (zh) * | 2018-11-15 | 2019-04-09 | 北京知道创宇信息技术有限公司 | 卷积神经网络的裁剪方法、装置及存储介质 |
CN109816636A (zh) * | 2018-12-28 | 2019-05-28 | 汕头大学 | 一种基于智能终端的裂缝检测方法 |
CN110070183A (zh) * | 2019-03-11 | 2019-07-30 | 中国科学院信息工程研究所 | 一种弱标注数据的神经网络模型训练方法及装置 |
CN110070183B (zh) * | 2019-03-11 | 2021-08-20 | 中国科学院信息工程研究所 | 一种弱标注数据的神经网络模型训练方法及装置 |
CN111695375A (zh) * | 2019-03-13 | 2020-09-22 | 上海云从企业发展有限公司 | 基于模型蒸馏的人脸识别模型压缩算法、介质及终端 |
CN111695375B (zh) * | 2019-03-13 | 2021-04-20 | 上海云从企业发展有限公司 | 基于模型蒸馏的人脸识别模型压缩方法、介质及终端 |
CN110097084A (zh) * | 2019-04-03 | 2019-08-06 | 浙江大学 | 通过投射特征训练多任务学生网络的知识融合方法 |
CN110097084B (zh) * | 2019-04-03 | 2021-08-31 | 浙江大学 | 通过投射特征训练多任务学生网络的知识融合方法 |
CN110059740A (zh) * | 2019-04-12 | 2019-07-26 | 杭州电子科技大学 | 一种针对嵌入式移动端的深度学习语义分割模型压缩方法 |
CN110097177A (zh) * | 2019-05-15 | 2019-08-06 | 电科瑞达(成都)科技有限公司 | 一种基于伪孪生网络的网络剪枝方法 |
CN110119811A (zh) * | 2019-05-15 | 2019-08-13 | 电科瑞达(成都)科技有限公司 | 一种基于熵重要性准则模型的卷积核裁剪方法 |
CN110119811B (zh) * | 2019-05-15 | 2021-07-27 | 电科瑞达(成都)科技有限公司 | 一种基于熵重要性准则模型的卷积核裁剪方法 |
CN110097177B (zh) * | 2019-05-15 | 2022-11-29 | 电科瑞达(成都)科技有限公司 | 一种基于伪孪生网络的网络剪枝方法 |
WO2020253127A1 (zh) * | 2019-06-21 | 2020-12-24 | 深圳壹账通智能科技有限公司 | 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质 |
CN110348572A (zh) * | 2019-07-09 | 2019-10-18 | 上海商汤智能科技有限公司 | 神经网络模型的处理方法及装置、电子设备、存储介质 |
CN110555417A (zh) * | 2019-09-06 | 2019-12-10 | 福建中科亚创动漫科技股份有限公司 | 一种基于深度学习的视频图像识别系统及方法 |
CN111312271A (zh) * | 2020-02-28 | 2020-06-19 | 云知声智能科技股份有限公司 | 一种提高收敛速度和处理性能的模型压缩方法和系统 |
CN111429415A (zh) * | 2020-03-18 | 2020-07-17 | 东华大学 | 基于网络协同剪枝的产品表面缺陷高效模型构建方法 |
CN111553169A (zh) * | 2020-06-25 | 2020-08-18 | 北京百度网讯科技有限公司 | 语义理解模型的剪枝方法、装置、电子设备和存储介质 |
CN111553169B (zh) * | 2020-06-25 | 2023-08-25 | 北京百度网讯科技有限公司 | 语义理解模型的剪枝方法、装置、电子设备和存储介质 |
CN112070233A (zh) * | 2020-08-25 | 2020-12-11 | 北京百度网讯科技有限公司 | 模型联合训练方法、装置、电子设备和存储介质 |
CN112070233B (zh) * | 2020-08-25 | 2024-03-22 | 北京百度网讯科技有限公司 | 模型联合训练方法、装置、电子设备和存储介质 |
WO2022198606A1 (zh) * | 2021-03-26 | 2022-09-29 | 深圳市大疆创新科技有限公司 | 深度学习模型的获取方法、系统、装置及存储介质 |
WO2023279693A1 (zh) * | 2021-07-09 | 2023-01-12 | 平安科技(深圳)有限公司 | 知识蒸馏方法、装置、终端设备及介质 |
WO2023050738A1 (zh) * | 2021-09-29 | 2023-04-06 | 北京百度网讯科技有限公司 | 基于知识蒸馏的模型训练方法、装置、电子设备 |
CN113837308A (zh) * | 2021-09-29 | 2021-12-24 | 北京百度网讯科技有限公司 | 基于知识蒸馏的模型训练方法、装置、电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2018223822A1 (zh) | 2018-12-13 |
CN108334934B (zh) | 2021-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108334934A (zh) | 基于剪枝和蒸馏的卷积神经网络压缩方法 | |
CN113259665B (zh) | 一种图像处理方法以及相关设备 | |
CN111954053B (zh) | 获取蒙版帧数据的方法、计算机设备及可读存储介质 | |
CN111340814A (zh) | 一种基于多模态自适应卷积的rgb-d图像语义分割方法 | |
Wang et al. | Towards analysis-friendly face representation with scalable feature and texture compression | |
CN108921910B (zh) | 基于可伸缩卷积神经网络的jpeg编码压缩图像复原的方法 | |
CN111630570A (zh) | 图像处理方法、设备及计算机可读存储介质 | |
WO2021139114A1 (zh) | 一种基于反馈优化的人机视觉编码方法和装置 | |
CN111222532B (zh) | 具有分类精度保持和带宽保护的边云协同深度学习模型训练方法 | |
KR20220130630A (ko) | 이미지 처리 방법, 안면 인식 모델 훈련 방법, 장치 및 기기 | |
CN114581544A (zh) | 图像压缩方法、计算机设备及计算机存储介质 | |
Maleki et al. | Blockcnn: A deep network for artifact removal and image compression | |
CN102917157A (zh) | 一种基于人体视觉系统的图片压缩系统及方法 | |
CN108805844B (zh) | 一种基于先验滤波的轻量化回归网络构建方法 | |
CN111479286B (zh) | 一种边缘计算系统减少通信流量的数据处理方法 | |
CN117560511A (zh) | 基于图分割技术电力巡检的间隔棒图像压缩方法及系统 | |
Chandrasekhar et al. | Compressing feature sets with digital search trees | |
CN116132714A (zh) | 一种用于网络电视系统的视频数据传输方法 | |
CN115690238A (zh) | 图像生成及模型训练方法、装置、设备和存储介质 | |
CN115941966A (zh) | 一种视频压缩方法及电子设备 | |
CN114501031B (zh) | 一种压缩编码、解压缩方法以及装置 | |
Luo et al. | Deep semantic image compression via cooperative network pruning | |
CN113132755B (zh) | 可扩展人机协同图像编码方法及系统、解码器训练方法 | |
CN112669861B (zh) | 音频数据处理方法、装置、设备和存储介质 | |
Yin et al. | A co-prediction-based compression scheme for correlated images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20190927 Address after: 2100 San Jose Rojack Avenue, California, USA Applicant after: XILINX INC Address before: 100083, 17 floor, 4 Building 4, 1 Wang Zhuang Road, Haidian District, Beijing. Applicant before: Beijing Shenjian Intelligent Technology Co., Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |