CN110188863A - 一种卷积神经网络的卷积核及其压缩算法 - Google Patents

一种卷积神经网络的卷积核及其压缩算法 Download PDF

Info

Publication number
CN110188863A
CN110188863A CN201910363712.2A CN201910363712A CN110188863A CN 110188863 A CN110188863 A CN 110188863A CN 201910363712 A CN201910363712 A CN 201910363712A CN 110188863 A CN110188863 A CN 110188863A
Authority
CN
China
Prior art keywords
convolution kernel
convolutional neural
neural networks
convolution
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910363712.2A
Other languages
English (en)
Other versions
CN110188863B (zh
Inventor
张建楠
周继军
吴建锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Electronic Science and Technology University
Original Assignee
Hangzhou Electronic Science and Technology University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Electronic Science and Technology University filed Critical Hangzhou Electronic Science and Technology University
Priority to CN201910363712.2A priority Critical patent/CN110188863B/zh
Publication of CN110188863A publication Critical patent/CN110188863A/zh
Application granted granted Critical
Publication of CN110188863B publication Critical patent/CN110188863B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种卷积神经网络的卷积核及其压缩算法,在卷积神经网络任一输入层和输出层之间仅设置一个卷积核,所述卷积核的大小为f×f×(m+(n‑1)*sc),其中,m+(n‑1)*sc为通道长度,f×f×m为该卷积核的单次卷积维度,sc为通道方向的步长,n为输出层通道数;在输入层每次取维度为f×f×m的输入特征与所述卷积核延通道方向依次进行点积并以sc为步长遍历整个卷积核,最终得到n个通道输出层。与现有技术相比较,本发明通过设置单个通道深度扩展的卷积核,并利用参数共享和密集连接的思想,能够在不损失精度或损失较小精度的情况下,大大减小了卷积神经网络参数量。

Description

一种卷积神经网络的卷积核及其压缩算法
技术领域
本发明涉及神经网络技术领域,尤其涉及一种卷积神经网络的卷积核及其压缩算法。
背景技术
近年来,卷积神经网络在计算机视觉领域取得了显著的成功。自从2012年AlexNet赢得大规模视觉识别挑战赛的冠军以来,卷积神经网络得到了广泛的应用和研究。之后,各种卷积神经网络模型被提出,如VGG16拥有1.28亿个参数,ResNet是152层的卷积神经网络。为了提高准确率,卷积神经网络通常被设计得更深和更宽,然而,随之带来的则是参数数量和计算量的大量增加。在许多实际应用中,模型需要在资源有限的平台上运行,比如嵌入式设备和移动电话,因此需要更加高效的模型。
随着小型且高效的卷积神经网络模型越来越受到关注,模型压缩研究取得重大进展。许多不同的方法通常可以被分为两类,压缩预训练网络和重新设计一个小型网络。第一类大多基于传统的压缩技术如网络剪枝、模型量化、低秩估计、模型蒸馏。第二类具有代表性的模型有MobileNets和ChannelNets。MobileNets提出深度可分离卷积,即将传统3×3卷积分解为3×3单通道卷积和1×1卷积,先通过单通道卷积提取每个通道的特征,再由1×1卷积将其融合起来,1×1卷积现有技术通道卷积方式如图1所示。ChannelNets提出了基于通道的卷积算法,该算法将特征图之间的密集连接替换为稀疏连接。具体地说,通道卷积相当于在通道方向利用一维小卷积核进行一维卷积,再用此卷积核在每个通道进行上述操作。
然而,上述两种网络都存在一定不足。在MobileNetV1中,1×1卷积的参数量占网络总参数量的大部分,达到了74.59%。在ChannelNets中,第一,该卷积算法在改变通道数量方面存在一定的局限性,只能不变或减少输入的通道数量并不能增加;第二,ChannelNet-v2只将ChannelNet-v1的最后一层的深度可分离卷积层改为深度可分离通道卷积层,在ImageNet数据集上的准确率却损失1%。由此可见,特征图的通道之间的稀疏连接会造成一定的信息丢失。
故,针对现有技术的缺陷,实有必要提出一种技术方案以解决现有技术存在的技术问题。
发明内容
为了克服现有技术存在的缺陷,本发明提出一种卷积神经网络的卷积核及其压缩算法,通过设置单个通道深度扩展的卷积核,并利用参数共享和密集连接的思想,能够在不损失精度或损失较小精度的情况下,大大减小了卷积神经网络参数量。
为了解决现有技术存在的技术问题,本发明的技术方案如下:
一种卷积神经网络中卷积核,在卷积神经网络任一输入层和输出层之间仅设置一个卷积核,所述卷积核的大小为f×f×(m+(n-1)*sc),其中,m+(n-1)*sc为通道长度,f×f×m为该卷积核的单次卷积维度,sc为通道方向的步长,n为输出层通道数;
在输入层每次取维度为f×f×m的输入特征与所述卷积核延通道方向依次进行点积并以sc为步长遍历整个卷积核,最终得到n个通道输出层。
进一步的,输入层为hi×wi×m的输入特征图,每次取f×f×m的输入特征与所述卷积核进行卷积,并在水平方向以sw步长和在垂直方向以sh步长遍历整个输入特征图,得到大小为ho×wo×n的输出特征图作为输出层。
进一步的,f为1。
进一步的,sc为1、64或192。
本发明还公开了一种卷积神经网络中卷积核压缩算法,其特征在于,在卷积神经网络任一输入层和输出层之间仅设置一个卷积核,其中,输入层大小为hi×wi×m的输入特征图、卷积核大小为f×f×(m+(n-1)*sc)的卷积核、输出层大小为ho×wo×n的输出特征图,sc为通道方向的步长,该算法包括以下步骤:
步骤S1:取输入特征图中取f×f×m维度的输入特征;
步骤S2:将f×f×m维度的输入特征依次与卷积核的第(1+x*sc)至第(m+x*sc)通道进行点积以遍历整个卷积核,得到一个维度为1×1×n的输出特征,其中x∈N且x<n;
步骤S3:在水平方向以sw步长以及在垂直方向以sh步长遍历整个输入特征图,每次取f×f×m个输入特征并重复步骤S2,得到大小为ho×wo×n的输出特征图。
进一步的,f为1。
进一步的,sc为1、64或192。
与现有技术相比较,本发明具有的有益效果:
本发明通过设置单个通道深度扩展的卷积核,利用参数共享和密集连接的思想,将传统卷积算法中的多个卷积核压缩至一个卷积核,加强了特征图通道信息之间的交流,大大减少了卷积算法的参数量,并通过该方法建立了高效的模型,改善了现有模型参数量太大的缺点。
另外,传统卷积算法的参数量为f×f×m×n,本发明中卷积算法的参数量为f×f×(m+(n-1)*sc),本发明中卷积算法的参数量仅约为传统卷积算法参数量的通过改变通道方向卷积步长sc,可以使模型的准确率和参数量之间有很好的折衷。
附图说明
图1为本发明中SD1×1卷积算法可视化示意图。
图2为1×1卷积算法可视化示意图。
图3为MobileNetV2模型的bottleneck模块。
图4为本发明模型的SDC-bottleneck模块的插图。
如下具体实施例将结合上述附图进一步说明本发明。
具体实施方式
以下将结合附图对本发明提供的技术方案作进一步说明。
参见图2,所示为本发明一种卷积神经网络中卷积核的示意图,在卷积神经网络任一输入层和输出层之间仅设置一个卷积核,所述卷积核的大小为f×f×(m+(n-1)*sc),其中,m+(n-1)*sc为通道长度,f×f×m为该卷积核的单次卷积维度,sc为通道方向的步长,n为输出层通道数;
在输入层每次取维度为f×f×m的输入特征与所述卷积核延通道方向依次进行点积并以sc为步长遍历整个卷积核,最终得到n个通道输出层。
其中,输入层为hi×wi×m的输入特征图,每次取f×f×m的输入特征与所述卷积核进行卷积,并在水平方向以sw步长和在垂直方向以sh步长遍历整个输入特征图,得到大小为ho×wo×n的输出特征图作为输出层。
本发明卷积过程通过以下步骤实现:
步骤S1:取输入特征图中取f×f×m维度的输入特征;
步骤S2:将f×f×m维度的输入特征依次与卷积核的第(1+x*sc)至第(m+x*sc)通道进行点积以遍历整个卷积核,得到一个维度为1×1×n的输出特征,其中x∈N且x<n;
步骤S3:在水平方向以sw步长以及在垂直方向以sh步长遍历整个输入特征图,每次取f×f×m个输入特征并重复步骤S2,得到大小为ho×wo×n的输出特征图。
在一种优选实施方式中,本发明提供一种用于卷积神经网络压缩的1×1卷积算法(1×1SD通道卷积)如图2所示,包含大小为h×w×m的输入特征图、大小为1×1×(m+(n-1)*s)的卷积核和大小为h×w×n的输出特征图,s为通道方向的步长,并包括以下步骤:
步骤1:取输入特征图中1×1×m个输入特征。
步骤2:将输入特征依次与卷积核的第(1+x*s)至第(m+x*s)通道进行点积,得到一个维度为1×1×n的输出特征,其中x∈N且x<n。
步骤3:在水平方向以1步长,在垂直方向以1步长遍历整个特征图,每次取1×1×m个输入特征并重复步骤2,得到大小为h×w×n的输出特征图。
为了验证本发明的技术效果,将通过模型对比验证本发明的有效性:
我们将通道方向的步长s作为可调的超参数,这可以根据所需精度和参数量进行权衡调整。因此我们以通道方向步长为1、64和192设计了三种参数共享且密集连接通道卷积神经网络模型SDChannelNet-S1、SDChannelNet-S64和SDChannelNet-S192。
我们选择使用网上公开的数据集进行测试,测试平台为Ubuntu16.04,GPU为GTX1080ti,显存为11GB。实验选择CIFAR-10和CIFAR-100数据集。本发明的模型SDChannelNet遵循MobileNetV2模型的结构并仅对其进行删减和替换的操作。MobileNetV2模型主要由bottleneck模块构成,bottleneck模块如图3所示。首先,为了减少计算量,我们去掉了MobileNetV2的bottleneck模块中的第一个1×1卷积。然后,为了使通道数量与其保持一致,将深度卷积的深度乘数设置为6或1。最后,将第二个1×1卷积替换为1×1SD通道卷积。经过以上修改的bottleneck模块构成了SDChannelNet中的SDC-bottleneck模块,如图4所示。SDC-bottleneck模块的输入尺寸及输出尺寸与bottleneck模块保持完全一致。同时,我们还注意到MobileNetV2中全连接层的参数量占总参数量的37.5%,所以去掉了输出通道数为1280的卷积层,去掉之后模型的全连接层的参数量和计算量都只有原来的1/4。
CIFAR-10和CIFAR-100数据集都是由32×32的彩色图像组成。他们的训练集和测试集都分别包含50000张图片和10000张图片,它们的区别是CIFAR-10的图像被分为10种类别,而CIFAR-100的图像被分为100种类别。对于预处理,我们只对输入数据进行标准归一化处理并且没有进行任何的数据增强。我们用所有的训练集图片进行训练,并在训练结束后报告在测试集上的错误率。
本发明的所有模型均采用随机梯度下降优化函数进行训练并且使用的权重衰减系数为10-4和Nesterov动量系数为0.9。我们训练用的批量大小为64并迭代250轮。初始学习率设置为0.1,在总训练轮次的60%和80%将学习率除以10。训练时,我们在除了第一个卷积层的每个卷积层后加入一个dropout层来抑制过拟合。
本发明SDChannelNet网络结构如表1所示,表中每一行描述的是一个或多个相同层(块)组成的序列,并重复n次。相同序列中的所有层具有相同数量c个输出通道。每个序列的第一层的步长为s,剩余其他层的步长都为1。t代表深度卷积的深度因子。以上结构参考自MobileNetV2[CVPR.2018.00474]。为了与MobileNetV2进行公平对比,我们用与以上相同的实验设置。
表1 SDChannelNet网络结构
表2基于CIFAR-10数据集的结果对比
注1:ResNet with Stochastic Depth[Lecture Notes in Computer Science(including subseries Lecture Notes in Artificial Intelligence and LectureNotes in Bioinformatics),v 9908LNCS,p 646-661,2016]
注2:ResNet(pre-activation)[CVPR.2017.243]
本发明的实验数据均来源于以上两篇文章,具体如表2所示,是本发明的模型与MobileNetV2模型和其他模型基于CIFAR-10数据集的结果对比。可以看出当通道方向的步长为1时,本发明的模型的准确率已经接近MobileNetV2模型的准确率,而模型的总参数量仅有MobileNetV2模型的二十分之一。当通道方向的步长为64时,本发明的模型准确率已经超过了MobileNetV2模型和其他模型的准确率,而模型的总参数量只有MobileNetV2模型的十一分之一,这验证了本发明所提方法的有效性。
表3基于CIFAR-100数据集的结果对比
如表3所示,是本发明的模型与MobileNetV2模型和其他模型基于CIFAR-100数据集的结果对比。SDChannelNet-S192模型的准确率略低于MobileNetV2模型的准确率,但是参数量缩小了6.3倍,同时SDChannelNet-S192模型的准确率优于表中其他模型,这也验证了本发明所提方法的有效性。
以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (7)

1.一种卷积神经网络的卷积核,其特征在于,在卷积神经网络任一输入层和输出层之间仅设置一个卷积核,所述卷积核的大小为f×f×(m+(n-1)*sc),其中,m+(n-1)*sc为通道长度,f×f×m为该卷积核的单次卷积维度,sc为通道方向的步长,n为输出层通道数;
在输入层每次取维度为f×f×m的输入特征与所述卷积核延通道方向依次进行点积并以sc为步长遍历整个卷积核,最终得到n个通道输出层。
2.根据权利要求1所述的卷积神经网络的卷积核,其特征在于,输入层为hi×wi×m的输入特征图,每次取f×f×m的输入特征与所述卷积核进行卷积,并在水平方向以sw步长和在垂直方向以sh步长遍历整个输入特征图,得到大小为ho×wo×n的输出特征图作为输出层。
3.根据权利要求1或2所述的卷积神经网络的卷积核,其特征在于,f为1。
4.根据权利要求1或2所述的卷积神经网络的卷积核,其特征在于,sc为1、64或192。
5.一种卷积神经网络的卷积核压缩算法,其特征在于,在卷积神经网络任一输入层和输出层之间仅设置一个卷积核,其中,输入层大小为hi×wi×m的输入特征图、卷积核大小为f×f×(m+(n-1)*sc)的卷积核、输出层大小为ho×wo×n的输出特征图,sc为通道方向的步长,该算法包括以下步骤:
步骤S1:取输入特征图中取f×f×m维度的输入特征;
步骤S2:将f×f×m维度的输入特征依次与卷积核的第(1+x*sc)至第(m+x*sc)通道进行点积以遍历整个卷积核,得到一个维度为1×1×n的输出特征,其中x∈N且x<n;
步骤S3:在水平方向以sw步长以及在垂直方向以sh步长遍历整个输入特征图,每次取f×f×m个输入特征并重复步骤S2,得到大小为ho×wo×n的输出特征图。
6.根据权利要求5所述的卷积神经网络的卷积核压缩算法,其特征在于,f为1。
7.根据权利要求5所述的卷积神经网络的卷积核压缩算法,其特征在于,sc为1、64或192。
CN201910363712.2A 2019-04-30 2019-04-30 一种适用于资源受限设备的卷积神经网络的卷积核压缩方法 Expired - Fee Related CN110188863B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910363712.2A CN110188863B (zh) 2019-04-30 2019-04-30 一种适用于资源受限设备的卷积神经网络的卷积核压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910363712.2A CN110188863B (zh) 2019-04-30 2019-04-30 一种适用于资源受限设备的卷积神经网络的卷积核压缩方法

Publications (2)

Publication Number Publication Date
CN110188863A true CN110188863A (zh) 2019-08-30
CN110188863B CN110188863B (zh) 2021-04-09

Family

ID=67715579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910363712.2A Expired - Fee Related CN110188863B (zh) 2019-04-30 2019-04-30 一种适用于资源受限设备的卷积神经网络的卷积核压缩方法

Country Status (1)

Country Link
CN (1) CN110188863B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110619387A (zh) * 2019-09-12 2019-12-27 复旦大学 一种基于卷积神经网络的通道扩展方法
CN110706232A (zh) * 2019-09-29 2020-01-17 五邑大学 纹理图像分割方法、电子装置及计算机存储介质
CN110728354A (zh) * 2019-09-11 2020-01-24 东南大学 一种改进的滑动式分组卷积神经网络
CN110782001A (zh) * 2019-09-11 2020-02-11 东南大学 一种基于组卷积神经网络使用共享卷积核的改进方法
CN110796027A (zh) * 2019-10-10 2020-02-14 天津大学 一种基于紧密卷积的神经网络模型的声音场景识别方法
CN112580581A (zh) * 2020-12-28 2021-03-30 英特灵达信息技术(深圳)有限公司 目标检测方法、装置及电子设备
CN113420811A (zh) * 2021-06-23 2021-09-21 中国矿业大学(北京) 一种使用深度学习的煤岩识别方法
CN114529825A (zh) * 2022-04-24 2022-05-24 城云科技(中国)有限公司 用于消防通道占用目标检测的目标检测模型、方法及应用

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105869117A (zh) * 2016-03-28 2016-08-17 上海交通大学 一种针对深度学习超分辨率技术的gpu加速方法
CN106447030A (zh) * 2016-08-30 2017-02-22 深圳市诺比邻科技有限公司 卷积神经网络的计算资源优化方法及系统
CN107832835A (zh) * 2017-11-14 2018-03-23 贵阳海信网络科技有限公司 一种卷积神经网络的轻量化方法及装置
CN108090565A (zh) * 2018-01-16 2018-05-29 电子科技大学 一种卷积神经网络并行化训练加速方法
CN108596988A (zh) * 2018-03-09 2018-09-28 西安电子科技大学 一种用于卷积神经网络的压缩算法
CN109376683A (zh) * 2018-11-09 2019-02-22 中国科学院计算技术研究所 一种基于稠密图的视频分类方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105869117A (zh) * 2016-03-28 2016-08-17 上海交通大学 一种针对深度学习超分辨率技术的gpu加速方法
CN106447030A (zh) * 2016-08-30 2017-02-22 深圳市诺比邻科技有限公司 卷积神经网络的计算资源优化方法及系统
CN107832835A (zh) * 2017-11-14 2018-03-23 贵阳海信网络科技有限公司 一种卷积神经网络的轻量化方法及装置
CN108090565A (zh) * 2018-01-16 2018-05-29 电子科技大学 一种卷积神经网络并行化训练加速方法
CN108596988A (zh) * 2018-03-09 2018-09-28 西安电子科技大学 一种用于卷积神经网络的压缩算法
CN109376683A (zh) * 2018-11-09 2019-02-22 中国科学院计算技术研究所 一种基于稠密图的视频分类方法和系统

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110728354B (zh) * 2019-09-11 2024-04-09 东南大学 一种基于改进的滑动式分组卷积神经网络的图像处理方法
CN110782001B (zh) * 2019-09-11 2024-04-09 东南大学 一种基于组卷积神经网络使用共享卷积核的改进方法
CN110728354A (zh) * 2019-09-11 2020-01-24 东南大学 一种改进的滑动式分组卷积神经网络
CN110782001A (zh) * 2019-09-11 2020-02-11 东南大学 一种基于组卷积神经网络使用共享卷积核的改进方法
CN110619387B (zh) * 2019-09-12 2023-06-20 复旦大学 一种基于卷积神经网络的通道扩展方法
CN110619387A (zh) * 2019-09-12 2019-12-27 复旦大学 一种基于卷积神经网络的通道扩展方法
CN110706232A (zh) * 2019-09-29 2020-01-17 五邑大学 纹理图像分割方法、电子装置及计算机存储介质
CN110796027B (zh) * 2019-10-10 2023-10-17 天津大学 一种基于紧密卷积的神经网络模型的声音场景识别方法
CN110796027A (zh) * 2019-10-10 2020-02-14 天津大学 一种基于紧密卷积的神经网络模型的声音场景识别方法
CN112580581A (zh) * 2020-12-28 2021-03-30 英特灵达信息技术(深圳)有限公司 目标检测方法、装置及电子设备
CN113420811A (zh) * 2021-06-23 2021-09-21 中国矿业大学(北京) 一种使用深度学习的煤岩识别方法
CN114529825A (zh) * 2022-04-24 2022-05-24 城云科技(中国)有限公司 用于消防通道占用目标检测的目标检测模型、方法及应用
CN114529825B (zh) * 2022-04-24 2022-07-22 城云科技(中国)有限公司 用于消防通道占用目标检测的目标检测模型、方法及应用

Also Published As

Publication number Publication date
CN110188863B (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
CN110188863A (zh) 一种卷积神经网络的卷积核及其压缩算法
CN107437096B (zh) 基于参数高效的深度残差网络模型的图像分类方法
CN111428147B (zh) 结合社交和兴趣信息的异源图卷积网络的社交推荐方法
CN106021364B (zh) 图片搜索相关性预测模型的建立、图片搜索方法和装置
CN109255340A (zh) 一种融合多种改进vgg网络的人脸识别方法
CN110097178A (zh) 一种基于熵注意的神经网络模型压缩与加速方法
CN109977250A (zh) 融合语义信息和多级相似性的深度哈希图像检索方法
CN109948029A (zh) 基于神经网络自适应的深度哈希图像搜索方法
CN108959396A (zh) 机器阅读模型训练方法及装置、问答方法及装置
CN110196946A (zh) 一种基于深度学习的个性化推荐方法
CN109543745A (zh) 基于条件对抗自编码网络的特征学习方法及图像识别方法
CN108765512B (zh) 一种基于多层级特征的对抗图像生成方法
CN110378208B (zh) 一种基于深度残差网络的行为识别方法
Jia et al. Deep multi-view learning using neuron-wise correlation-maximizing regularizers
Gallo et al. Image and encoded text fusion for multi-modal classification
CN106355248A (zh) 一种深度卷积神经网络训练方法及装置
Zhang et al. Random reconstructed unpaired image-to-image translation
CN108573243A (zh) 一种基于深度卷积神经网络的低质量人脸的比对方法
CN104156464B (zh) 基于微视频特征数据库的微视频检索方法及装置
CN108921764A (zh) 一种基于生成对抗网络的图像隐写方法及系统
CN108121975A (zh) 一种联合原始数据和生成数据的人脸识别方法
CN110309847A (zh) 一种模型压缩方法及装置
CN108492290A (zh) 图像评价方法及系统
CN109978836A (zh) 基于元学习的用户个性化图像美感评价方法、系统、介质和设备
CN110175248A (zh) 一种基于深度学习和哈希编码的人脸图像检索方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210409

CF01 Termination of patent right due to non-payment of annual fee