CN110188863B - 一种适用于资源受限设备的卷积神经网络的卷积核压缩方法 - Google Patents
一种适用于资源受限设备的卷积神经网络的卷积核压缩方法 Download PDFInfo
- Publication number
- CN110188863B CN110188863B CN201910363712.2A CN201910363712A CN110188863B CN 110188863 B CN110188863 B CN 110188863B CN 201910363712 A CN201910363712 A CN 201910363712A CN 110188863 B CN110188863 B CN 110188863B
- Authority
- CN
- China
- Prior art keywords
- convolution
- convolution kernel
- neural network
- input
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 15
- 230000006835 compression Effects 0.000 title claims abstract description 13
- 238000007906 compression Methods 0.000 title claims abstract description 13
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种卷积神经网络的卷积核及其压缩算法,在卷积神经网络任一输入层和输出层之间仅设置一个卷积核,所述卷积核的大小为f×f×(m+(n‑1)*sc),其中,m+(n‑1)*sc为通道长度,f×f×m为该卷积核的单次卷积维度,sc为通道方向的步长,n为输出层通道数;在输入层每次取维度为f×f×m的输入特征与所述卷积核延通道方向依次进行点积并以sc为步长遍历整个卷积核,最终得到n个通道输出层。与现有技术相比较,本发明通过设置单个通道深度扩展的卷积核,并利用参数共享和密集连接的思想,能够在不损失精度或损失较小精度的情况下,大大减小了卷积神经网络参数量。
Description
技术领域
本发明涉及神经网络技术领域,尤其涉及一种适用于资源受限设备的卷积神经网络的卷积核压缩方法。
背景技术
近年来,卷积神经网络在计算机视觉领域取得了显著的成功。自从2012年AlexNet赢得大规模视觉识别挑战赛的冠军以来,卷积神经网络得到了广泛的应用和研究。之后,各种卷积神经网络模型被提出,如VGG16拥有1.28亿个参数,ResNet是152层的卷积神经网络。为了提高准确率,卷积神经网络通常被设计得更深和更宽,然而,随之带来的则是参数数量和计算量的大量增加。在许多实际应用中,模型需要在资源有限的平台上运行,比如嵌入式设备和移动电话,因此需要更加高效的模型。
随着小型且高效的卷积神经网络模型越来越受到关注,模型压缩研究取得重大进展。许多不同的方法通常可以被分为两类,压缩预训练网络和重新设计一个小型网络。第一类大多基于传统的压缩技术如网络剪枝、模型量化、低秩估计、模型蒸馏。第二类具有代表性的模型有MobileNets和ChannelNets。MobileNets提出深度可分离卷积,即将传统3×3卷积分解为3×3单通道卷积和1×1卷积,先通过单通道卷积提取每个通道的特征,再由1×1卷积将其融合起来,1×1卷积现有技术通道卷积方式如图1所示。ChannelNets提出了基于通道的卷积算法,该算法将特征图之间的密集连接替换为稀疏连接。具体地说,通道卷积相当于在通道方向利用一维小卷积核进行一维卷积,再用此卷积核在每个通道进行上述操作。
然而,上述两种网络都存在一定不足。在MobileNetV1中,1×1卷积的参数量占网络总参数量的大部分,达到了74.59%。在ChannelNets中,第一,该卷积算法在改变通道数量方面存在一定的局限性,只能不变或减少输入的通道数量并不能增加;第二,ChannelNet-v2只将ChannelNet-v1的最后一层的深度可分离卷积层改为深度可分离通道卷积层,在ImageNet数据集上的准确率却损失1%。由此可见,特征图的通道之间的稀疏连接会造成一定的信息丢失。
故,针对现有技术的缺陷,实有必要提出一种技术方案以解决现有技术存在的技术问题。
发明内容
为了克服现有技术存在的缺陷,本发明提出一种适用于资源受限设备的卷积神经网络的卷积核压缩方法,通过设置单个通道深度扩展的卷积核,并利用参数共享和密集连接的思想,能够在不损失精度或损失较小精度的情况下,大大减小了卷积神经网络参数量。
为了解决现有技术存在的技术问题,本发明的技术方案如下:
一种卷积神经网络中卷积核,在卷积神经网络任一输入层和输出层之间仅设置一个卷积核,所述卷积核的大小为f×f×(m+(n-1)*sc),其中,m+(n-1)*sc为通道长度,f×f×m为该卷积核的单次卷积维度,sc为通道方向的步长,n为输出层通道数;
在输入层每次取维度为f×f×m的输入特征与所述卷积核延通道方向依次进行点积并以sc为步长遍历整个卷积核,最终得到n个通道输出层。
进一步的,输入层为hi×wi×m的输入特征图,每次取f×f×m的输入特征与所述卷积核进行卷积,并在水平方向以sw步长和在垂直方向以sh步长遍历整个输入特征图,得到大小为ho×wo×n的输出特征图作为输出层。
进一步的,f为1。
进一步的,sc为1、64或192。
本发明还公开了一种适用于资源受限设备的卷积神经网络的卷积核压缩方法,在卷积神经网络任一输入层和输出层之间仅设置一个卷积核,其中,输入层大小为hi×wi×m的输入特征图、卷积核大小为f×f×(m+(n-1)*sc)的卷积核、输出层大小为ho×wo×n的输出特征图,sc为通道方向的步长,该算法包括以下步骤:
步骤S1:取输入特征图中取f×f×m维度的输入特征;
步骤S2:将f×f×m维度的输入特征依次与卷积核的第(1+x*sc)至第(m+x*sc)通道进行点积以遍历整个卷积核,得到一个维度为1×1×n的输出特征,其中x∈N且x<n;
步骤S3:在水平方向以sw步长以及在垂直方向以sh步长遍历整个输入特征图,每次取f×f×m个输入特征并重复步骤S2,得到大小为ho×wo×n的输出特征图。
将上述卷积神经网络部署在资源受限设备运行。
进一步的,f为1。
进一步的,sc为1、64或192。
与现有技术相比较,本发明具有的有益效果:
本发明通过设置单个通道深度扩展的卷积核,利用参数共享和密集连接的思想,将传统卷积算法中的多个卷积核压缩至一个卷积核,加强了特征图通道信息之间的交流,大大减少了卷积算法的参数量,并通过该方法建立了高效的模型,改善了现有模型参数量太大的缺点。
附图说明
图1为本发明中SD1×1卷积算法可视化示意图。
图2为1×1卷积算法可视化示意图。
图3为MobileNetV2模型的bottleneck模块。
图4为本发明模型的SDC-bottleneck模块的插图。
如下具体实施例将结合上述附图进一步说明本发明。
具体实施方式
以下将结合附图对本发明提供的技术方案作进一步说明。
参见图2,所示为本发明一种卷积神经网络中卷积核的示意图,在卷积神经网络任一输入层和输出层之间仅设置一个卷积核,所述卷积核的大小为f×f×(m+(n-1)*sc),其中,m+(n-1)*sc为通道长度,f×f×m为该卷积核的单次卷积维度,sc为通道方向的步长,n为输出层通道数;
在输入层每次取维度为f×f×m的输入特征与所述卷积核延通道方向依次进行点积并以sc为步长遍历整个卷积核,最终得到n个通道输出层。
其中,输入层为hi×wi×m的输入特征图,每次取f×f×m的输入特征与所述卷积核进行卷积,并在水平方向以sw步长和在垂直方向以sh步长遍历整个输入特征图,得到大小为ho×wo×n的输出特征图作为输出层。
本发明适用于资源受限设备的卷积神经网络的卷积核压缩方法通过以下步骤实现:
步骤S1:取输入特征图中取f×f×m维度的输入特征;
步骤S2:将f×f×m维度的输入特征依次与卷积核的第(1+x*sc)至第(m+x*sc)通道进行点积以遍历整个卷积核,得到一个维度为1×1×n的输出特征,其中x∈N且x<n;
步骤S3:在水平方向以sw步长以及在垂直方向以sh步长遍历整个输入特征图,每次取f×f×m个输入特征并重复步骤S2,得到大小为ho×wo×n的输出特征图。
将上述卷积神经网络部署在资源受限设备运行。
在一种优选实施方式中,本发明提供一种用于卷积神经网络压缩的1×1卷积算法(1×1SD通道卷积)如图2所示,包含大小为h×w×m的输入特征图、大小为1×1×(m+(n-1)*s)的卷积核和大小为h×w×n的输出特征图,s为通道方向的步长,并包括以下步骤:
步骤1:取输入特征图中1×1×m个输入特征。
步骤2:将输入特征依次与卷积核的第(1+x*s)至第(m+x*s)通道进行点积,得到一个维度为1×1×n的输出特征,其中x∈N且x<n。
步骤3:在水平方向以1步长,在垂直方向以1步长遍历整个特征图,每次取1×1×m个输入特征并重复步骤2,得到大小为h×w×n的输出特征图。
为了验证本发明的技术效果,将通过模型对比验证本发明的有效性:
我们将通道方向的步长s作为可调的超参数,这可以根据所需精度和参数量进行权衡调整。因此我们以通道方向步长为1、64和192设计了三种参数共享且密集连接通道卷积神经网络模型SDChannelNet-S1、SDChannelNet-S64和SDChannelNet-S192。
我们选择使用网上公开的数据集进行测试,测试平台为Ubuntu16.04,GPU为GTX1080ti,显存为11GB。实验选择CIFAR-10和CIFAR-100数据集。本发明的模型SDChannelNet遵循MobileNetV2模型的结构并仅对其进行删减和替换的操作。MobileNetV2模型主要由bottleneck模块构成,bottleneck模块如图3所示。首先,为了减少计算量,我们去掉了MobileNetV2的bottleneck模块中的第一个1×1卷积。然后,为了使通道数量与其保持一致,将深度卷积的深度乘数设置为6或1。最后,将第二个1×1卷积替换为1×1SD通道卷积。经过以上修改的bottleneck模块构成了SDChannelNet中的SDC-bottleneck模块,如图4所示。SDC-bottleneck模块的输入尺寸及输出尺寸与bottleneck模块保持完全一致。同时,我们还注意到MobileNetV2中全连接层的参数量占总参数量的37.5%,所以去掉了输出通道数为1280的卷积层,去掉之后模型的全连接层的参数量和计算量都只有原来的1/4。
CIFAR-10和CIFAR-100数据集都是由32×32的彩色图像组成。他们的训练集和测试集都分别包含50000张图片和10000张图片,它们的区别是CIFAR-10的图像被分为10种类别,而CIFAR-100的图像被分为100种类别。对于预处理,我们只对输入数据进行标准归一化处理并且没有进行任何的数据增强。我们用所有的训练集图片进行训练,并在训练结束后报告在测试集上的错误率。
本发明的所有模型均采用随机梯度下降优化函数进行训练并且使用的权重衰减系数为10-4和Nesterov动量系数为0.9。我们训练用的批量大小为64并迭代250轮。初始学习率设置为0.1,在总训练轮次的60%和80%将学习率除以10。训练时,我们在除了第一个卷积层的每个卷积层后加入一个dropout层来抑制过拟合。
本发明SDChannelNet网络结构如表1所示,表中每一行描述的是一个或多个相同层(块)组成的序列,并重复n次。相同序列中的所有层具有相同数量c个输出通道。每个序列的第一层的步长为s,剩余其他层的步长都为1。t代表深度卷积的深度因子。以上结构参考自MobileNetV2[CVPR.2018.00474]。为了与MobileNetV2进行公平对比,我们用与以上相同的实验设置。
表1 SDChannelNet网络结构
表2基于CIFAR-10数据集的结果对比
注1:ResNet with Stochastic Depth[Lecture Notes in Computer Science(including subseries Lecture Notes in Artificial Intelligence and LectureNotes in Bioinformatics),v 9908LNCS,p 646-661,2016]
注2:ResNet(pre-activation)[CVPR.2017.243]
本发明的实验数据均来源于以上两篇文章,具体如表2所示,是本发明的模型与MobileNetV2模型和其他模型基于CIFAR-10数据集的结果对比。可以看出当通道方向的步长为1时,本发明的模型的准确率已经接近MobileNetV2模型的准确率,而模型的总参数量仅有MobileNetV2模型的二十分之一。当通道方向的步长为64时,本发明的模型准确率已经超过了MobileNetV2模型和其他模型的准确率,而模型的总参数量只有MobileNetV2模型的十一分之一,这验证了本发明所提方法的有效性。
表3基于CIFAR-100数据集的结果对比
如表3所示,是本发明的模型与MobileNetV2模型和其他模型基于CIFAR-100数据集的结果对比。SDChannelNet-S192模型的准确率略低于MobileNetV2模型的准确率,但是参数量缩小了6.3倍,同时SDChannelNet-S192模型的准确率优于表中其他模型,这也验证了本发明所提方法的有效性。
以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (3)
1.一种适用于资源受限设备的卷积神经网络的卷积核压缩方法,其特征在于,在卷积神经网络任一输入层和输出层之间仅设置一个卷积核,其中,输入层大小为hi×wi×m的输入特征图、卷积核大小为f×f×(m+(n-1)*sc)的卷积核、输出层大小为ho×wo×n的输出特征图,sc为通道方向的步长,该算法包括以下步骤:
步骤S1:取输入特征图中取f×f×m维度的输入特征;
步骤S2:将f×f×m维度的输入特征依次与卷积核的第(1+x*sc)至第(m+x*sc)通道进行点积以遍历整个卷积核,得到一个维度为1×1×n的输出特征,其中x∈N且x<n;
步骤S3:在水平方向以sw步长以及在垂直方向以sh步长遍历整个输入特征图,每次取f×f×m个输入特征并重复步骤S2,得到大小为ho×wo×n的输出特征图;
将上述卷积神经网络部署在资源受限设备运行。
2.根据权利要求1所述的适用于资源受限设备的卷积神经网络的卷积核压缩方法,其特征在于,f为1。
3.根据权利要求1所述的适用于资源受限设备的卷积神经网络的卷积核压缩方法,其特征在于,sc为1、64或192。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910363712.2A CN110188863B (zh) | 2019-04-30 | 2019-04-30 | 一种适用于资源受限设备的卷积神经网络的卷积核压缩方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910363712.2A CN110188863B (zh) | 2019-04-30 | 2019-04-30 | 一种适用于资源受限设备的卷积神经网络的卷积核压缩方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110188863A CN110188863A (zh) | 2019-08-30 |
CN110188863B true CN110188863B (zh) | 2021-04-09 |
Family
ID=67715579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910363712.2A Expired - Fee Related CN110188863B (zh) | 2019-04-30 | 2019-04-30 | 一种适用于资源受限设备的卷积神经网络的卷积核压缩方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110188863B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782001B (zh) * | 2019-09-11 | 2024-04-09 | 东南大学 | 一种基于组卷积神经网络使用共享卷积核的改进方法 |
CN110728354B (zh) * | 2019-09-11 | 2024-04-09 | 东南大学 | 一种基于改进的滑动式分组卷积神经网络的图像处理方法 |
CN110619387B (zh) * | 2019-09-12 | 2023-06-20 | 复旦大学 | 一种基于卷积神经网络的通道扩展方法 |
CN110706232A (zh) * | 2019-09-29 | 2020-01-17 | 五邑大学 | 纹理图像分割方法、电子装置及计算机存储介质 |
CN110796027B (zh) * | 2019-10-10 | 2023-10-17 | 天津大学 | 一种基于紧密卷积的神经网络模型的声音场景识别方法 |
CN112580581A (zh) * | 2020-12-28 | 2021-03-30 | 英特灵达信息技术(深圳)有限公司 | 目标检测方法、装置及电子设备 |
CN113420811B (zh) * | 2021-06-23 | 2023-04-07 | 中国矿业大学(北京) | 一种使用深度学习的煤岩识别方法 |
CN114529825B (zh) * | 2022-04-24 | 2022-07-22 | 城云科技(中国)有限公司 | 用于消防通道占用目标检测的目标检测模型、方法及应用 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105869117A (zh) * | 2016-03-28 | 2016-08-17 | 上海交通大学 | 一种针对深度学习超分辨率技术的gpu加速方法 |
CN106447030A (zh) * | 2016-08-30 | 2017-02-22 | 深圳市诺比邻科技有限公司 | 卷积神经网络的计算资源优化方法及系统 |
CN107832835A (zh) * | 2017-11-14 | 2018-03-23 | 贵阳海信网络科技有限公司 | 一种卷积神经网络的轻量化方法及装置 |
CN108090565A (zh) * | 2018-01-16 | 2018-05-29 | 电子科技大学 | 一种卷积神经网络并行化训练加速方法 |
CN108596988A (zh) * | 2018-03-09 | 2018-09-28 | 西安电子科技大学 | 一种用于卷积神经网络的压缩算法 |
CN109376683A (zh) * | 2018-11-09 | 2019-02-22 | 中国科学院计算技术研究所 | 一种基于稠密图的视频分类方法和系统 |
-
2019
- 2019-04-30 CN CN201910363712.2A patent/CN110188863B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105869117A (zh) * | 2016-03-28 | 2016-08-17 | 上海交通大学 | 一种针对深度学习超分辨率技术的gpu加速方法 |
CN106447030A (zh) * | 2016-08-30 | 2017-02-22 | 深圳市诺比邻科技有限公司 | 卷积神经网络的计算资源优化方法及系统 |
CN107832835A (zh) * | 2017-11-14 | 2018-03-23 | 贵阳海信网络科技有限公司 | 一种卷积神经网络的轻量化方法及装置 |
CN108090565A (zh) * | 2018-01-16 | 2018-05-29 | 电子科技大学 | 一种卷积神经网络并行化训练加速方法 |
CN108596988A (zh) * | 2018-03-09 | 2018-09-28 | 西安电子科技大学 | 一种用于卷积神经网络的压缩算法 |
CN109376683A (zh) * | 2018-11-09 | 2019-02-22 | 中国科学院计算技术研究所 | 一种基于稠密图的视频分类方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110188863A (zh) | 2019-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110188863B (zh) | 一种适用于资源受限设备的卷积神经网络的卷积核压缩方法 | |
Tang et al. | Patch slimming for efficient vision transformers | |
CN114937151B (zh) | 基于多感受野和注意力特征金字塔的轻量级目标检测方法 | |
JP2022548712A (ja) | フィーチャーピラミッドを融合した敵対的生成ネットワークによる画像ヘイズ除去方法 | |
CN109598269A (zh) | 一种基于多分辨率输入与金字塔膨胀卷积的语义分割方法 | |
CN113807215B (zh) | 一种结合改进注意力机制和知识蒸馏的茶叶嫩芽分级方法 | |
CN110349230A (zh) | 一种基于深度自编码器的点云几何压缩的方法 | |
CN108615231B (zh) | 一种基于神经网络学习融合的全参考图像质量客观评价方法 | |
CN110569814B (zh) | 视频类别识别方法、装置、计算机设备及计算机存储介质 | |
CN111429349A (zh) | 基于光谱约束对抗网络的高光谱图像超分辨率方法 | |
CN109740451B (zh) | 基于重要性加权的道路场景图像语义分割方法 | |
CN108960333A (zh) | 基于深度学习的高光谱图像无损压缩方法 | |
CN113554084B (zh) | 基于剪枝和轻量卷积的车辆再辨识模型压缩方法及系统 | |
CN110781912A (zh) | 一种基于通道扩张倒置卷积神经网络的图像分类方法 | |
CN108765512A (zh) | 一种基于多层级特征的对抗图像生成方法 | |
CN113920043A (zh) | 基于残差通道注意力机制的双流遥感图像融合方法 | |
CN113076549B (zh) | 一种基于新型U-Net结构生成器的对抗网络图像隐写方法 | |
CN112818777B (zh) | 一种基于密集连接与特征增强的遥感图像目标检测方法 | |
CN110942106B (zh) | 一种基于平方平均的池化卷积神经网络图像分类方法 | |
CN113111889A (zh) | 用于边缘计算端的目标检测网络处理方法 | |
CN114331913B (zh) | 基于残差注意力块的运动模糊图像复原方法 | |
CN116503895A (zh) | 一种基于视觉Transformer的多细粒度遮挡行人重识别方法 | |
CN112989955B (zh) | 基于空时双流异构嫁接卷积神经网络人体动作识别方法 | |
CN108550152B (zh) | 基于深度特征感知推理的全参考图像质量客观评价方法 | |
CN118247821A (zh) | 一种基于混合注意力机制和多尺度特征融合的人员情绪识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210409 |