CN113487013B - 一种基于注意力机制的排序分组卷积方法 - Google Patents

一种基于注意力机制的排序分组卷积方法 Download PDF

Info

Publication number
CN113487013B
CN113487013B CN202110726539.5A CN202110726539A CN113487013B CN 113487013 B CN113487013 B CN 113487013B CN 202110726539 A CN202110726539 A CN 202110726539A CN 113487013 B CN113487013 B CN 113487013B
Authority
CN
China
Prior art keywords
epsilon
output
channel
convolution
sgc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110726539.5A
Other languages
English (en)
Other versions
CN113487013A (zh
Inventor
陈永刚
张一峰
李章维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Zhongwei Digital Technology Co ltd
Original Assignee
Hangzhou Zhongwei Digital Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Zhongwei Digital Technology Co ltd filed Critical Hangzhou Zhongwei Digital Technology Co ltd
Priority to CN202110726539.5A priority Critical patent/CN113487013B/zh
Publication of CN113487013A publication Critical patent/CN113487013A/zh
Application granted granted Critical
Publication of CN113487013B publication Critical patent/CN113487013B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

一种基于注意力机制的排序分组卷积方法,首先,通过全局平均池化获取输入特征图feature maps的权重信息;然后,根据这些权重信息对特征图feature maps进行排序;其后,将排序后的特征图feature maps高信息量与低信息量组合进行分组卷积,并经1×1卷积将分组卷积后的输出升到与输入一样的维度;最后,通过注意力机制对输出进行加权输出。本发明计算代价小、模型性能高。

Description

一种基于注意力机制的排序分组卷积方法
技术领域
本发明属于计算机视觉计算机应用领域,具体而言涉及一种基于注意力机制的排序分组卷积方法。
背景技术
深度的学习发展推动着计算机视觉发展,轻量型的深度神经网络研究也成为该领域的热点话题,例如图像分类、目标检测和语义分割等都出现大量的轻量型深度神经网络。通过不同的方法对深度神经网络在确保性能的前提下,进行缩减参数量获得轻量型的神经网络模型。因此,其对深度学习和计算机视觉领域的发展有着重要的意义。
调研文献发现,已有很多轻量型神经网络方法被提出,如:SqueezeNext(AmirGholami,Kiseok Kwon,Bichen Wu,et.al.SqueezeNext:Hardware-Aware Neural NetworkDesign[C].IEEE/CVF Conference on Computer Vision and Pattern RecognitionWorkshops(CVPRW),2018.即:Amir Gholami,Kiseok Kwon,Bichen Wu,et.al.硬件感知网络设计)、ShuffleNet(Xiangyu Zhang,Xinyu Zhou,Mengxiao Lin,Jian Sun.ShuffleNet:An Extremely Efficient Convolutional Neural Network for Mobile Devices[C].IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2018,pp:6848-6856.即:Xiangyu Zhang,Xinyu Zhou,Mengxiao Lin,Jian Sun.一个可用于移动设备的高效卷积神经网络)、MobileNetV2(Mark Sandler,Andrew Howard,Meng-long Zhu,Andrey Zhmoginov,Liang-Chieh Chen.MobileNetV2:Inverted Residuals and LinearBottlenecks[C].IEEE/CVF International Conference on Computer Vision Workshop(ICCVW).2018,pp:4510-4520.即:Mark Sandler,Andrew Howard,Meng-long Zhu,AndreyZhmoginov,Liang-Chieh Chen.反向的线性瓶颈残差块)。虽然现有很多轻量型的卷积神经网络可以在保证模型性能的前提下,降低模型参数量。但是在提升模型的精度方面不足并且容易丢失神经网络训练过程中的特征信息。
综上所述,已有的深度神经网络中分组卷积方法在模型性能方面距离实际应用的要求还有较大差距,迫切地需要改进。
发明内容
为了克服已有的分组卷积方法在深度神经网络模型精度方面的不足,本发明提出一种计算代价小且性能高的基于注意力机制的排序分组卷积方法。
本发明解决其技术问题所采用的技术方案是:
一种基于注意力机制的排序分组卷积方法,所述方法包括以下步骤:
1)输入:前一层卷积神经网络的输出A∈RH×W×C,利用全局平均池化获得A∈RH×W×C每个通道的权重信息,即x∈R1×1×C,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;
2)利用排序算法对通道权重x∈R1×1×C按大小进行排序,得到xi∈R1×1×C,其中i=1,2,3…C;
3)找到xi∈R1×1×C中每个值所对应的初始索引值xj,得到每个通道的索引与对应通道的权重信息进行匹配获得其中i,j=1,2,…,C;
4)按高信息量的通道与低信息量的通道进行成对分组,即 对A∈RH×W×C进行分组卷积运算,输出/>
5)将输出的特征图feature maps信息通过1×1卷积层增加通道数,得到B∈RH×W×C
6)将输出的B∈RH×W×C与输入的A∈RH×W×C进行特征融合,得到AB∈RH×W×C,并将AB∈RH×W×C经过通道注意力机制SENet加权输出。
本发明的技术构思为:首先,对输入的feature map获取权重信息;然后,根据这些权重信息对每一个feature map进行排序;其后,将排序后的feature map高信息量与低信息量组合进行分组卷积,并经1×1卷积将分组卷积后的输出与输入通道数匹配;最后,通过注意力机制对输出进行加权输出。本发明提出一种计算代价小、预测精度高的基于注意力机制的排序分组卷积方法。
本发明的有益效果表现在:一方面,用分组卷积的方式降低神经网络模型的参数量并且通过排序的方式让通道之间的信息融合进行卷积;另一方面,利用注意力机制,进一步的提取分组卷积后输出的特征信息,进而提高模型的性能。
附图说明
图1为排序分组卷积示意图。
图2为基于注意力机制的排序分组卷积模块示意图。
图3为基于注意力机制的排序分组卷积模块嵌入ResNet神经网络框架示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1和图2,一种基于注意力机制的排序分组卷积方法,包括以下步骤:
1)输入:前一层卷积神经网络的输出A∈RH×W×C,利用全局平均池化获得A∈RH×W×C每个通道的权重信息,即x∈R1×1×C,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;
2)利用排序算法对通道权重x∈R1×1×C按大小进行排序,得到xi∈R1×1×C,其中i=1,2,3…C;
3)找到xi∈R1×1×C中每个值所对应的初始索引值xj,得到每个通道的索引与对应通道的权重信息进行匹配获得其中i,j=1,2,…,C;
4)按高信息量的通道与低信息量的通道进行成对分组,即 对A∈RH×W×C进行分组卷积运算,输出/>
5)将输出的特征图feature maps信息通过1×1卷积层增加通道数,得到B∈RH×W×C
6)将输出的B∈RH×W×C与输入的A∈RH×W×C进行特征融合,得到AB∈RH×W×C,并将AB∈RH×W×C经过通道注意力机制SENet加权输出。
本实施例以嵌入ResNet的basisblock部分并应用于图像分类任务为例,一种基于注意力机制的排序分组卷积方法,包括以下步骤:
1)输入:是前一层卷积神经网络的输出A∈RH×W×C,利用全局平均池化获得A∈RH ×W×C每个通道的权重信息,即x∈R1×1×C,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;
2)利用排序算法对通道权重x∈R1×1×C按大小进行排序,得到xi∈R1×1×C,其中i=1,2,3…C;
3)找到xi∈R1×1×C中每个值所对应的初始索引值xj,得到每个通道的索引与对应通道的权重信息进行匹配获得其中i,j=1,2,…,C;
4)按高信息量的通道与低信息量的通道进行成对分组,即 对A∈RH×W×C进行分组卷积运算,输出/>
5)将输出的特征图feature maps信息通过1×1卷积层增加通道数,得到B∈RH×W×C
6)将输出的B∈RH×W×C与输入的A∈RH×W×C进行特征融合,得到AB∈RH×W×C,并将AB∈RH×W×C经过通道注意力机制SENet加权输出;
7)输出的C∈RH×W×C与A∈RH×W×C进行残差连接,得到新的残差块SGC_Block的整体输出。
8)将几个SGC_Block输入与输出拼接,并在首个SGC_Block前加入一个卷积层和末尾SGC_Block后加入一个全连接层组成一个图像分类模型SGC_Net。
以上说明是本发明以嵌入ResNet的basisblock部分并应用于图像分类任务为例进行的说明,并非限定本发明的实施范围,在不偏离本发明基本内容所涉及范围的前提下对其做各种变形和改进,不应排除在本发明的保护范围之外。

Claims (1)

1.一种基于注意力机制的排序分组卷积方法,其特征在于,该方法应用于图像分类任务,所述方法包括以下步骤:
1)输入:前一层卷积神经网络的输出A∈RH×W×C,利用全局平均池化获得A∈RH×W×C每个通道的权重信息,即x∈R1×1×C,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;
2)利用排序算法对通道权重x∈R1×1×C按大小进行排序,得到xi∈R1×1×C,其中i=1,2,3…C;
3)找到xi∈R1×1×C中每个值所对应的初始索引值xj,得到每个通道的索引与对应通道的权重信息进行匹配获得其中i,j=1,2,…,C;
4)按高信息量的通道与低信息量的通道进行成对分组,即 对A∈RH×W×C进行分组卷积运算,输出/>
5)将输出的特征图feature maps信息通过1×1卷积层增加通道数,得到B∈RH×W×C
6)将输出的B∈RH×W×C与输入的A∈RH×W×C进行特征融合,得到AB∈RH×W×C,并将AB∈RH ×W×C经过通道注意力机制SENet加权输出;
7)输出的C∈RH×W×C与A∈RH×W×C进行残差连接,得到新的残差块SGC_Block的整体输出;
8)将几个SGC_Block输入与输出拼接,并在首个SGC_Block前加入一个卷积层和末尾SGC_Block后加入一个全连接层组成一个图像分类模型SGC_Net。
CN202110726539.5A 2021-06-29 2021-06-29 一种基于注意力机制的排序分组卷积方法 Active CN113487013B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110726539.5A CN113487013B (zh) 2021-06-29 2021-06-29 一种基于注意力机制的排序分组卷积方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110726539.5A CN113487013B (zh) 2021-06-29 2021-06-29 一种基于注意力机制的排序分组卷积方法

Publications (2)

Publication Number Publication Date
CN113487013A CN113487013A (zh) 2021-10-08
CN113487013B true CN113487013B (zh) 2024-05-07

Family

ID=77936423

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110726539.5A Active CN113487013B (zh) 2021-06-29 2021-06-29 一种基于注意力机制的排序分组卷积方法

Country Status (1)

Country Link
CN (1) CN113487013B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447990A (zh) * 2018-10-22 2019-03-08 北京旷视科技有限公司 图像语义分割方法、装置、电子设备和计算机可读介质
CN111046967A (zh) * 2019-12-18 2020-04-21 江苏科技大学 一种基于卷积神经网络和注意力机制的水下图像分类方法
WO2020186886A1 (zh) * 2019-03-18 2020-09-24 中国科学院深圳先进技术研究院 一种人脸识别模型的生成方法及设备
CN111932529A (zh) * 2020-09-10 2020-11-13 腾讯科技(深圳)有限公司 一种图像分割方法、装置及系统
CN112597941A (zh) * 2020-12-29 2021-04-02 北京邮电大学 一种人脸识别方法、装置及电子设备
WO2021115159A1 (zh) * 2019-12-09 2021-06-17 中兴通讯股份有限公司 文字识别网络模型训练方法、文字识别方法、装置、终端及其计算机存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447990A (zh) * 2018-10-22 2019-03-08 北京旷视科技有限公司 图像语义分割方法、装置、电子设备和计算机可读介质
WO2020186886A1 (zh) * 2019-03-18 2020-09-24 中国科学院深圳先进技术研究院 一种人脸识别模型的生成方法及设备
WO2021115159A1 (zh) * 2019-12-09 2021-06-17 中兴通讯股份有限公司 文字识别网络模型训练方法、文字识别方法、装置、终端及其计算机存储介质
CN111046967A (zh) * 2019-12-18 2020-04-21 江苏科技大学 一种基于卷积神经网络和注意力机制的水下图像分类方法
CN111932529A (zh) * 2020-09-10 2020-11-13 腾讯科技(深圳)有限公司 一种图像分割方法、装置及系统
CN112597941A (zh) * 2020-12-29 2021-04-02 北京邮电大学 一种人脸识别方法、装置及电子设备

Also Published As

Publication number Publication date
CN113487013A (zh) 2021-10-08

Similar Documents

Publication Publication Date Title
CN111062951B (zh) 一种基于语义分割类内特征差异性的知识蒸馏方法
CN106504233B (zh) 基于Faster R-CNN的无人机巡检图像电力小部件识别方法及系统
CN111275711B (zh) 基于轻量级卷积神经网络模型的实时图像语义分割方法
CN111832453B (zh) 基于双路深度神经网络的无人驾驶场景实时语义分割方法
CN113326377A (zh) 一种基于企业关联关系的人名消歧方法及系统
CN109840904B (zh) 一种高铁接触网大尺度差异零部件检测方法
CN114782752B (zh) 基于自训练的小样本图像集成分类方法及装置
CN112270259A (zh) 基于轻量级卷积神经网络的sar图像舰船目标快速检测方法
CN115841683A (zh) 一种联合多级特征的轻量行人重识别方法
CN116310466A (zh) 基于局部无关区域筛选图神经网络的小样本图像分类方法
CN113255892A (zh) 一种解耦合的网络结构搜索方法、设备及可读存储介质
CN117689731B (zh) 一种基于改进YOLOv5模型的轻量化新能源重卡电池包识别方法
CN114693966A (zh) 一种基于深度学习的目标检测方法
CN112785610B (zh) 一种融合低层特征的车道线语义分割方法
CN114463340A (zh) 一种边缘信息引导的敏捷型遥感图像语义分割方法
CN114549845A (zh) 一种基于特征融合的Logo图像检测方法及系统
CN113487013B (zh) 一种基于注意力机制的排序分组卷积方法
CN112860977A (zh) 一种基于卷积神经网络的链路预测方法
CN113223006B (zh) 一种基于深度学习的轻量级目标语义分割方法
Zeng et al. Few-shot scale-insensitive object detection for edge computing platform
CN115424243A (zh) 基于yolov5-shufflenetv2的车位号码识别方法、设备和介质
Zhang et al. Network traffic classification method based on subspace triple attention mechanism
Qiang et al. Ensemble Method For Net Traffic Classification Based On Deep Learning
Zhou et al. FENet: Fast Real-time Semantic Edge Detection Network
CN112597329B (zh) 一种基于改进的语义分割网络的实时图像检索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant