CN113487013A - 一种基于注意力机制的排序分组卷积方法 - Google Patents
一种基于注意力机制的排序分组卷积方法 Download PDFInfo
- Publication number
- CN113487013A CN113487013A CN202110726539.5A CN202110726539A CN113487013A CN 113487013 A CN113487013 A CN 113487013A CN 202110726539 A CN202110726539 A CN 202110726539A CN 113487013 A CN113487013 A CN 113487013A
- Authority
- CN
- China
- Prior art keywords
- output
- channel
- convolution
- channels
- attention mechanism
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000012163 sequencing technique Methods 0.000 title description 5
- 238000011176 pooling Methods 0.000 claims abstract description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 abstract description 3
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- CMDLYHXLYMIGIH-UHFFFAOYSA-N C.S.S Chemical compound C.S.S CMDLYHXLYMIGIH-UHFFFAOYSA-N 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
一种基于注意力机制的排序分组卷积方法,首先,通过全局平均池化获取输入特征图feature maps的权重信息;然后,根据这些权重信息对特征图feature maps进行排序;其后,将排序后的特征图feature maps高信息量与低信息量组合进行分组卷积,并经1×1卷积将分组卷积后的输出升到与输入一样的维度;最后,通过注意力机制对输出进行加权输出。本发明计算代价小、模型性能高。
Description
技术领域
本发明属于计算机视觉计算机应用领域,具体而言涉及一种基于注意力机制的排序分组卷积方法。
背景技术
深度的学习发展推动着计算机视觉发展,轻量型的深度神经网络研究也成为该领域的热点话题,例如图像分类、目标检测和语义分割等都出现大量的轻量型深度神经网络。通过不同的方法对深度神经网络在确保性能的前提下,进行缩减参数量获得轻量型的神经网络模型。因此,其对深度学习和计算机视觉领域的发展有着重要的意义。
调研文献发现,已有很多轻量型神经网络方法被提出,如:SqueezeNext(AmirGholami,Kiseok Kwon,Bichen Wu,et.al.SqueezeNext:Hardware-Aware Neural NetworkDesign[C].IEEE/CVF Conference on Computer Vision and Pattern RecognitionWorkshops(CVPRW),2018.即:Amir Gholami,Kiseok Kwon,Bichen Wu,et.al.硬件感知网络设计)、ShuffleNet(Xiangyu Zhang,Xinyu Zhou,Mengxiao Lin,Jian Sun.ShuffleNet:An Extremely Efficient Convolutional Neural Network for Mobile Devices[C].IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2018,pp:6848-6856.即:Xiangyu Zhang,Xinyu Zhou,Mengxiao Lin,Jian Sun.一个可用于移动设备的高效卷积神经网络)、MobileNetV2(Mark Sandler,Andrew Howard,Meng-long Zhu,Andrey Zhmoginov,Liang-Chieh Chen.MobileNetV2:Inverted Residuals and LinearBottlenecks[C].IEEE/CVF International Conference on Computer Vision Workshop(ICCVW).2018,pp:4510-4520.即:Mark Sandler,Andrew Howard,Meng-long Zhu,AndreyZhmoginov,Liang-Chieh Chen.反向的线性瓶颈残差块)。虽然现有很多轻量型的卷积神经网络可以在保证模型性能的前提下,降低模型参数量。但是在提升模型的精度方面不足并且容易丢失神经网络训练过程中的特征信息。
综上所述,已有的深度神经网络中分组卷积方法在模型性能方面距离实际应用的要求还有较大差距,迫切地需要改进。
发明内容
为了克服已有的分组卷积方法在深度神经网络模型精度方面的不足,本发明提出一种计算代价小且性能高的基于注意力机制的排序分组卷积方法。
本发明解决其技术问题所采用的技术方案是:
一种基于注意力机制的排序分组卷积方法,所述方法包括以下步骤:
1)输入:前一层卷积神经网络的输出A∈RH×W×C,利用全局平均池化获得A∈RH×W×C每个通道的权重信息,即x∈R1×1×C,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;
2)利用排序算法对通道权重x∈R1×1×C按大小进行排序,得到xi∈R1×1×C,其中i=1,2,3…C;
6)将输出的B∈RH×W×C与输入的A∈RH×W×C进行特征融合,得到AB∈RH×W×C,并将AB∈RH×W×C经过通道注意力机制SENet加权输出。
本发明的技术构思为:首先,对输入的feature map获取权重信息;然后,根据这些权重信息对每一个feature map进行排序;其后,将排序后的feature map高信息量与低信息量组合进行分组卷积,并经1×1卷积将分组卷积后的输出与输入通道数匹配;最后,通过注意力机制对输出进行加权输出。本发明提出一种计算代价小、预测精度高的基于注意力机制的排序分组卷积方法。
本发明的有益效果表现在:一方面,用分组卷积的方式降低神经网络模型的参数量并且通过排序的方式让通道之间的信息融合进行卷积;另一方面,利用注意力机制,进一步的提取分组卷积后输出的特征信息,进而提高模型的性能。
附图说明
图1为排序分组卷积示意图。
图2为基于注意力机制的排序分组卷积模块示意图。
图3为基于注意力机制的排序分组卷积模块嵌入ResNet神经网络框架示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1和图2,一种基于注意力机制的排序分组卷积方法,包括以下步骤:
1)输入:前一层卷积神经网络的输出A∈RH×W×C,利用全局平均池化获得A∈RH×W×C每个通道的权重信息,即x∈R1×1×C,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;
2)利用排序算法对通道权重x∈R1×1×C按大小进行排序,得到xi∈R1×1×C,其中i=1,2,3…C;
6)将输出的B∈RH×W×C与输入的A∈RH×W×C进行特征融合,得到AB∈RH×W×C,并将AB∈RH×W×C经过通道注意力机制SENet加权输出。
本实施例以嵌入ResNet的basisblock部分并应用于图像分类任务为例,一种基于注意力机制的排序分组卷积方法,包括以下步骤:
1)输入:是前一层卷积神经网络的输出A∈RH×W×C,利用全局平均池化获得A∈RH ×W×C每个通道的权重信息,即x∈R1×1×C,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;
2)利用排序算法对通道权重x∈R1×1×C按大小进行排序,得到xi∈R1×1×C,其中i=1,2,3…C;
6)将输出的B∈RH×W×C与输入的A∈RH×W×C进行特征融合,得到AB∈RH×W×C,并将AB∈RH×W×C经过通道注意力机制SENet加权输出;
7)输出的C∈RH×W×C与A∈RH×W×C进行残差连接,得到新的残差块SGC_Block的整体输出。
8)将几个SGC_Block输入与输出拼接,并在首个SGC_Block前加入一个卷积层和末尾SGC_Block后加入一个全连接层组成一个图像分类模型SGC_Net。
以上说明是本发明以嵌入ResNet的basisblock部分并应用于图像分类任务为例进行的说明,并非限定本发明的实施范围,在不偏离本发明基本内容所涉及范围的前提下对其做各种变形和改进,不应排除在本发明的保护范围之外。
Claims (1)
1.一种基于注意力机制的排序分组卷积方法,其特征在于,所述方法包括以下步骤:
1)输入:前一层卷积神经网络的输出A∈RH×W×C,利用全局平均池化获得A∈RH×W×C每个通道的权重信息,即x∈R1×1×C,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;
2)利用排序算法对通道权重x∈R1×1×C按大小进行排序,得到xi∈R1×1×C,其中i=1,2,3…C;
6)将输出的B∈RH×W×C与输入的A∈RH×W×C进行特征融合,得到AB∈RH×W×C,并将AB∈RH ×W×C经过通道注意力机制SENet加权输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110726539.5A CN113487013B (zh) | 2021-06-29 | 2021-06-29 | 一种基于注意力机制的排序分组卷积方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110726539.5A CN113487013B (zh) | 2021-06-29 | 2021-06-29 | 一种基于注意力机制的排序分组卷积方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113487013A true CN113487013A (zh) | 2021-10-08 |
CN113487013B CN113487013B (zh) | 2024-05-07 |
Family
ID=77936423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110726539.5A Active CN113487013B (zh) | 2021-06-29 | 2021-06-29 | 一种基于注意力机制的排序分组卷积方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113487013B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447990A (zh) * | 2018-10-22 | 2019-03-08 | 北京旷视科技有限公司 | 图像语义分割方法、装置、电子设备和计算机可读介质 |
CN111046967A (zh) * | 2019-12-18 | 2020-04-21 | 江苏科技大学 | 一种基于卷积神经网络和注意力机制的水下图像分类方法 |
WO2020186886A1 (zh) * | 2019-03-18 | 2020-09-24 | 中国科学院深圳先进技术研究院 | 一种人脸识别模型的生成方法及设备 |
CN111932529A (zh) * | 2020-09-10 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 一种图像分割方法、装置及系统 |
CN112597941A (zh) * | 2020-12-29 | 2021-04-02 | 北京邮电大学 | 一种人脸识别方法、装置及电子设备 |
WO2021115159A1 (zh) * | 2019-12-09 | 2021-06-17 | 中兴通讯股份有限公司 | 文字识别网络模型训练方法、文字识别方法、装置、终端及其计算机存储介质 |
-
2021
- 2021-06-29 CN CN202110726539.5A patent/CN113487013B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447990A (zh) * | 2018-10-22 | 2019-03-08 | 北京旷视科技有限公司 | 图像语义分割方法、装置、电子设备和计算机可读介质 |
WO2020186886A1 (zh) * | 2019-03-18 | 2020-09-24 | 中国科学院深圳先进技术研究院 | 一种人脸识别模型的生成方法及设备 |
WO2021115159A1 (zh) * | 2019-12-09 | 2021-06-17 | 中兴通讯股份有限公司 | 文字识别网络模型训练方法、文字识别方法、装置、终端及其计算机存储介质 |
CN111046967A (zh) * | 2019-12-18 | 2020-04-21 | 江苏科技大学 | 一种基于卷积神经网络和注意力机制的水下图像分类方法 |
CN111932529A (zh) * | 2020-09-10 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 一种图像分割方法、装置及系统 |
CN112597941A (zh) * | 2020-12-29 | 2021-04-02 | 北京邮电大学 | 一种人脸识别方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113487013B (zh) | 2024-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106504233B (zh) | 基于Faster R-CNN的无人机巡检图像电力小部件识别方法及系统 | |
CN111062951A (zh) | 一种基于语义分割类内特征差异性的知识蒸馏方法 | |
CN111368754B (zh) | 一种基于全局上下文信息的机场跑道异物检测方法 | |
CN109344263A (zh) | 一种地址匹配方法 | |
CN110717493B (zh) | 一种基于深度学习的含堆叠字符的车牌识别方法 | |
CN114998688B (zh) | 一种基于YOLOv4改进算法的大视场目标检测方法 | |
CN113378938B (zh) | 一种基于边Transformer图神经网络的小样本图像分类方法及系统 | |
CN109376763A (zh) | 基于多样本推理神经网络的样本分类方法、系统及介质 | |
CN114170526B (zh) | 基于轻量化网络的遥感影像多尺度目标检测识别方法 | |
CN109886176A (zh) | 复杂驾驶场景下的车道线检测方法 | |
CN113255892A (zh) | 一种解耦合的网络结构搜索方法、设备及可读存储介质 | |
CN116310466A (zh) | 基于局部无关区域筛选图神经网络的小样本图像分类方法 | |
CN115631186A (zh) | 一种基于双分支神经网络的工业元件表面缺陷检测方法 | |
CN113255574B (zh) | 城市街道语义分割方法及自动驾驶方法 | |
CN114579794A (zh) | 特征一致性建议的多尺度融合地标图像检索方法及系统 | |
CN110796182A (zh) | 一种少量样本的票据分类方法及系统 | |
CN118247645A (zh) | 一种新型DDCE-YOLOv8s模型的水下图像目标检测方法 | |
CN113707213A (zh) | 基于深度学习的蛋白质-配体结合位点预测方法 | |
CN117649526A (zh) | 一种面向自动驾驶道路场景的高精度语义分割方法 | |
CN113487013A (zh) | 一种基于注意力机制的排序分组卷积方法 | |
CN112529057A (zh) | 一种基于图卷积网络的图相似性计算方法及装置 | |
CN107273478A (zh) | 一种基于Group Lasso的半监督哈希图像搜索方法 | |
CN116977860A (zh) | 一种基于上下文感知局部增强的轻量级目标检测方法及系统 | |
CN115063692B (zh) | 一种基于主动学习的遥感图像场景分类方法 | |
CN116403071A (zh) | 基于特征重构的少样本混凝土缺陷检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |