CN113554151B - 一种基于卷积层间关系的注意力机制方法 - Google Patents

一种基于卷积层间关系的注意力机制方法 Download PDF

Info

Publication number
CN113554151B
CN113554151B CN202110768001.0A CN202110768001A CN113554151B CN 113554151 B CN113554151 B CN 113554151B CN 202110768001 A CN202110768001 A CN 202110768001A CN 113554151 B CN113554151 B CN 113554151B
Authority
CN
China
Prior art keywords
layer
channels
relation
current layer
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110768001.0A
Other languages
English (en)
Other versions
CN113554151A (zh
Inventor
李章维
王晓飞
胡安顺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110768001.0A priority Critical patent/CN113554151B/zh
Publication of CN113554151A publication Critical patent/CN113554151A/zh
Application granted granted Critical
Publication of CN113554151B publication Critical patent/CN113554151B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

一种基于卷积层间关系的注意力机制方法,首先,通过全局平均池化分别获取前一层和当前层的通道权重信息;然后,利用矩阵乘法计算两个权重向量之间的关系得到关系矩阵;其后,对关系矩阵经过两层1×1卷积层训练;最后,将训练后的关系矩阵进行列平均得到当前层关于前一层的全局权重信息,再作用于当前层的输出以自适应调节输出特征信息的重要性。本发明计算代价小、模型学习能力强。

Description

一种基于卷积层间关系的注意力机制方法
技术领域
本发明属于计算机视觉计算机应用领域,具体而言涉及一种基于卷积层间关系的注意力机制方法。
背景技术
卷积神经网络因其丰富的表征能力被广泛应用于深度学习的众多领域,为了提高卷积神经网络的学习能力和表征能力,出现了大量的注意力机制方法。通过关注重要的特征信息与抑制次要的信息实现神经网络对特征重要性的自适应调整。因此,注意力机制对深度学习发展有着重要的意义。
调研文献发现,已有很多注意力机制被提出,如:SENet(Jie Hu,Li Shen,SunGang.Squeeze-and-Excitation Networks[C].IEEE Conference on Computer Visionand Pattern Recognition(CVPR),2018,pp:7132-7141.即:Jie Hu,Li Shen,Sun Gang.压缩激励网络)、CBAM(Sanghyun Woo,Jongchan Park,Joon-Young Lee,In So Kweon.CBAM:Convolutional Block Attention Module[C].IEEE Conference on Computer Visionand Pattern Recognition(CVPR),2018,pp:3-19.即:Sanghyun Woo,Jongchan Park,Joon-Young Lee,In So Kweon.卷积注意模块)、Non-local(Xiaolong Wang,RossGirshick,Abhinav Gupta,Kaiming He.Non-local Neural Networks[C].IEEEConference on Computer Vision and Pattern Recognition(CVPR).2018,pp:7794-7803.即:Xiaolong Wang,Ross Girshick,Abhinav Gupta,Kaiming He.非局部神经网络)。虽然现有许多注意力机制可以很好的提升卷积神经网络的学习能力,但都基本上只利用单一的卷积层信息对这一层的卷积输出进行权重调整,考虑前一层对下一层有着直接作用,故只用单层的信息会降低注意力机制的性能。
综上所述,已有的注意力机制在对卷积层的信息利用上不足,需要改进注意力机制原有的单层信息利用方式。
发明内容
为了克服已有的注意力机制在获取权重信息的不足,本发明提出一种计算代价小且性能高的基于卷积层间关系的注意力机制。
本发明解决其技术问题所采用的技术方案是:
一种基于卷积层间关系的注意力机制方法,所述方法包括以下步骤:
1)本发明的输入为前一层卷积神经网络的输出A∈RH×W×C和当前层的输出A'∈R1 H ×W×C,分别对两个卷积层的输出进行全局平均池化获分别得到各自的通道权重信息,即x∈W1×1×C和x'∈W1 1×1×C,其中H和W分别为特征图featuremaps的高和宽,C表示通道的数量;
2)对获取的两个通道权重信息x,x'进行关系计算,利用矩阵乘法计算当前层每个通道与前一层全部通道的线性关系,当前层的权重向量与前一层的权重向量转置相乘得到卷积层间关系矩阵即x'×xT=M,其中C为通道的数量;
3)将关系矩阵M输入到两层卷积神经网络中进一步训练,得到其中C为通道的数量;
4)对训练获得的M'进行列平均处理,得到即将关系矩阵M进行训练再对其列平均得到当前层每个通道关于前一层的全局信息,其中C为通道的数量;
5)将最终的通道权重向量x”再作用于当前层的输出A',得到其中H和W分别为特征图feature maps的高和宽,C表示通道的数量。
本发明的技术构思为:首先,通过全局平均池化分别获取前一层和当前层的通道权重信息;然后,利用矩阵乘法计算两个权重向量之间的关系得到关系矩阵;其后,对关系矩阵经过两层1×1卷积层训练;最后,将训练后的关系矩阵进行列平均得到当前层关于前一层的全局权重信息,再作用于当前层的输出以自适应调节输出特征信息的重要性。本发明提出一种计算代价小、预测精度高的基于卷积层间关系的注意力机制方法。
本发明的有益效果表现在:一方面,利用卷积层之间的依赖关系表示特征信息的重要性;另一方面,对矩阵进行训练学习再提取出通道权重向量去调节输出的通道重要性进而提高模型的表征能力。
附图说明
图1为基于卷积层间关系的注意力机制示意图。
图2为基于卷积层间关系的注意力机制嵌入ResNet神经网络框架示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1,一种基于卷积层间关系注意力机制方法,包括以下步骤:
1)输入为前一层卷积神经网络的输出A∈RH×W×C和当前层的输出A'∈R1 H×W×C,分别对两个卷积层的输出进行全局平均池化获分别得到各自的通道权重信息,即x∈W1×1×C和x'∈W1 1×1×C,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;
2)对获取的两个通道权重信息x,x'进行关系计算,利用矩阵乘法计算当前层每个通道与前一层全部通道的线性关系,当前层的权重向量与前一层的权重向量转置相乘得到卷积层间关系矩阵即x'×xT=M,其中C为通道的数量;
3)将关系矩阵M输入到两层卷积神经网络中进一步训练,得到其中C为通道的数量;
4)对训练获得的M'进行列平均处理,得到即将关系矩阵M进行训练再对其列平均得到当前层每个通道关于前一层的全局信息,其中C为通道的数量;
5)将最终的通道权重向量x”再作用于当前层的输出A',得到其中H和W分别为特征图feature maps的高和宽,C表示通道的数量。
本实施例以嵌入ResNet的basisblock部分并应用于图像分类任务为例,一种基于卷积层间关系的注意力机制神经网络,包括以下步骤:
1)输入为前一层卷积神经网络的输出A∈RH×W×C和当前层的输出A'∈R1 H×W×C,分别对两个卷积层的输出进行全局平均池化获分别得到各自的通道权重信息即x∈W1×1×C和x'∈W1 1×1×C,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;
2)对获取的两个通道权重信息x,x'进行关系计算,利用矩阵乘法计算当前层每个通道与前一层全部通道的线性关系,当前层的权重向量与前一层的权重向量转置相乘得到卷积层间关系矩阵即x'×xT=M,其中C为通道的数量;
3)将关系矩阵M输入到两层卷积神经网络中进一步训练,得到其中C为通道的数量;
4)对训练获得的M'进行列平均处理,得到即将关系矩阵M进行训练再对其列平均得到当前层每个通道关于前一层的全局信息,其中C为通道的数量;
5)将最终的通道权重向量x”再作用于当前层的输出A',得到其中H和W分别为特征图feature maps的高和宽,C表示通道的数量。
6)将卷积层间关系注意力模块直接嵌入basisblock中,即卷积块中第一层卷积为前一层,第二层卷积为当前层,输出与第一层的输入进行残差连接,得到新的残差块BL_Block的整体输出。
7)将几个BL_Block输入与输出拼接,并在首个BL_Block前加入一个卷积层和末尾BL_Block后加入一个全连接层组成一个图像分类模型BL_Net。
以上说明是本发明以嵌入ResNet的basisblock部分并应用于图像分类任务为例进行的说明,并非限定本发明的实施范围,在不偏离本发明基本内容所涉及范围的前提下对其做各种变形和改进,不应排除在本发明的保护范围之外。

Claims (1)

1.一种图像分类的基于卷积层间关系的注意力机制方法,其特征在于,实施方法包括以下步骤:
1)输入为前一层卷积神经网络的输出A∈RH×W×C和当前层的输出A'∈R1 H×W×C,分别对两个卷积层的输出进行全局平均池化获分别得到各自的通道权重信息,即x∈W1×1×C和x'∈W1 1 ×1×C,其中H和W分别为特征图feature maps的高和宽,C表示通道的数量;
2)对获取的两个通道权重信息x,x'进行关系计算,利用矩阵乘法计算当前层每个通道与前一层全部通道的线性关系,当前层的权重向量与前一层的权重向量转置相乘得到卷积层间关系矩阵即x'×xT=M,其中C为通道的数量;
3)将关系矩阵M输入到两层卷积神经网络中进一步训练,得到其中C为通道的数量;
4)对训练获得的M'进行列平均处理,得到即将关系矩阵M进行训练再对其列平均得到当前层每个通道关于前一层的全局信息,其中C为通道的数量;
5)将最终的通道权重向量x”再作用于当前层的输出A',得到其中H和W分别为特征图feature maps的高和宽,C表示通道的数量。
CN202110768001.0A 2021-07-07 2021-07-07 一种基于卷积层间关系的注意力机制方法 Active CN113554151B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110768001.0A CN113554151B (zh) 2021-07-07 2021-07-07 一种基于卷积层间关系的注意力机制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110768001.0A CN113554151B (zh) 2021-07-07 2021-07-07 一种基于卷积层间关系的注意力机制方法

Publications (2)

Publication Number Publication Date
CN113554151A CN113554151A (zh) 2021-10-26
CN113554151B true CN113554151B (zh) 2024-03-22

Family

ID=78131458

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110768001.0A Active CN113554151B (zh) 2021-07-07 2021-07-07 一种基于卷积层间关系的注意力机制方法

Country Status (1)

Country Link
CN (1) CN113554151B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108985252A (zh) * 2018-07-27 2018-12-11 陕西师范大学 改进的脉冲深度神经网络的图像分类方法
CN110610129A (zh) * 2019-08-05 2019-12-24 华中科技大学 一种基于自注意力机制的深度学习人脸识别系统及方法
CN111160488A (zh) * 2020-01-02 2020-05-15 中国民航大学 融合注意力选择机制的CondenseNet算法
CN112183544A (zh) * 2020-09-29 2021-01-05 厦门大学 一种融合双通道的三层架构数学公式识别方法、系统和存储设备
AU2020103613A4 (en) * 2020-11-23 2021-02-04 Agricultural Information and Rural Economic Research Institute of Sichuan Academy of Agricultural Sciences Cnn and transfer learning based disease intelligent identification method and system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108985252A (zh) * 2018-07-27 2018-12-11 陕西师范大学 改进的脉冲深度神经网络的图像分类方法
CN110610129A (zh) * 2019-08-05 2019-12-24 华中科技大学 一种基于自注意力机制的深度学习人脸识别系统及方法
CN111160488A (zh) * 2020-01-02 2020-05-15 中国民航大学 融合注意力选择机制的CondenseNet算法
CN112183544A (zh) * 2020-09-29 2021-01-05 厦门大学 一种融合双通道的三层架构数学公式识别方法、系统和存储设备
AU2020103613A4 (en) * 2020-11-23 2021-02-04 Agricultural Information and Rural Economic Research Institute of Sichuan Academy of Agricultural Sciences Cnn and transfer learning based disease intelligent identification method and system

Also Published As

Publication number Publication date
CN113554151A (zh) 2021-10-26

Similar Documents

Publication Publication Date Title
CN111626300B (zh) 基于上下文感知的图像语义分割模型的图像分割方法及建模方法
CN111882002B (zh) 一种基于msf-am的低照度目标检测方法
CN113177882B (zh) 一种基于扩散模型的单帧图像超分辨处理方法
CN112016507A (zh) 基于超分辨率的车辆检测方法、装置、设备及存储介质
CN112115783A (zh) 基于深度知识迁移的人脸特征点检测方法、装置及设备
CN112733693B (zh) 一种全局感知高分辨率遥感影像多尺度残差道路提取方法
CN113066089B (zh) 一种基于注意力引导机制的实时图像语义分割方法
CN113642445B (zh) 一种基于全卷积神经网络的高光谱影像分类方法
Liu et al. RB-Net: Training highly accurate and efficient binary neural networks with reshaped point-wise convolution and balanced activation
CN114913379B (zh) 基于多任务动态对比学习的遥感图像小样本场景分类方法
CN110726898A (zh) 一种配电网故障类型识别方法
CN117333497A (zh) 一种基于掩码监督策略的高效建模的三维医学影像分割方法
CN114241218A (zh) 一种基于逐级注意力机制的目标显著性检测方法
CN116580184A (zh) 一种基于YOLOv7的轻量化模型
CN114998373A (zh) 基于多尺度损失函数的改进型U-Net云图分割方法
CN117830900A (zh) 一种无监督视频对象分割方法
CN113554151B (zh) 一种基于卷积层间关系的注意力机制方法
CN116794608A (zh) 基于改进MobileViT网络的雷达有源干扰识别方法
CN114494284B (zh) 一种基于显式监督区域关系的场景解析模型及方法
CN116152263A (zh) 一种基于cm-mlp网络的医学图像分割方法
CN112990336B (zh) 基于竞争注意力融合的深度三维点云分类网络构建方法
CN115035408A (zh) 基于迁移学习和注意力机制的无人机影像树种分类方法
CN114332103A (zh) 一种基于改进FastFCN的图像分割方法
CN114299091A (zh) 一种基于DA-Net的杂草自动分割方法
CN114331894A (zh) 一种基于潜在特征重构和掩模感知的人脸图像修复方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant