CN114492631A - 一种基于通道注意力的空间注意力计算方法 - Google Patents

一种基于通道注意力的空间注意力计算方法 Download PDF

Info

Publication number
CN114492631A
CN114492631A CN202210087706.0A CN202210087706A CN114492631A CN 114492631 A CN114492631 A CN 114492631A CN 202210087706 A CN202210087706 A CN 202210087706A CN 114492631 A CN114492631 A CN 114492631A
Authority
CN
China
Prior art keywords
channel
attention
important
spatial
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210087706.0A
Other languages
English (en)
Inventor
李国强
方奇
查琳琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN202210087706.0A priority Critical patent/CN114492631A/zh
Publication of CN114492631A publication Critical patent/CN114492631A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于通道注意力的空间注意力计算方法,涉及深度卷积神经网络技术领域,设计通道注意力模块前向推导出通道注意力图和通道细化特征图。本发明根据通道注意力图,双分支空间注意力模块将通道细化特征图的通道分组,分为重要通道和次重要通道。这使得空间注意力和通道注意力有机地联系起来。接着将分好的通道组进行一系列的非线性操作,进而获得一个二维空间注意力图。本发明使得空间注意力和通道注意力紧密有机的联系起来,便于嵌入到目前任意主流的深度卷积神经网络中,提升网络模型的性能表现。

Description

一种基于通道注意力的空间注意力计算方法
技术领域
本发明涉及深度卷积神经网络、通道注意力以及空间注意力技术领域,尤其是一种基于通道注意力的空间注意力计算方法。
背景技术
在过去的几年里,许多学者都热衷于探索更深的神经网络来提升模型在视觉任务上的性能表现。然而,随着神经网络层数的加深,其在图像分类,目标检测等视觉任务上的精度并没有显著提升,即网络性能表现的提升幅度与网络层数的加深程度并不是正比关系。
在生物医学界有研究者发现,在人类视觉系统中,注意力机制在获取重要信息方面发挥着重要作用。受到这种现象的启发,许多学者尝试着在深度卷积神经网络中结合注意力机制来提升模型性能。在这些学者的工作中,其中最具代表性的就是2017年由Hu etal.提出的Squeeze-and-Excitation(SENet)。该注意力模块针对特征图的通道维度进行关键特征的加强,进而在图像分类任务上提升模型性能表现。SENet是一个较轻量化嵌入式注意力模块,该模块可以嵌入当前任意主流的深度卷积网络架构中。在SENet模块基础上,2020年由Wang et al.提出了Efficient Channel Attention(ECA)。该模块采用一维卷积代替了原SENet中的全连接层,使得通道注意力的推导速度大幅提升,并且克服了通道降维带来的精度损失。
SENet和ECA模块均揭示了特征图通道之间的关系,但是二者都没有考虑空间注意力的重要性,即没有考虑特征图在空间维度上的关键特征加强。空间注意力是对特征图的关键像素的加强。2018年由Woo et al.提出了Convolutional Block Attention Module(CBAM)。该注意力模块是首个考虑同时使用通道注意力和空间注意力的模块,以顺序连接的方式连接了通道注意力子模块和空间注意力子模块,即先通过通道注意力模块进行通道维度上关键特征的加强,再通过空间注意力模块进行空间维度上关键特征的加强。然而,在CBAM模块中的空间注意力子模块并没有和通道注意力子模块有机的结合,即空间注意力依然将重要通道和次重要通道放在一起进行池化操作。这会使得特征图中原关键特征随着平均池化操作减弱,进而使得网络模型的性能表现没有得到充分发挥。
发明内容
本发明需要解决的技术问题是提供一种基于通道注意力的空间注意力计算方法,提出的通道分离技术,使得空间注意力和通道注意力紧密有机的联系起来,便于嵌入到目前任意主流的深度卷积神经网络中,提升网络模型的性能表现。
为解决上述技术问题,本发明所采用的技术方案是:
一种基于通道注意力的空间注意力计算方法,包括以下步骤:
步骤1:获取通道注意力图和通道细化特征图;
步骤2:对对步骤1中得到的通道细化特征图的通道进行分组,将通道细化特征图的通道分为重要特征和次重要特征;
步骤3:对步骤2中得到的重要特征和次重要特征均进行通道轴方向的平均池化和最大池化操作;将各自的两种池化结果进行特征聚合;
步骤4:将步骤3中得到的聚合后的结果经过一层共享卷积层,进而生成一对空间特征描述符;
步骤5:对步骤4中获得的这对空间特征描述符进行非线性操作,即经过BN层和ReLU层;
步骤6:将步骤5中得到的这两个空间特征描述符进行通道维度上的聚合,再经过一层卷积层,进而获得空间注意力描述子;
步骤7:将步骤6中得到的空间注意力描述子经过BN层,ReLU层和Sigmoid层,进而获得了一个2D的空间注意力图。
本发明技术方案的进一步改进在于:在步骤1中获取的通道注意力图和通道细化特征均由SENet或ECA模块前向推导生成;其中,通道注意力图是一个1D向量,向量中的每一个值对应于通道细化特征中对应通道的重要程度。
本发明技术方案的进一步改进在于:在步骤2中采用通道分离技术对通道细化特征的通道分组,分为重要特征和次重要特征,具体操作步骤包括:
(1)获得通道细化特征图的通道维度,即通道数C;
(2)引入超参数:分离率λ,该参数是重要通道和次重要通道的分界线;将通道数和分离率相乘,取乘积的最近偶数,获得重要通道的数量Cin;使用通道数减去重要通道数,获得次重要通道数Csubin;上述的计算过程如公式(1)和(2)所示:
Cim=|C·λ|even (1)
Csubim=C-Cim (2)
其中|t|even表示距离t值最近的偶数;
(3)在通道注意力图中找到前Cin个最大的值,同时在这Cin个大值里面确定最小的值m;
(4)将通道注意力图中的值和m进行比较,大于或等于m的值重新赋为1,小于m的值重新赋为0,从而获得了重要通道掩码important_mask;
(5)将通道注意力图中的值和m进行比较,大于或等于m的值重新赋为0,小于m的值重新赋为1,从而获得了次重要通道掩码sub-important_mask;
(6)将重要通道掩码和次重要通道掩码分别和通道细化特征图进行元素相乘,进而获得重要特征和次重要特征。
本发明技术方案的进一步改进在于:在步骤3中对重要特征和次重要特征均沿着通道轴方向进行平均池化和最大池化操作;池化操作结束后,将各自的两种池化结果进行通道维度上的聚合。
本发明技术方案的进一步改进在于:在步骤4中对聚合结果使用一层共用卷积层,从而获得一对空间特征描述符,卷积层的卷积核大小为7×7。
本发明技术方案的进一步改进在于:步骤5中对步骤4中获得的这两个空间特征描述符进行批量归一化和使用ReLU函数激活。
本发明技术方案的进一步改进在于:在步骤6中将经过非线性操作后的空间特征描述符在通道维度上进行特征聚合,再经过一层卷积层,得到空间注意力描述子;该卷积层不同于之前的共享卷积层,其卷积核的大小依然为7×7,卷积核尺寸的选择和选择共享卷积层卷积核尺寸的思想一致。
本发明技术方案的进一步改进在于:在在所述步骤7中对空间注意力描述子进行一系列的非线性操作,非线性操作顺序为BN层,ReLU层和Sigmoid层,最终获得一个2D的空间注意力图;该注意力图是一个二维矩阵,大小和原通道细化特征图大小一致;
将上述步骤用数学公式进行表示,如公式(3),(4),(5),(6)所示:
F’=F’1+F’2 (3)
S1=Φ1(C2D1,7×7[AvgPool(F'1);MaxPool(F'1)]) (4)
S2=Φ1(C2D1,7×7[AvgPool(F'2);MaxPool(F'2)]) (5)
AS=Φ2(C2D2,7×7[S1;S2]) (6)
其中,(3)式表示通道分离的过程,F’表示通道细化特征,F’1表示重要特征,F’2表示次重要特征;(4)式中Φ1表示BN层和ReLU层的集合,即非线性操作;C2D1,7×7表示共享卷积层,其卷积核大小为7×7;[a;b]表示将a,b两个特征聚合起来;AvgPool表示平均池化操作;MaxPool表示最大池化操作;(4)式生成的是重要特征对应的空间特征描述符S1,(5)式生成的是次重要特征对应的空间特征描述符S2;(6)式中Φ2表示BN层,ReLU层和Sigmoid层的集合;C2D2,7×7表示第二个卷积层,其卷积核尺寸为7×7。
本发明技术方案的进一步改进在于:
由于采用了上述技术方案,本发明取得的技术进步是:
本发明提出的通道分离技术,在保持原通道顺序的同时,将重要通道和次重要通道分成两部分。这使得空间注意力和通道注意力紧密有机的联系起来。
本发明提出的双分支空间注意力模块可以无缝地连接在通道注意力模块后,即可以嵌入到目前任意主流的深度卷积神经网络中。
本发明提出的双分支空间注意力模块可以在空间维度上进一步加强关键特征,从而提升网络模型的性能表现。
步骤5中对这两个空间特征描述符进行批量归一化和使用ReLU函数激活,便于加速网络训练速度。
附图说明
图1为本发明的双分支空间注意力模块的结构示意图;
图2为发明的双分支空间注意力模块实现的流程图;
图3为在残差单元已有通道注意力模块的情况下,嵌入双分支空间注意力模块的示意图。
具体实施方式
下面结合实施例对本发明做进一步详细说明:
如图1至图3所示,一种基于通道注意力的空间注意力计算方法,是一种一种新的空间注意力模块,双分支空间注意力模块。通道注意力模块前向推导出通道注意力图(Channel attention map)和通道细化特征图(Channel refined feature map)。根据通道注意力图,双分支空间注意力模块将通道细化特征图的通道分组,分为重要通道和次重要通道。这使得空间注意力和通道注意力有机地联系起来。接着将分好的通道组进行一系列的非线性操作,进而获得一个二维空间注意力图。本发明对于计算基于通道注意力的空间注意力具有重要指导意义。
其结构图如图1所示,包括以下步骤:
步骤1:获取通道注意力模块前向推导得出的结果:通道注意力图(Channelattention map)和通道细化特征图(Channel refined feature map)。
通道注意力图是一维向量,每个值都在0和1之间。在这里,我们将其中的每个值看成通道细化特征图对应通道的重要程度。这是空间注意力和通道注意力紧密有机联系起来的关键。
步骤2:根据通道注意力图中每个值的物理意义,采用本发明提出的通道分离技术将通道细化特征图的通道进行分组,分成两组:重要通道(important channels)和次重要通道(sub-important channels),即重要特征和次重要特征。我们将这种通道分组方法命名为通道分离技术,具体操作如下:
(1)首先获得通道细化特征图的通道维度,即通道数C;
(2)引入超参数:分离率λ,该参数是重要通道和次重要通道的分界线。将通道数和分离率相乘,取乘积的最近偶数,即可获得重要通道的数量Cim。使用通道数减去重要通道数,即可获得次重要通道数Csubim。上述的计算过程如公式(1)和(2)所示:
Cim=|C·λ|even (1)
Csubim=C-Cim (2)
其中|t|even表示距离t值最近的偶数。
(3)在通道注意力图中找到前Cim个最大的值,同时在这Cim个大值里面确定最小的值m。
(4)将通道注意力图中的值和m进行比较,大于或等于m的值重新赋为1,小于m的值重新赋为0,从而获得了重要通道掩码important_mask。
(5)将通道注意力图中的值和m进行比较,大于或等于m的值重新赋为0,小于m的值重新赋为1,从而获得了次重要通道掩码sub-important_mask。
(6)将重要通道掩码和次重要通道掩码分别和通道细化特征图进行元素相乘,进而获得重要特征和次重要特征。
值得注意的是,经过通道分离后,原通道细化特征图中的通道顺序是不变的,重要特征保持了重要通道信息,仅仅将次重要通道中数值变为0。反之,次重要特征保持了次重要通道信息,仅仅将重要通道中数值变为0。
步骤3:对重要特征和次重要特征均沿着通道轴的方向进行平均池化和最大池化操作。由此可以获得重要特征的平均池化和最大池化特征描述子,次重要特征的平均池化和最大池化特征描述子。将重要特征的平均池化和最大池化特征描述子在通道维度进行聚合。同样地,将次重要特征的平均池化和最大池化特征描述子在通道维度进行聚合。
步骤4:对特征聚合后的结果使用一层共享卷积层,进而获得一对空间特征描述符。共享卷积层的大小为7×7。值得注意的是,更大的卷积核意味着更大的感受野,但模块的性能并不是随着共享卷积核的尺寸变大而提升,需要同时考虑最后特征图的尺寸大小。
步骤5:对这两个空间特征描述符进行批量归一化,对这对空间特征描述符进行非线性操作,即经过BN层和使用ReLU函数激活。
步骤6:将经过非线性操作后的空间特征描述符在通道维度上进行特征聚合,经过一层卷积层,得到空间注意力描述子。该卷积层的大小依然为7×7,卷积核尺寸的选择和选择共享卷积层卷积核尺寸的思想一致,这里不再赘述。
步骤7:对空间注意力描述子进行一系列的非线性操作,非线性操作顺序为BN层,ReLU层,Sigmoid层。至此获得了空间注意力图AS。该注意力图是二维矩阵,其大小和通道细化特征图大小一致。
将上述步骤用数学公式进行表示,如公式(3),(4),(5),(6)所示:
F’=F’1+F’2 (3)
S1=Φ1(C2D1,7×7[AvgPool(F'1);MaxPool(F'1)]) (4)
S2=Φ1(C2D1,7×7[AvgPool(F'2);MaxPool(F'2)]) (5)
AS=Φ2(C2D2,7×7[S1;S2]) (6)
其中(3)式表示通道分离的过程,F'表示通道细化特征,F'1表示重要特征,F'2表示次重要特征。(4)式中Φ1表示BN层和ReLU层的集合,即非线性操作;C2D1,7×7表示共享卷积层,其卷积核大小为7×7;[a;b]表示将a,b两个特征聚合起来;AvgPool表示平均池化操作;MaxPool表示最大池化操作。(5)式和(4)式中的符号同理,这里不在赘述。(4)式生成的是重要特征对应的空间特征描述符S1,(5)式生成的是次重要特征对应的空间特征描述符S2。(6)式中Φ2表示BN层,ReLU层和Sigmoid层的集合;C2D2,7×7表示第二个卷积层,其卷积核尺寸为7×7。
步骤8:将通道细化特征图和空间注意力图进行元素相乘,即可获得最终细化特征图。
最终细化特征图可以用如下公式表示,如公式(7):
Figure BDA0003487692580000081
其中F”表示最终细化特征;
Figure BDA0003487692580000082
表示矩阵元素相乘。
在这里,以目前主流的残差卷积神经网络为例,将双分支空间注意力模块嵌入已有通道注意力模块的残差单元中,其结构如附图中图3所示。双分支空间注意力模块将在通道注意力模块后,进一步在空间维度上对特征图的关键特征进行加强,从而使得网络模型的性能得到进一步提升。

Claims (8)

1.一种基于通道注意力的空间注意力计算方法,其特征在于:包括以下步骤:
步骤1:获取通道注意力图和通道细化特征图;
步骤2:对对步骤1中得到的通道细化特征图的通道进行分组,将通道细化特征图的通道分为重要特征和次重要特征;
步骤3:对步骤2中得到的重要特征和次重要特征均进行通道轴方向的平均池化和最大池化操作;将各自的两种池化结果进行特征聚合;
步骤4:将步骤3中得到的聚合后的结果经过一层共享卷积层,进而生成一对空间特征描述符;
步骤5:对步骤4中获得的这对空间特征描述符进行非线性操作,即经过BN层和ReLU层;
步骤6:将步骤5中得到的这两个空间特征描述符进行通道维度上的聚合,再经过一层卷积层,进而获得空间注意力描述子;
步骤7:将步骤6中得到的空间注意力描述子经过BN层,ReLU层和Sigmoid层,进而获得了一个2D的空间注意力图。
2.根据权利要求1所述的一种基于通道注意力的空间注意力计算方法,其特征在于:在步骤1中获取的通道注意力图和通道细化特征均由SENet或ECA模块前向推导生成;其中,通道注意力图是一个1D向量,向量中的每一个值对应于通道细化特征中对应通道的重要程度。
3.根据权利要求1所述的一种基于通道注意力的空间注意力计算方法,其特征在于:在步骤2中采用通道分离技术对通道细化特征的通道分组,分为重要特征和次重要特征,具体操作步骤包括:
(1)获得通道细化特征图的通道维度,即通道数C;
(2)引入超参数:分离率λ,该参数是重要通道和次重要通道的分界线;将通道数和分离率相乘,取乘积的最近偶数,获得重要通道的数量Cim;使用通道数减去重要通道数,获得次重要通道数Csubim;上述的计算过程如公式(1)和(2)所示:
Cim=|C·λ|even (1)
Csubim=C-CimCsubim=C-Cim (2)
其中|t|even表示距离t值最近的偶数;
(3)在通道注意力图中找到前Cim个最大的值,同时在这Cim个大值里面确定最小的值m;
(4)将通道注意力图中的值和m进行比较,大于或等于m的值重新赋为1,小于m的值重新赋为0,从而获得了重要通道掩码important_mask;
(5)将通道注意力图中的值和m进行比较,大于或等于m的值重新赋为0,小于m的值重新赋为1,从而获得了次重要通道掩码sub-important_mask;
(6)将重要通道掩码和次重要通道掩码分别和通道细化特征图进行元素相乘,进而获得重要特征和次重要特征。
4.根据权利要求1所述的一种基于通道注意力的空间注意力计算方法,其特征在于:在步骤3中对重要特征和次重要特征均沿着通道轴方向进行平均池化和最大池化操作;池化操作结束后,将各自的两种池化结果进行通道维度上的聚合。
5.根据权利要求1所述的一种基于通道注意力的空间注意力计算方法,其特征在于:在步骤4中对聚合结果使用一层共用卷积层,从而获得一对空间特征描述符,卷积层的卷积核大小为7×7。
6.根据权利要求1所述的一种基于通道注意力的空间注意力计算方法,其特征在于:步骤5中对步骤4中获得的这两个空间特征描述符进行批量归一化和使用ReLU函数激活。
7.根据权利要求1所述的一种基于通道注意力的空间注意力计算方法,其特征在于:在步骤6中将经过非线性操作后的空间特征描述符在通道维度上进行特征聚合,再经过一层卷积层,得到空间注意力描述子;该卷积层不同于之前的共享卷积层,其卷积核的大小依然为7×7,卷积核尺寸的选择和选择共享卷积层卷积核尺寸的思想一致。
8.根据权利要求1所述一种基于通道注意力的空间注意力计算方法,其特征在于:在在所述步骤7中对空间注意力描述子进行一系列的非线性操作,非线性操作顺序为BN层,ReLU层和Sigmoid层,最终获得一个2D的空间注意力图;该注意力图是一个二维矩阵,大小和原通道细化特征图大小一致;
将上述步骤用数学公式进行表示,如公式(3),(4),(5),(6)所示:
F’=F’1+F’2 (3)
S1=Φ1(C2D1,7×7[AvgPool(F'1);MaxPool(F'1)]) (4)
S2=Φ1(C2D1,7×7[AvgPool(F'2);MaxPool(F'2)]) (5)
AS=Φ2(C2D2,7×7[S1;S2]) (6)
其中,(3)式表示通道分离的过程,F’表示通道细化特征,F’1表示重要特征,F’2表示次重要特征;(4)式中Φ1表示BN层和ReLU层的集合,即非线性操作;C2D1,7×7表示共享卷积层,其卷积核大小为7×7;[a;b]表示将a,b两个特征聚合起来;AvgPool表示平均池化操作;MaxPool表示最大池化操作;(4)式生成的是重要特征对应的空间特征描述符S1,(5)式生成的是次重要特征对应的空间特征描述符S2;(6)式中Φ2表示BN层,ReLU层和Sigmoid层的集合;C2D2,7×7表示第二个卷积层,其卷积核尺寸为7×7。
CN202210087706.0A 2022-01-25 2022-01-25 一种基于通道注意力的空间注意力计算方法 Pending CN114492631A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210087706.0A CN114492631A (zh) 2022-01-25 2022-01-25 一种基于通道注意力的空间注意力计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210087706.0A CN114492631A (zh) 2022-01-25 2022-01-25 一种基于通道注意力的空间注意力计算方法

Publications (1)

Publication Number Publication Date
CN114492631A true CN114492631A (zh) 2022-05-13

Family

ID=81475476

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210087706.0A Pending CN114492631A (zh) 2022-01-25 2022-01-25 一种基于通道注意力的空间注意力计算方法

Country Status (1)

Country Link
CN (1) CN114492631A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116503428A (zh) * 2023-06-27 2023-07-28 吉林大学 基于精细化全局注意力机制图像特征提取方法和分割方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116503428A (zh) * 2023-06-27 2023-07-28 吉林大学 基于精细化全局注意力机制图像特征提取方法和分割方法
CN116503428B (zh) * 2023-06-27 2023-09-08 吉林大学 基于精细化全局注意力机制图像特征提取方法和分割方法

Similar Documents

Publication Publication Date Title
Sun et al. Deep RGB-D saliency detection with depth-sensitive attention and automatic multi-modal fusion
CN111242288B (zh) 一种用于病变图像分割的多尺度并行深度神经网络模型构建方法
Wang et al. Multi-scale dilated convolution of convolutional neural network for image denoising
CN111523546B (zh) 图像语义分割方法、系统及计算机存储介质
CN108288035A (zh) 基于深度学习的多通道图像特征融合的人体动作识别方法
Hu et al. Joint pyramid attention network for real-time semantic segmentation of urban scenes
CN111507993A (zh) 一种基于生成对抗网络的图像分割方法、装置及存储介质
Yang et al. Gated convolutional networks with hybrid connectivity for image classification
CN110569851B (zh) 门控多层融合的实时语义分割方法
CN112365514A (zh) 基于改进PSPNet的语义分割方法
CN113807355A (zh) 一种基于编解码结构的图像语义分割方法
CN113052254B (zh) 多重注意力幽灵残差融合分类模型及其分类方法
CN107564007B (zh) 融合全局信息的场景分割修正方法与系统
CN111986085A (zh) 一种基于深度反馈注意力网络系统的图像超分辨率方法
CN115019173A (zh) 基于ResNet50的垃圾识别与分类方法
Ma et al. Irregular convolutional neural networks
CN114492631A (zh) 一种基于通道注意力的空间注意力计算方法
Chen et al. DOF: A demand-oriented framework for image denoising
Zhu et al. Local information fusion network for 3D shape classification and retrieval
CN113378938B (zh) 一种基于边Transformer图神经网络的小样本图像分类方法及系统
Guan et al. NCDCN: multi-focus image fusion via nest connection and dilated convolution network
CN114565628A (zh) 一种基于边界感知注意的图像分割方法及系统
Han et al. LIANet: Layer interactive attention network for RGB-D salient object detection
CN116797799A (zh) 一种基于通道注意力和时空感知的单目标跟踪方法及跟踪系统
CN112925822B (zh) 基于多表征学习的时间序列分类方法、系统、介质及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination