CN113591579B - 基于注意机制卷积神经网络的显著性目标检测方法 - Google Patents

基于注意机制卷积神经网络的显著性目标检测方法 Download PDF

Info

Publication number
CN113591579B
CN113591579B CN202110737734.8A CN202110737734A CN113591579B CN 113591579 B CN113591579 B CN 113591579B CN 202110737734 A CN202110737734 A CN 202110737734A CN 113591579 B CN113591579 B CN 113591579B
Authority
CN
China
Prior art keywords
feature
layer
tensor
attention
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110737734.8A
Other languages
English (en)
Other versions
CN113591579A (zh
Inventor
霍丽娜
张晓伟
曹志义
刘金生
王张钰
周小力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei Normal University
Original Assignee
Hebei Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei Normal University filed Critical Hebei Normal University
Priority to CN202110737734.8A priority Critical patent/CN113591579B/zh
Publication of CN113591579A publication Critical patent/CN113591579A/zh
Application granted granted Critical
Publication of CN113591579B publication Critical patent/CN113591579B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于注意机制卷积神经网络的显著性目标检测方法,包括卷积神经网络训练和显著性检测步骤。本发明通过引入通道注意机制,解决了NLDF方法中深层语义信息过度削弱的问题,通过引入空间注意机制,解决了NLDF方法中低层边界信息不清晰的问题,通过引入双线性插值法提取全局特征,解决了NLDF方法中全局特征的目标丢失问题。

Description

基于注意机制卷积神经网络的显著性目标检测方法
技术领域
本发明涉及一种显著性目标检测方法,尤其涉及一种基于注意机制卷积神经网络的显著性目标检测方法,属于计算机视觉技术领域。
背景技术
近年来,随着新媒体行业的快速发展,一些短视频、图像推文等数字信息完全融入到老百姓的生活中,每天都有数以万计的图像、视频信息传入到互联网中,极大丰富了人们的生活、工作和娱乐。要想快速从海量的数字图像中选出有价值的内容,单靠人类自身感官将难以实现,这便对计算机视觉方面的研究提出更大的挑战。数字图像信息,能够非常直观地反映出人们要表达的内容,在网络资源传送中被广泛使用,但是大量的数据信息难以被人们有效识别。在人类的视觉系统中,他们能够集中注视到图像的重要区域上,而不去关注背景区域的无用信息,这对快速处理图像有着重要作用。因此,如何将这种注视图像关键区域的能力应用到计算机中,以帮助人们完成更加复杂的图像处理任务,便是当下计算机视觉研究者所关注的重点内容。
深度学习,尤其是卷积神经网络能够有效提取图像的深层语义内容和浅层空间信息,从而更加清晰地检测出视觉场景中的重要区域内容。就目前而言,基于深度学习的显著性目标检测算法主要从三个角度来增强检测效果,分别是边界和深层语义信息的增强,全局和局部特征结合增强以及其他领域网络的辅助增强。这些方案虽然相比传统方法有着很好的检测效果,但是仍然存在一些问题。其中,存在的一些主流问题便是边界信息不完整问题。自卷积神经网络被提出后,图像的深层语义内容能够被很好的提取,外加一些辅助网络等处理算法,可以很好地优化目标区域信息。但是,因为搭建的模型不能有效利用边界信息和语义信息的互补性,以及局部特征和全局特征的关联性,造成边界信息不清晰、不连贯以及边缘内容缺失等问题,仍然是目前深度学习算法中常见的问题。
发明内容
本发明要解决的技术问题是提供一种基于注意机制卷积神经网络的显著性目标检测方法。
为解决上述技术问题,本发明所采取的技术方案是:
一种基于注意机制卷积神经网络的显著性目标检测方法,包括以下步骤:
步骤1:卷积神经网络训练:所述卷积神经网络包括输入层、多维特征提取层MFE1至MFE5、全局特征提取层global、卷积层CON-1至CON-5、空间注意模块SA、通道注意模块CA、对比信息提取层CT-1至CT-5、特征融合层Dcon-2至Dcon-5、局部特征提取层、分类预测层和输出层;所述输入层将输入图像转换为预设维度的张量后依次经多维特征提取层MFE1至MFE5、全局特征提取层global处理后得到全局特征张量UG;所述多维特征提取层MFE1至MFE5分别提取第一至第五尺度特征张量f1-f5;所述第一至第五尺度特征张量f1-f5分别经所述卷积层CON-1至CON-5处理得到第一至第五尺度高层特征x1-x5;所述第四尺度高层特征x4经空间注意模块CA处理后得到通道注意特征X′4,所述第二尺度高层特征x2和通道注意特征X′4经空间注意模块SA处理后得到空间注意特征X′2,所述第一尺度高层特征x1、空间注意特征X′2、第三尺度高层特征x3、通道注意特征X′4、第五尺度高层特征x5分别经过对比信息提取层CT-1至CT-5处理得到第一至第五对比特征第五尺度高层特征x5和第五对比特征/>经特征融合层Dcon-5处理后得到第五特征张量U5,第四尺度高层特征x4和第四对比特征/>和第五特征张量U5经特征融合层Dcon-4处理后得到第四特征张量U4,第三尺度高层特征x3和第三对比特征/>和第四特征张量U4经特征融合层Dcon-3处理后得到第三特征张量U3,第二尺度高层特征x2和第二对比特征/>和第三特征张量U3经特征融合层Dcon-2处理后得到第二特征张量U2,第一尺度高层特征x1和第一对比特征/>和第二特征张量U2经局部特征提取层处理后得到局部特征张量UL,局部特征张量UL和全局特征张量UG经分类预测层Softmax处理后得到显著性特征,显著性特征经过输出层输出显著性图;训练集的已标注训练图像输入输入层,进行网络训练;
步骤2:显著性检测:将待预测图象输入输入层,预测显著性图。
进一步,所述输入层采用超分辨率方法将输入图像转换为预设维度的张量。
进一步,所述全局特征提取层global采用两次双线性插值法及一次卷积操作提取全局特征张量UG,所述卷积操作的卷积核大小为1×1,padding值为VALID,通道数为2。
进一步,所述卷积层CON-1至CON-5结构相同,卷积核大小为3×3,步长为1,padding值为SAME,通道数为128。
进一步,所述通道注意模块CA首先对第四尺度高层特征x4进行全局平均池化处理,得到各通道下的特征图向量vh,然后采用两个全连接层对特征向量vh进行显著性映射,获得基于通道方向特征之间的依赖关系,再将两个全连接层设置在非线性函数的两端,并通过Sigmoid归一化处理,将通道方向的特征向量映射到[0,1],其计算公式为:
CA=σ1(fc2(δ(fc1(vh,W1)),W2))
其中W1、W2表示通道方向注意模块的参数,σ1表示Sigmoid运算,fc1和fc2分别表示两个全连接层,δ表示Relu非线性激活函数;通道注意模块输出为:
X′4=CA·X4
进一步,所述空间注意模块分别采用卷积核为1×k和k×1的卷积层对通道注意模块输出X′4进行卷积操作:
其中代表空间注意模块中的参数,conv1和conv2分别代表1×K×C和K×1×1的卷积操作;
然后将卷积后的结果C1和C2进行结合,并用Sigmoid运算进行归一化处理:
SA=F(X′4,w)=σ2(C1+C2)
其中,σ2代表Sigmoid激活函数,SA表示归一化后的特征,空间注意模型的最后输出X′2为:
X′2=SA·X2
进一步,所述对比信息提取层CT-1至CT-5处理方法均为:
其中,AvgPool(Xi)表示平均池化处理。
进一步,所述分类预测层用Softmax函数进行分类预测:
其中,y(v)=c表示显著图中像素划分为正确类,为显著性特征。
进一步,特征融合层Dcon-1的卷积核为1×1,步长为1,padding值为VALID,通道数为2;特征融合层Dcon-2的卷积核为5×5,步长为2,padding值为SAME,通道数为512;特征融合层Dcon-3的卷积核为5×5,步长为2,padding值为SAME,通道数为384;特征融合层Dcon-4的卷积核为5×5,步长为2,padding值为SAME,通道数为256;特征融合层Dcon-5的卷积核为5×5,步长为2,padding值为SAME,通道数为128。
进一步,所述卷积神经网络训练融合交叉熵损失和IOU边界损失的混合损失函数进行联合训练:
交叉熵损失函数定义为:
其中,表示预测结果,y(v)表示真值结果。
IOU边界损失函数定义为:
其中,表示基于真值图的边界像素,Cj表示模型预测图的边界像素,IOU loss的范围是[0,1];
模型最终混合损失函数定义为:
其中,交叉熵损失函数中的加权常量λj=1,IOU边界损失函数中的调整项γj=1。
采用上述技术方案所产生的有益效果在于:
本发明通过引入通道注意机制,解决了NLDF方法中深层语义信息过度削弱的问题,通过引入空间注意机制,解决了NLDF方法中低层边界信息不清晰的问题,通过引入双线性插值法提取全局特征,解决了NLDF方法中全局特征的目标丢失问题。
附图说明
图1是本发明的卷积神经网络的示意图。
具体实施方式
一种基于注意机制卷积神经网络的显著性目标检测方法,其特征在于:所述卷积神经网络包括输入层、多维特征提取层MFE1至MFE5、全局特征提取层global、卷积层CON-1至CON-5、空间注意模块SA、通道注意模块CA、对比信息提取层CT-1至CT-5、特征融合层Dcon-2至Dcon-5、局部特征提取层、分类预测层和输出层;所述输入层将输入图像转换为预设维度的张量后依次经多维特征提取层MFE1至MFE5、全局特征提取层global处理后得到全局特征张量UG;所述多维特征提取层MFE1至MFE5分别提取第一至第五尺度特征张量f1-f5;所述第一至第五尺度特征张量f1-f5分别经所述卷积层CON-1至CON-5处理得到第一至第五尺度高层特征x1-x5;所述第四尺度高层特征x4经空间注意模块CA处理后得到通道注意特征X′4,所述第二尺度高层特征x2和通道注意特征X′4经空间注意模块SA处理后得到空间注意特征X′2,所述第一尺度高层特征x1、空间注意特征X′2、第三尺度高层特征x3、通道注意特征X′4、第五尺度高层特征x5分别经过对比信息提取层CT-1至CT-5处理得到第一至第五对比特征第五尺度高层特征x5和第五对比特征/>经特征融合层Dcon-5处理后得到第五特征张量U5,第四尺度高层特征x4和第四对比特征/>和第五特征张量U5经特征融合层Dcon-4处理后得到第四特征张量U4,第三尺度高层特征x3和第三对比特征/>和第四特征张量U4经特征融合层Dcon-3处理后得到第三特征张量U3,第二尺度高层特征x2和第二对比特征/>和第三特征张量U3经特征融合层Dcon-2处理后得到第二特征张量U2,第一尺度高层特征x1和第一对比特征/>和第二特征张量U2经局部特征提取层处理后得到局部特征张量UL,局部特征张量UL和全局特征张量UG经分类预测层Softmax处理后得到显著性特征,显著性特征经过输出层输出显著性图;训练集的已标注训练图像输入输入层,进行网络训练;
参照图1,对本发明做进一步的详细描述。预测包括以下步骤:
步骤1:针对任意输入图像,将其强制转换成(1×352×352×3)的张量X。
步骤2:将张量X作为输入,放到VGG16的前五层网络中进行卷积和最大池化处理,得到五种不同尺度不同维度的特征张量{1×176×176×64、1×88×88×128、1×44×44×256、1×22×22×512、1×11×11×512}。
步骤3:针对第五尺度的特征张量1×11×11×512,采用两次双线性插值法及一次卷积操作提取全局特征,其中卷积核大小为1×1,padding值为VALID,通道数为2,得到特征张量XG为1×176×176×2。
步骤4:设计五个相同设置的卷积块处理步骤2中五种尺度的特征图,其中卷积核大小为3×3,步长为1,padding值为SAME,通道数为128,得到五种特征张量为{1×176×176×128、1×88×88×128、1×44×44×128、1×22×22×128、1×11×11×128},记为Xi(i=1,2,3,4,5)。
步骤5:针对第四尺度的特征张量1×22×22×128,加入通道注意机制,优化深层目标区域信息,输出张量仍为1×22×22×128。
通道注意模块处理过程:
第一步,对上层传播的第四尺度特征进行全局平均池化处理,得到不同通道下的特征图向量vh
第二步,采用两个全连接层对特征向量vh进行显著性映射,以获得基于通道方向特征之间的依赖关系。
第三步,将两个全连接层设置在非线性函数的两端,并通过Sigmoid归一化处理,将通道方向的特征向量映射到[0,1]。其计算公式如下:
CA=F(vh,W)=σ1(fc2(δ(fc1(vh,W1)),W2))
其中,W表示通道方向注意模块的参数,σ1表示Sigmoid运算,fc1和fc2分别表示两个全连接层,δ表示Relu非线性激活函数。该模块的输出X′4是通过第四尺度高层特征X4和CA加权所得。
X′4=CA·X4
步骤6:针对第二尺度特征向量1×88×88×128,加入空间注意模块,优化浅层目标的边界信息,输出张量仍为1×88×88×128。
空间注意模块的处理过程:
第一步,分别采用卷积核为1×k和k×1的卷积层对通道注意模块输出X′4进行卷积操作。
其中,W代表空间注意模块中的参数,conv1和conv2分别代表1×K×C和K×1×1的卷积层,本发明中设置K=9。
第二步,将卷积后的结果C1和C2进行结合,并用Sigmoid运算进行归一化处理。
SA=F(X′4,w)=σ2(C1+C2)
其中,σ2代表Sigmoid激活函数,SA表示归一化后的特征,模型最后输出X′2由第二尺度特征X2与SA相乘所得。
X′2=SA·X2
为方便计算,步骤5和步骤6中的X′4和X′2仍采用X4和X2代替。
步骤7:对比信息提取。采用平均池化层分别处理以上五种不同尺度相同维度的特征,五种输出张量的形式保持不变,记为。
其中,表示对比信息提取后的特征图,Xi表示上一层提取的多尺度特征,AvgPool(Xi)表示平均池化处理。
步骤8:融合五种尺度的特征,得到最终的局部特征图,张量为1×176×176×2。
8a)在第五尺度下,本发明结合张量X5和张量进行CONCAT融合,得到特征张量1×11×11×256,再对其进行反卷积操作,卷积核为5×5,步长为2,padding值为SAME,通道数为128,得到特征张量U5为1×22×22×128。
8b)在第四尺度下,本发明结合张量X4及U5,进行CONCAT融合,得到特征张量1×22×22×384,再对其进行反卷积操作,卷积核为5×5,步长为2,padding值为SAME,通道数为256,得到特征张量U4为1×44×44×256。
8c)在第三尺度下,本发明结合张量X3及U4,进行CONCAT融合,得到特征张量1×44×44×512,再对其进行反卷积操作,卷积核为5×5,步长为2,padding值为SAME,通道数为384,得到特征张量U3为1×88×88×384。
8d)在第二尺度下,本发明结合张量X2及U3,进行CONCAT融合,得到特征张量1×88×88×640,再对其进行反卷积操作,卷积核为5×5,步长为2,padding值为SAME,通道数为512,得到特征张量U2为1×176×176×512。
8e)在第一尺度下,本发明结合张量X1及U2,进行CONCAT融合,得到特征张量1×176×176×768,再对其进行卷积处理,卷积核为1×1,步长为1,padding值为VALID,通道数为2,得到特征张量XL为1×176×176×2。
步骤9:融合特征XG和XL。本发明采用两个线性算子(WL,bL)和(WG,bG)来分别表示局部特征XL和全局特征XG,将两者结合得到一个最终的线性组合,并用Softmax函数进行分类预测。
其中,y(v)=c表示显著图中像素划分为正确类,为本发明最终输出结果。
步骤10:模型训练。本发明采用一种融合交叉熵损失和IOU边界损失的混合损失函数进行联合训练。
交叉熵损失函数定义:
其中,表示预测结果,y(v)表示真值结果。
IOU边界损失函数定义:
其中,Cj表示基于真值图的边界像素,Cj表示模型预测图的边界像素,IOU loss的范围是[0,1]。
模型最终混合损失函数定义为:
其中,交叉熵损失函数中的加权常量λj=1,IOU边界损失函数中的调整项γj=1。

Claims (6)

1.一种基于注意机制卷积神经网络的显著性目标检测方法,其特征在于:包括以下步骤:
步骤1:卷积神经网络训练
所述卷积神经网络包括输入层、多维特征提取层MFE1至MFE5、全局特征提取层global、卷积层CON-1至CON-5、空间注意模块SA、通道注意模块CA、对比信息提取层CT-1至CT-5、特征融合层Dcon-2至Dcon-5、局部特征提取层、分类预测层和输出层;所述输入层将输入图像转换为预设维度的张量后依次经多维特征提取层MFE1至MFE5、全局特征提取层global处理后得到全局特征张量UG;所述多维特征提取层MFE1至MFE5分别提取第一至第五尺度特征张量f1-f5;所述第一至第五尺度特征张量f1-f5分别经所述卷积层CON-1至CON-5处理得到第一至第五尺度高层特征x1-x5;所述第四尺度高层特征x4经空间注意模块CA处理后得到通道注意特征X'4,所述第二尺度高层特征x2和通道注意特征X'4经空间注意模块SA处理后得到空间注意特征X′2,所述第一尺度高层特征x1、空间注意特征X′2、第三尺度高层特征x3、通道注意特征X'4、第五尺度高层特征x5分别经过对比信息提取层CT-1至CT-5处理得到第一至第五对比特征第五尺度高层特征x5和第五对比特征/>经特征融合层Dcon-5处理后得到第五特征张量U5,第四尺度高层特征x4和第四对比特征/>和第五特征张量U5经特征融合层Dcon-4处理后得到第四特征张量U4,第三尺度高层特征x3和第三对比特征/>和第四特征张量U4经特征融合层Dcon-3处理后得到第三特征张量U3,第二尺度高层特征x2和第二对比特征/>和第三特征张量U3经特征融合层Dcon-2处理后得到第二特征张量U2,第一尺度高层特征x1和第一对比特征/>和第二特征张量U2经局部特征提取层处理后得到局部特征张量UL,局部特征张量UL和全局特征张量UG经分类预测层Softmax处理后得到显著性特征,显著性特征经过输出层输出显著性图;训练集的已标注训练图像输入输入层,进行网络训练;
步骤2:显著性检测
将待预测图像输入输入层,预测显著性图;
所述通道注意模块CA首先对第四尺度高层特征x4进行全局平均池化处理,得到各通道下的特征向量vh,然后采用两个全连接层对特征向量vh进行显著性映射,获得基于通道方向特征之间的依赖关系,再将两个全连接层设置在非线性函数的两端,并通过Sigmoid归一化处理,将通道方向的特征向量映射到[0,1],其计算公式为:
CA=σ1(fc2(δ(fc1(vh,W1)),W2))
其中W1、W2表示通道方向注意模块的参数,σ1表示Sigmoid运算,fc1和fc2分别表示两个全连接层,δ表示Relu非线性激活函数;通道注意模块输出为:
X′4=CA·X4
2.根据权利要求1所述的基于注意机制卷积神经网络的显著性目标检测方法,其特征在于:所述输入层采用超分辨率方法将输入图像转换为预设维度的张量。
3.根据权利要求1所述的基于注意机制卷积神经网络的显著性目标检测方法,其特征在于:所述全局特征提取层global采用两次双线性插值法及一次卷积操作提取全局特征张量UG,所述卷积操作的卷积核大小为1×1,padding值为VALID,通道数为2。
4.根据权利要求1所述的基于注意机制卷积神经网络的显著性目标检测方法,其特征在于:所述卷积层CON-1至CON-5结构相同,卷积核大小为3×3,步长为1,padding值为SAME,通道数为128。
5.根据权利要求1所述的基于注意机制卷积神经网络的显著性目标检测方法,其特征在于:所述空间注意模块分别采用卷积核为1×k和k×1的卷积层对通道注意模块输出X′4进行卷积操作:
其中代表空间注意模块中的参数,conv1和conv2分别代表1×K×C和K×1×1的卷积操作;
然后将卷积后的结果C1和C2进行结合,并用Sigmoid运算进行归一化处理:
SA=F(X′4,w)=σ2(C1+C2)
其中,σ2代表Sigmoid激活函数,SA表示归一化后的特征,空间注意模型的最后输出X′2为:
X′2=SA·X2
6.根据权利要求1所述的基于注意机制卷积神经网络的显著性目标检测方法,其特征在于:特征融合层Dcon-1的卷积核为1×1,步长为1,padding值为VALID,通道数为2;特征融合层Dcon-2的卷积核为5×5,步长为2,padding值为SAME,通道数为512;特征融合层Dcon-3的卷积核为5×5,步长为2,padding值为SAME,通道数为384;特征融合层Dcon-4的卷积核为5×5,步长为2,padding值为SAME,通道数为256;特征融合层Dcon-5的卷积核为5×5,步长为2,padding值为SAME,通道数为128。
CN202110737734.8A 2021-06-28 2021-06-28 基于注意机制卷积神经网络的显著性目标检测方法 Active CN113591579B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110737734.8A CN113591579B (zh) 2021-06-28 2021-06-28 基于注意机制卷积神经网络的显著性目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110737734.8A CN113591579B (zh) 2021-06-28 2021-06-28 基于注意机制卷积神经网络的显著性目标检测方法

Publications (2)

Publication Number Publication Date
CN113591579A CN113591579A (zh) 2021-11-02
CN113591579B true CN113591579B (zh) 2024-02-13

Family

ID=78245223

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110737734.8A Active CN113591579B (zh) 2021-06-28 2021-06-28 基于注意机制卷积神经网络的显著性目标检测方法

Country Status (1)

Country Link
CN (1) CN113591579B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110223344A (zh) * 2019-06-03 2019-09-10 哈尔滨工程大学 一种基于形态学和视觉注意机制的红外小目标检测方法
CN110414513A (zh) * 2019-07-31 2019-11-05 电子科技大学 基于语义增强卷积神经网络的视觉显著性检测方法
CN110648334A (zh) * 2019-09-18 2020-01-03 中国人民解放军火箭军工程大学 一种基于注意力机制的多特征循环卷积显著性目标检测方法
CN111209918A (zh) * 2020-01-06 2020-05-29 河北工业大学 一种图像显著性目标检测方法
CN112329800A (zh) * 2020-12-03 2021-02-05 河南大学 一种基于全局信息引导残差注意力的显著性目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9830529B2 (en) * 2016-04-26 2017-11-28 Xerox Corporation End-to-end saliency mapping via probability distribution prediction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110223344A (zh) * 2019-06-03 2019-09-10 哈尔滨工程大学 一种基于形态学和视觉注意机制的红外小目标检测方法
CN110414513A (zh) * 2019-07-31 2019-11-05 电子科技大学 基于语义增强卷积神经网络的视觉显著性检测方法
CN110648334A (zh) * 2019-09-18 2020-01-03 中国人民解放军火箭军工程大学 一种基于注意力机制的多特征循环卷积显著性目标检测方法
CN111209918A (zh) * 2020-01-06 2020-05-29 河北工业大学 一种图像显著性目标检测方法
CN112329800A (zh) * 2020-12-03 2021-02-05 河南大学 一种基于全局信息引导残差注意力的显著性目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于全卷积神经网络的多目标显著性检测;翟正利;孙霞;周炜;梁振明;;计算机技术与发展(08);全文 *
基于空间卷积神经网络模型的图像显著性检测;高东东;张新生;;计算机工程(05);全文 *

Also Published As

Publication number Publication date
CN113591579A (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
Tang et al. PIAFusion: A progressive infrared and visible image fusion network based on illumination aware
Chen et al. Learning spatial attention for face super-resolution
Liu et al. Connecting image denoising and high-level vision tasks via deep learning
Ning et al. JWSAA: joint weak saliency and attention aware for person re-identification
Jiang et al. Context-patch face hallucination based on thresholding locality-constrained representation and reproducing learning
Ribeiro et al. Improving the performance of pedestrian detectors using convolutional learning
CN111582044A (zh) 基于卷积神经网络和注意力模型的人脸识别方法
Cao et al. Vdtr: Video deblurring with transformer
Zeng et al. Hyperspectral image restoration via CNN denoiser prior regularized low-rank tensor recovery
Guo et al. Dual-view attention networks for single image super-resolution
Hu et al. A two-stage unsupervised approach for low light image enhancement
Raza et al. IR-MSDNet: Infrared and visible image fusion based on infrared features and multiscale dense network
Wang et al. An improved enhancement algorithm based on CNN applicable for weak contrast images
Pan et al. No-reference image quality assessment via multibranch convolutional neural networks
CN113762277B (zh) 一种基于Cascade-GAN的多波段红外图像融合方法
Jiang et al. Low-light image enhancement via stage-transformer-guided network
Li et al. Layer-output guided complementary attention learning for image defocus blur detection
Qian et al. Circular LBP prior-based enhanced GAN for image style transfer
Tomar et al. Deep hyfeat based attention in attention model for face super-resolution
Maghari Recognition of partially occluded faces using regularized ICA
Lan et al. An optimized GAN method based on the Que-Attn and contrastive learning for underwater image enhancement
Wang et al. Tmf: Temporal motion and fusion for action recognition
Zeng et al. Combining CNN and transformers for full-reference and no-reference image quality assessment
Cheng et al. StyleFuse: An unsupervised network based on style loss function for infrared and visible image fusion
CN114693577A (zh) 一种基于Transformer的红外偏振图像融合方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant