CN111340046A - 基于特征金字塔网络和通道注意力的视觉显著性检测方法 - Google Patents
基于特征金字塔网络和通道注意力的视觉显著性检测方法 Download PDFInfo
- Publication number
- CN111340046A CN111340046A CN202010100233.4A CN202010100233A CN111340046A CN 111340046 A CN111340046 A CN 111340046A CN 202010100233 A CN202010100233 A CN 202010100233A CN 111340046 A CN111340046 A CN 111340046A
- Authority
- CN
- China
- Prior art keywords
- unit
- convolution
- feature
- feature pyramid
- pyramid network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 51
- 230000000007 visual effect Effects 0.000 title claims abstract description 16
- 230000004927 fusion Effects 0.000 claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 15
- 230000006870 function Effects 0.000 claims description 28
- 238000011176 pooling Methods 0.000 claims description 19
- 230000004913 activation Effects 0.000 claims description 18
- 238000010606 normalization Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 6
- 239000011800 void material Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- TVZRAEYQIKYCPH-UHFFFAOYSA-N 3-(trimethylsilyl)propane-1-sulfonic acid Chemical compound C[Si](C)(C)CCCS(O)(=O)=O TVZRAEYQIKYCPH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
Abstract
本发明涉及一种基于特征金字塔网络和通道注意力的视觉显著性检测方法,包括以下步骤:步骤R1:以特征金字塔网络为基础,构建显著性检测网络;步骤R2:利用显著性检测网络的最深层特征生成通道权重,对不同尺度的低层特征进行通道加权;步骤R3:获取训练数据集,以最小化输入图像的加权交叉熵损失函数为目标,基于通道注意力对显著性检测网络进行训练,得到基于特征金字塔网络和通道注意力的显著性检测网络模型;步骤R4:将待检测图像输入基于特征金字塔网络和通道注意力的显著性检测网络模型,得到显著图结果。与现有方法相比,本发明具有改善不同层次特征之间的融合质量、提高所获得的显著图的准确性等优点。
Description
技术领域
本发明涉及计算机图像处理领域,尤其是涉及一种基于特征金字塔网络和通道注意力的视觉显著性检测方法。
背景技术
一幅图像往往包含大量的信息,但其中也存在很多价值较低、冗余的噪声信息,在一般情况下,这些冗余信息对最终的处理结果并没有帮助,甚至有不好的影响。如果对海量的图像数据逐一进行整幅处理,图像处理系统的效率自然十分低下,事实上,人们通常只需要对最显著、最有价值的那部分图像区域,即显著性区域进行计算就可以得到接近预期的效果,从而大大降低任务的复杂度和计算量。随着现代信息技术的不断发展,越来越多的工作需要通过处理海量的图像数据来完成,为加快图像处理速率,仿照生物视觉系统对视觉信息的处理方法,计算机视觉领域的研究人员提出了图像的显著性检测任务,它是指用计算机自动检测一幅图像中最重要、最有价值的部分,从而对其优先处理,提升图像处理系统的效率。显著性检测可以广泛地应用在各种计算机视觉任务中,作为图像检索、图像分割、目标识别和视觉跟踪等任务的预处理步骤,近年来获得了越来越多的关注和研究。
得益于深度学习的发展,全卷积神经网络的引入使得显著性检测脱离了传统手工特征的束缚,实现了端到端的学习,并取得了较好的结果,在近年被广泛使用。研究人员提出了多种基于多特征融合范式的网络模型,主要包括预测结果融合的多流结构、侧边融合结构,以及高低层特征融合的自底向上自上向下结构。现有的融合网络,主要关注特征的融合范式而忽略了不同层次特征之间融合与传递过程的重要性,忽视了高层特征和低层特征之间的差异,忽视了低层特征背景噪声的干扰,这会造成高层特征的全局语义信息丢失,也可能会增加低层特征的干扰。
发明内容
本发明的目的就是为了克服上述现有技术存在的忽略了不同层次特征之间融合与传递、忽视了高层特征和低层特征之间的差异、忽视了低层特征背景噪声的干扰的缺陷而提供一种基于特征金字塔网络和通道注意力的视觉显著性检测方法。
本发明的目的可以通过以下技术方案来实现:
一种基于特征金字塔网络和通道注意力的视觉显著性检测方法,包括以下步骤:
步骤R1:以特征金字塔网络为基础,构建基于特征金字塔网络的显著性检测网络;
步骤R2:利用所述基于特征金字塔网络的显著性检测网络的最深层特征生成通道权重,对不同尺度的低层特征进行通道加权;
步骤R3:获取训练数据集,以所述训练数据集的最小化输入图像的加权交叉熵损失函数为目标,基于所述通道注意力对所述基于特征金字塔网络的显著性检测网络进行训练,得到基于特征金字塔网络和通道注意力的显著性检测网络模型;
步骤R4:将待检测图像输入所述基于特征金字塔网络和通道注意力的显著性检测网络模型,得到显著图结果。
所述基于特征金字塔网络的显著性检测网络包括自下而上的特征编码阶段和自上而下的特征解码阶段,并利用所述特征编码阶段得到的最深层特征生成通道权重,根据所述通道权重对所述特征编码阶段的低层特征进行通道加权。
所述自下而上的特征编码阶段包括依次连接的输入层、第一卷积单元、第二卷积单元、第三卷积单元、第四卷积单元和第五卷积单元,所述第一卷积单元、第二卷积单元、第三卷积单元、第四卷积单元和第五卷积单元的每个卷积层均连接一个批量归一化层。
所述第一卷积单元、第二卷积单元、第三卷积单元和第四卷积单元均连接有一个最大池化层。
所述第一卷积单元和第二卷积单元包括依次交错设置的2个卷积层和2个激活函数,所述第三卷积单元、第四卷积单元和第五卷积单元包括依次交错设置的3个卷积层和3个激活函数。
所述基于特征金字塔网络的显著性检测网络的最深层特征为所述第五卷积单元的输出,然后依次下采样2倍、4倍、8倍的池化层,再相加卷积并全局池化得到所述通道权重。
所述自上而下的特征解码阶段包括依次连接的第一融合单元、第二融合单元、第三融合单元和反卷积单元,所述第一融合单元与第四卷积单元连接,所述第二融合单元与第三卷积单元连接,所述第三融合单元与第二卷积单元连接,所述反卷积单元包括Sigmoid激活函数,所述第一融合单元、第二融合单元和第三融合单元的每个卷积层均连接一个批量归一化层,每个所述卷积单元先与所述通道权重相乘,再与所述融合单元进行连接。
所述第一融合单元、第二融合单元和第三融合单元均包括三个分支,所述三个分支分别含有2倍、4倍和8倍的下采样和上采样。
所述步骤R3中基于特征金字塔网络的显著性检测网络采用随机梯度下降优化器进行训练。
所述交叉熵损失函数的公式具体为:
其中,LC表示损失函数,GT(i)表示真值图,S(i)表示显著图,K表示像素个数,α为权重。
与现有技术相比,本发明具有以下有益效果:
1.本发明采用特征金字塔网络对训练数据集进行特征提取和采样,有效地解决已有方法在多层特征提取中忽略了特征融合与传递的问题,提高了显著图的精度。
2.本发明采用通道注意力对低层特征进行特征选择,用最深层特征包含的显著目标位置信息对低层特征的通道加权,减少低层特征的背景噪声。
3.本发明在特征金字塔网络中使用多种尺度的池化,多尺度池化有着高效的语义提取能力,能够实现更高质量的多尺度特征的特征提取和融合,有效地融合多尺度的特征。
附图说明
图1为本发明的流程示意图;
图2为本发明基于特征金字塔网络的显著性检测网络的结构示意图;
图3为本发明的训练数据集通过不同算法得到的显著图的对比示意图;
图4为本发明的准确率召回率曲线对比图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示,一种基于特征金字塔网络和通道注意力的视觉显著性检测方法,包括以下步骤:
步骤R1:以特征金字塔网络为基础,构建基于特征金字塔网络的显著性检测网络;
步骤R2:利用基于特征金字塔网络的显著性检测网络的最深层特征生成通道权重,对不同尺度的低层特征进行通道加权;
步骤R3:获取训练数据集,以训练数据集的最小化输入图像的加权交叉熵损失函数为目标,基于通道注意力对基于特征金字塔网络的显著性检测网络进行训练,得到基于特征金字塔网络和通道注意力的显著性检测网络模型;
步骤R4:将待检测图像输入基于特征金字塔网络和通道注意力的显著性检测网络模型,得到显著图结果。
如图2所示,基于特征金字塔网络的显著性检测网络包括用于提取特征的自下而上的特征编码阶段,用于采样的自上而下的特征解码阶段,编码得到的最深层特征对低层特征进行特征选择。
自下而上的特征编码阶段包括依次连接的输入层、第一卷积单元、第二卷积单元、第三卷积单元、第四卷积单元和第五卷积单元,每个卷积单元的每个卷积层均连接一个批量归一化层。
第一卷积单元包括依次连接的3x3x64卷积层、Relu激活函数、3x3x64卷积层、Relu激活函数和最大池化层;
第二卷积单元包括依次连接的3x3x128卷积层、Relu激活函数、3x3x128卷积层、Relu激活函数和最大池化层;
第三卷积单元包括依次连接的3x3x256卷积层、Relu激活函数、3x3x256卷积层、Relu激活函数、3x3x256卷积层、Relu激活函数和最大池化层;
第四卷积单元包括依次连接的3x3x512卷积层、Relu激活函数、3x3x512卷积层、Relu激活函数、3x3x512卷积层、Relu激活函数和最大池化层;
第五卷积单元包括依次连接的3x3x512卷积层、Relu激活函数、3x3x512卷积层、Relu激活函数、3x3x512卷积层和Relu激活函数。
自上而下的特征解码阶段包括依次连接的第一融合单元、第二融合单元、第三融合单元和反卷积单元,第一融合单元与第四卷积单元连接,第二融合单元与第三卷积单元连接,第三融合单元与第二卷积单元连接,每个融合单元的每个卷积层均连接一个批量归一化层。
第一融合单元包括三个分支,第一个分支依次连接2倍下采样、1x7x512卷积层、7x1x512卷积层、7x7x512空洞卷积层和2倍上采样;第二个分支依次连接4倍下采样、1x5x512卷积层、5x1x512卷积层、5x5x512空洞卷积层和4倍上采样;第三个分支依次连接8倍下采样、1x3x512卷积层、3x1x512卷积层、3x3x512空洞卷积层和8倍上采样,最后将三个分支的输出结果相加。
第二融合单元包括三个分支,第一个分支依次连接2倍下采样、1x7x256卷积层、7x1x256卷积层、7x7x256空洞卷积层和2倍上采样;第二个分支依次连接4倍下采样、1x5x256卷积层、5x1x256卷积层、5x5x256空洞卷积层和4倍上采样;第三个分支依次连接8倍下采样、1x3x256卷积层、3x1x256卷积层、3x3x256空洞卷积层和8倍上采样,最后将三个分支的输出结果相加。
第三融合单元包括三个分支,第一个分支依次连接2倍下采样、1x7x128卷积层、7x1x128卷积层、7x7x128空洞卷积层和2倍上采样;第二个分支依次连接4倍下采样、1x5x128卷积层、5x1x128卷积层、5x5x128空洞卷积层和4倍上采样;第三个分支依次连接8倍下采样、1x3x128卷积层、3x1x128卷积层、3x3x128空洞卷积层和8倍上采样,最后将三个分支的输出结果相加。
反卷积单元包括依次连接的3x3x1卷积层和Sigmoid激活函数。
基于特征金字塔网络的显著性检测网络的最深层特征为所述第五卷积单元的输出,然后依次下采样2倍、4倍、8倍的池化层,再相加卷积并全局池化得到所述通道权重。通道权重通过依次连接的三个分支进行处理并相加。第一个分支包括依次连接1x1x512卷积层和1x1自适应平均池化层;第二个分支包括依次连接3x3x512卷积层和1x1自适应平均池化层;第三个分支包括依次连接5x5x512卷积层和1x1自适应平均池化层,三个分支输出相加后依次连接1x1x512全连接层和Sigmoid激活函数。
基于特征金字塔网络的显著性检测网络的最深层特征为第五卷积单元的输出,然后依次下采样2倍、4倍、8倍的池化层,再相加卷积并全局池化得到通道注意权重。
自上而下的特征解码阶段需要对自下而上的特征编码阶段传来的低层特征进行噪声抑制,抑制噪声后的低层特征由依次连接的初始低层特征和通道权重相乘得到。
步骤R3中基于特征金字塔网络的显著性检测网络采用随机梯度下降优化器进行训练。
加权的交叉熵损失函数的公式具体为:
其中,LC表示损失函数,GT(i)表示真值图,S(i)表示显著图,K表示像素个数,α为权重,本实施例中取0.52。
实施例一
使用DUTS数据集作为训练数据集训练出基于特征金字塔网络和通道注意力的显著性检测网络模型,在DUTS-test、ECSSD、DUT-OMRON和HKU-IS上测试显著性检测网络模型,评价指标包括最大F值(MaxF),平均绝对误差(MAE)和准确率召回率(PR)曲线。以最小化交叉熵损失函数为目标,学习率设置为0.002,迭代次数15000次,采用随机梯度下降优化器训练。采用NVIDIA GTX TITAN Xp GPU硬件平台和PyTorch深度学习框架。对比的方法包括五种主流且相关的显著性检测模型C2S、RAS、RFCN、DSS和SRN。
如图3所示,显示了本发明和对比方法模型输出显著图的对比结果。由图3可以看出,无论简单场景、显著目标与背景对比度低的场景还是多显著目标的复杂场景,本发明都是最接近真值图的结果。
本发明和对比方法在四个数据集上定量比较的结果如表1所示,评价指标包括MaxF和MAE,表1具体如下:
表1显著性定量比较表
从表1中可以看出,对于两种评价指标,本发明都是最高的结果,即使在最具挑战性的数据集DUT-OMRON上也明显高于其他方法,所提模型有着优秀地特征选择和学习能力。同时如图4所示,本发明四种测试模型的PR曲线上,均明显包裹住进行对比的方法的曲线,表示在查全率较高时仍有较高的查准率。
此外,需要说明的是,本说明书中所描述的具体实施例,所取名称可以不同,本说明书中所描述的以上内容仅仅是对本发明结构所做的举例说明。凡依据本发明构思的构造、特征及原理所做的等小变化或者简单变化,均包括于本发明的保护范围内。本发明所属技术领域的技术人员可以对所描述的具体实例做各种各样的修改或补充或采用类似的方法,只要不偏离本发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。
Claims (10)
1.一种基于特征金字塔网络和通道注意力的视觉显著性检测方法,其特征在于,包括以下步骤:
步骤R1:以特征金字塔网络为基础,构建基于特征金字塔网络的显著性检测网络;
步骤R2:利用所述基于特征金字塔网络的显著性检测网络的最深层特征生成通道权重,对不同尺度的低层特征进行通道加权;
步骤R3:获取训练数据集,以所述训练数据集的最小化输入图像的加权交叉熵损失函数为目标,基于所述通道注意力对所述基于特征金字塔网络的显著性检测网络进行训练,得到基于特征金字塔网络和通道注意力的显著性检测网络模型;
步骤R4:将待检测图像输入所述基于特征金字塔网络和通道注意力的显著性检测网络模型,得到显著图结果。
2.根据权利要求1所述的一种基于特征金字塔网络和通道注意力的视觉显著性检测方法,其特征在于,所述基于特征金字塔网络的显著性检测网络包括自下而上的特征编码阶段和自上而下的特征解码阶段,并利用所述特征编码阶段得到的最深层特征生成通道权重,根据所述通道权重对所述特征编码阶段的低层特征进行通道加权。
3.根据权利要求2所述的一种基于特征金字塔网络和通道注意力的视觉显著性检测方法,其特征在于,所述自下而上的特征编码阶段包括依次连接的输入层、第一卷积单元、第二卷积单元、第三卷积单元、第四卷积单元和第五卷积单元,所述第一卷积单元、第二卷积单元、第三卷积单元、第四卷积单元和第五卷积单元的每个卷积层均连接一个批量归一化层。
4.根据权利要求3所述的一种基于特征金字塔网络和通道注意力的视觉显著性检测方法,其特征在于,所述第一卷积单元、第二卷积单元、第三卷积单元和第四卷积单元均连接一个最大池化层。
5.根据权利要求3所述的一种基于特征金字塔网络和通道注意力的视觉显著性检测方法,其特征在于,所述第一卷积单元和第二卷积单元包括依次交错设置的2个卷积层和2个激活函数,所述第三卷积单元、第四卷积单元和第五卷积单元包括依次交错设置的3个卷积层和3个激活函数。
6.根据权利要求3所述的一种基于特征金字塔网络和通道注意力的视觉显著性检测方法,其特征在于,所述基于特征金字塔网络的显著性检测网络的最深层特征为所述第五卷积单元的输出,然后依次连接下采样2倍、4倍、8倍的池化层,再相加卷积并全局池化得到所述通道权重。
7.根据权利要求3所述的一种基于特征金字塔网络和通道注意力的视觉显著性检测方法,其特征在于,所述自上而下的特征解码阶段包括依次连接的第一融合单元、第二融合单元、第三融合单元和反卷积单元,所述第一融合单元与第四卷积单元连接,所述第二融合单元与第三卷积单元连接,所述第三融合单元与第二卷积单元连接,所述反卷积单元包括Sigmoid激活函数,所述第一融合单元、第二融合单元和第三融合单元的每个卷积层均连接一个批量归一化层,每个所述卷积单元先与所述通道权重相乘,再与所述融合单元进行连接。
8.根据权利要求7所述的一种基于特征金字塔网络和通道注意力的视觉显著性检测方法,其特征在于,所述第一融合单元、第二融合单元和第三融合单元均包括三个分支,所述三个分支分别含有2倍、4倍和8倍的下采样和上采样。
9.根据权利要求1所述的一种基于特征金字塔网络和通道注意力的视觉显著性检测方法,其特征在于,所述步骤R3中基于特征金字塔网络的显著性检测网络采用随机梯度下降优化器进行训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010100233.4A CN111340046A (zh) | 2020-02-18 | 2020-02-18 | 基于特征金字塔网络和通道注意力的视觉显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010100233.4A CN111340046A (zh) | 2020-02-18 | 2020-02-18 | 基于特征金字塔网络和通道注意力的视觉显著性检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111340046A true CN111340046A (zh) | 2020-06-26 |
Family
ID=71185417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010100233.4A Pending CN111340046A (zh) | 2020-02-18 | 2020-02-18 | 基于特征金字塔网络和通道注意力的视觉显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111340046A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111798426A (zh) * | 2020-06-30 | 2020-10-20 | 天津大学 | 用于移动端的胃肠道间质瘤中核分裂象深度学习检测系统 |
CN111985485A (zh) * | 2020-08-24 | 2020-11-24 | 中国科学院自动化研究所 | 基于金字塔形注意力循环网络的手术介入器械追踪方法 |
CN112329793A (zh) * | 2020-11-05 | 2021-02-05 | 天津大学 | 基于结构自适应和规模自适应感受野的显著性检测方法 |
CN112329858A (zh) * | 2020-11-06 | 2021-02-05 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路动车防松铁丝折断故障图像识别方法 |
CN112347859A (zh) * | 2020-10-15 | 2021-02-09 | 北京交通大学 | 一种光学遥感图像显著性目标检测方法 |
CN112598664A (zh) * | 2020-12-30 | 2021-04-02 | 河南工业大学 | 基于视觉显著性的虫粮等级判定方法和装置 |
CN112614101A (zh) * | 2020-12-17 | 2021-04-06 | 广东道氏技术股份有限公司 | 基于多层特征提取的抛光砖瑕疵检测方法及相关设备 |
CN113327226A (zh) * | 2021-05-07 | 2021-08-31 | 北京工业大学 | 目标检测方法、装置、电子设备及存储介质 |
CN113420671A (zh) * | 2021-06-24 | 2021-09-21 | 杭州电子科技大学 | 一种基于全局信息注意力的显著性目标检测方法 |
CN113536973A (zh) * | 2021-06-28 | 2021-10-22 | 杭州电子科技大学 | 一种基于显著性的交通标志检测方法 |
CN113657534A (zh) * | 2021-08-24 | 2021-11-16 | 北京经纬恒润科技股份有限公司 | 一种基于注意力机制的分类方法及装置 |
CN113947530A (zh) * | 2021-10-21 | 2022-01-18 | 河北工业大学 | 一种基于相对显著性检测的图像重定向方法 |
CN114025198A (zh) * | 2021-11-08 | 2022-02-08 | 深圳万兴软件有限公司 | 基于注意力机制的视频卡通化方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084249A (zh) * | 2019-04-24 | 2019-08-02 | 哈尔滨工业大学 | 基于金字塔特征注意的图像显著性检测方法 |
CN110097115A (zh) * | 2019-04-28 | 2019-08-06 | 南开大学 | 一种基于注意力转移机制的视频显著性物体检测方法 |
CN110210485A (zh) * | 2019-05-13 | 2019-09-06 | 常熟理工学院 | 基于注意力机制指导特征融合的图像语义分割方法 |
CN110619369A (zh) * | 2019-09-23 | 2019-12-27 | 常熟理工学院 | 基于特征金字塔与全局平均池化的细粒度图像分类方法 |
-
2020
- 2020-02-18 CN CN202010100233.4A patent/CN111340046A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084249A (zh) * | 2019-04-24 | 2019-08-02 | 哈尔滨工业大学 | 基于金字塔特征注意的图像显著性检测方法 |
CN110097115A (zh) * | 2019-04-28 | 2019-08-06 | 南开大学 | 一种基于注意力转移机制的视频显著性物体检测方法 |
CN110210485A (zh) * | 2019-05-13 | 2019-09-06 | 常熟理工学院 | 基于注意力机制指导特征融合的图像语义分割方法 |
CN110619369A (zh) * | 2019-09-23 | 2019-12-27 | 常熟理工学院 | 基于特征金字塔与全局平均池化的细粒度图像分类方法 |
Non-Patent Citations (3)
Title |
---|
KAI CHEN: "A Fully Convolutional Network based on Spatial Attention for Saliency Object Detection" * |
TING ZHAO: "Pyramid Feature Attention Network for Saliency Detection" * |
靳薇等: "基于视觉注意力模型的红外目标检测" * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111798426B (zh) * | 2020-06-30 | 2022-09-06 | 天津大学 | 用于移动端的胃肠道间质瘤中核分裂象深度学习检测系统 |
CN111798426A (zh) * | 2020-06-30 | 2020-10-20 | 天津大学 | 用于移动端的胃肠道间质瘤中核分裂象深度学习检测系统 |
CN111985485A (zh) * | 2020-08-24 | 2020-11-24 | 中国科学院自动化研究所 | 基于金字塔形注意力循环网络的手术介入器械追踪方法 |
CN112347859A (zh) * | 2020-10-15 | 2021-02-09 | 北京交通大学 | 一种光学遥感图像显著性目标检测方法 |
CN112329793A (zh) * | 2020-11-05 | 2021-02-05 | 天津大学 | 基于结构自适应和规模自适应感受野的显著性检测方法 |
CN112329793B (zh) * | 2020-11-05 | 2022-09-27 | 天津大学 | 基于结构自适应和规模自适应感受野的显著性检测方法 |
CN112329858A (zh) * | 2020-11-06 | 2021-02-05 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路动车防松铁丝折断故障图像识别方法 |
CN112614101A (zh) * | 2020-12-17 | 2021-04-06 | 广东道氏技术股份有限公司 | 基于多层特征提取的抛光砖瑕疵检测方法及相关设备 |
CN112614101B (zh) * | 2020-12-17 | 2024-02-20 | 广东道氏技术股份有限公司 | 基于多层特征提取的抛光砖瑕疵检测方法及相关设备 |
CN112598664A (zh) * | 2020-12-30 | 2021-04-02 | 河南工业大学 | 基于视觉显著性的虫粮等级判定方法和装置 |
CN112598664B (zh) * | 2020-12-30 | 2023-02-07 | 河南工业大学 | 基于视觉显著性的虫粮等级判定方法和装置 |
CN113327226A (zh) * | 2021-05-07 | 2021-08-31 | 北京工业大学 | 目标检测方法、装置、电子设备及存储介质 |
CN113420671A (zh) * | 2021-06-24 | 2021-09-21 | 杭州电子科技大学 | 一种基于全局信息注意力的显著性目标检测方法 |
CN113536973B (zh) * | 2021-06-28 | 2023-08-18 | 杭州电子科技大学 | 一种基于显著性的交通标志检测方法 |
CN113536973A (zh) * | 2021-06-28 | 2021-10-22 | 杭州电子科技大学 | 一种基于显著性的交通标志检测方法 |
CN113657534A (zh) * | 2021-08-24 | 2021-11-16 | 北京经纬恒润科技股份有限公司 | 一种基于注意力机制的分类方法及装置 |
CN113947530A (zh) * | 2021-10-21 | 2022-01-18 | 河北工业大学 | 一种基于相对显著性检测的图像重定向方法 |
CN113947530B (zh) * | 2021-10-21 | 2024-04-30 | 河北工业大学 | 一种基于相对显著性检测的图像重定向方法 |
CN114025198A (zh) * | 2021-11-08 | 2022-02-08 | 深圳万兴软件有限公司 | 基于注意力机制的视频卡通化方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111340046A (zh) | 基于特征金字塔网络和通道注意力的视觉显著性检测方法 | |
CN110211045B (zh) | 基于srgan网络的超分辨率人脸图像重建方法 | |
CN111126202B (zh) | 基于空洞特征金字塔网络的光学遥感图像目标检测方法 | |
CN110189255B (zh) | 基于两级检测的人脸检测方法 | |
CN110246148B (zh) | 多模态的深度信息融合和注意力学习的显著性检测方法 | |
CN112329780B (zh) | 一种基于深度学习的深度图像语义分割方法 | |
CN112270366B (zh) | 基于自适应多特征融合的微小目标检测方法 | |
CN112541572A (zh) | 基于卷积编码器-解码器网络的剩余油分布预测方法 | |
CN115457568B (zh) | 一种基于生成对抗网络的历史文档图像降噪方法及系统 | |
CN110533591B (zh) | 基于编解码器结构的超分辨图像重建方法 | |
CN111402138A (zh) | 一种基于多尺度特征提取融合的监督卷积神经网络的图像超分辨率重建方法 | |
CN112560918A (zh) | 一种基于改进YOLO v3的菜品识别方法 | |
CN113256494B (zh) | 一种文本图像超分辨率方法 | |
CN110930378A (zh) | 基于低数据需求的肺气肿影像处理方法及系统 | |
CN111986085A (zh) | 一种基于深度反馈注意力网络系统的图像超分辨率方法 | |
CN112949481A (zh) | 一种用于说话人无关的唇语识别方法及系统 | |
CN115409846A (zh) | 一种基于深度学习的结直肠癌病灶区域轻量级分割方法 | |
CN115375711A (zh) | 基于多尺度融合的全局上下文关注网络的图像分割方法 | |
CN115205647A (zh) | 一种基于注意力机制与多尺度特征融合的植物图像分割方法 | |
CN113313000B (zh) | 一种基于光学图像的气液两相流智能识别方法 | |
CN113538402B (zh) | 一种基于密度估计的人群计数方法及系统 | |
CN112818777B (zh) | 一种基于密集连接与特征增强的遥感图像目标检测方法 | |
CN112329793B (zh) | 基于结构自适应和规模自适应感受野的显著性检测方法 | |
CN113112003A (zh) | 基于自编码器的数据增广改善深度学习信道估计性能方法 | |
CN117132472A (zh) | 基于前向-反向可分离自注意力的图像超分辨率重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200626 |