CN113298748A - 一种基于注意力机制的图像协同显著目标检测模型 - Google Patents
一种基于注意力机制的图像协同显著目标检测模型 Download PDFInfo
- Publication number
- CN113298748A CN113298748A CN202010109240.0A CN202010109240A CN113298748A CN 113298748 A CN113298748 A CN 113298748A CN 202010109240 A CN202010109240 A CN 202010109240A CN 113298748 A CN113298748 A CN 113298748A
- Authority
- CN
- China
- Prior art keywords
- attention
- image
- single image
- channel
- cooperative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于注意力机制的图像协同显著目标检测模型,其特征在于,首先,提取单幅图像特征;其次,利用单幅图像通道注意力和多幅图像通道协同注意力提取每幅图像的通道特征;再次,利用单幅图像空间注意力和多幅图像空间协同注意力提取每幅图像的空间特征;接着,经过解码器生成协同显著图;最后,所述模型在显著真值图的监督下进行学习训练。所述模型通过通道协同注意力,激活组内图像共同的类别信息,通过空间协同注意力,激活组内图像相似目标的位置。所述模型利用注意力机制挖掘组内图像的协同关系,提高图像协同显著目标检测的效果。
Description
技术领域
本发明涉及计算机视觉领域,特别是涉及一种基于注意力机制的图像协同显著目标检测模型。
背景技术
在一组图像中找出共同显著的目标,称之为图像协同显著目标检测。传统的方法主要利用手绘特征,如颜色、对比度和上下文特征等,如2013年Fu等《Cluster-based co-saliency detection》利用聚类方法将重复属性作为附加约束来发现一组图像中的共同显著对象。现有基于深度学习的图像协同显著目标检测方法主要利用卷积神经网络来挖掘协同关系,如2017年Wei等《Group-wise deep co-saliency detection》设计了一个全卷积神经网络来进行图像协同显著目标检测,将组内所有图像特征级联的结果作为协同特征,加入每幅图像的特征中,计算协同显著图。再如2019年Ren等《Co-saliency detection viaintegration of multi-layer convolutional features and inter-imagepropagation》,同样是将组内所有图像的级联特征作为协同属性来学习协同关系,并进一步挖掘了不同尺度下的图像内显著性和图像间显著性的融合及扩散方法。
上述方法中,手绘低级特征依赖于先验知识,它的准确性往往取决于主观判断,所以在面对复杂场景时,很难取得非常好的检测结果,如2013年Fu等的方法;而深度学习的方法利用简单的级联操作实现协同特征提取,不能充分挖掘图像之间的关系和相似特征,如2017年Wei等和2019年Ren等的方法。
因此,亟需设计一种图像协同显著目标检测模型来解决上述问题。
发明内容
本发明所需要解决的技术问题是提供一种基于注意力机制的图像协同显著目标检测模型。注意力机制已经广泛用于单幅图像的显著目标检测中,它可以给图像特征的不同通道或空间位置上赋予不同的权重,以表达图像特征对于图像显著性结果的贡献程度。注意力特征能够更好地表达单幅图像特征,同样可以表达多幅图像的协同特征。本发明引入注意力机制,利用通道协同注意力和空间协同注意力提取一组图像之间的相似特征并挖掘图像之间的协同关系,以提高图像协同显著目标检测的效果。
本发明提供一种基于注意力机制的图像协同显著目标检测模型,其特征在于,该模型包括以下步骤:
S1、提取单幅图像特征;
S2、利用单幅图像通道注意力和多幅图像通道协同注意力提取每幅图像的通道特征;
S3、利用单幅图像空间注意力和多幅图像空间协同注意力提取每幅图像的空间特征;
S4、经过解码器生成协同显著图;
S5、所述模型在显著真值图的监督下进行学习训练。
进一步的,在步骤S1中,提取单幅图像特征具体方法如下:
一组N幅图像输入共享权重的N个ResNet50网络,提取所述N幅图像的特征所述ResNet50网络包括一个卷积块Conv_1和4个残差卷积块Res_i(i=2,3,4,5),在ImageNet数据集上预训练。
进一步的,在步骤S2中,利用单幅图像通道注意力和多幅图像通道协同注意力提取每幅图像的通道特征的具体方法如下:
S2.1:计算单幅图像通道注意力权重CAi
对于所述S1步骤得到的单幅图像特征Fi,首先进行基于空间的全局平均池化操作,然后经过一个多层感知器和sigmoid函数层,得到单幅图像通道注意力权重CAi。
CAi=Sig(MLP(GAP(Fi)))
其中GAP()表示全局平均池化,MLP()表示多层全连接神经网络,Sig()表示sigmoid函数。
S2.2:计算单幅图像通道注意力特征FCi
所述S1步骤得到的单幅图像特征Fi与所述单幅图像通道注意力权重CAi相乘,得到单幅图像通道注意力特征FCi。
FCi=Fi*CAi
S2.3:计算多幅图像通道协同注意力权重CCW
将一组内多幅图像的通道注意力权重CAi相加,得到多幅图像通道协同注意力权重。
S2.4:计算单幅图像的通道协同注意力特征CCi
所述S1步骤得到的单幅图像特征Fi与所述多幅图像通道协同注意力权重CCW相乘,得到单幅图像通道协同注意力特征CCi。
CCi=Fi*CCW
S2.5:计算单幅图像的通道特征Ci
将所述单幅图像的通道注意力特征FCi与所述单幅图像的通道协同注意力特征CCi特征级联,得到单幅图像的通道特征。
Ci=Cat(FCi,CCi)
其中Cat()表示特征级联操作。
进一步的,在步骤S3中,利用单幅图像空间注意力和多幅图像空间协同注意力提取每幅图像的空间特征的具体方法如下:
S3.1:计算单幅图像空间注意力权重SAi
对于所述S2步骤得到的单幅图像通道特征Ci,首先进行基于通道方向的全局平均和最大池化,然后将这两个结果级联,再经过一个7*7的卷积操作和sigmoid函数层,得到单幅图像空间注意力权重SAi。
SAi=Sig(Conv7*7(Cat(GAP(Ci),GMP(Ci))))
其中GMP()表示全局最大池化,Conv7*7()表示卷积核为7*7的卷积操作。
S3.2:计算单幅图像空间注意力特征FSi
所述S2步骤得到的单幅图像通道特征Ci与所述单幅图像空间注意力权重SAi相乘,得到单幅图像空间注意力特征FSi。
FSi=Ci*SAi
S3.3:计算多幅图像空间协同注意力权重CSWi
所述S2步骤得到的单幅图像通道特征Ci,与组内其他图像通道特征Cj(j≠i)进行归一化相关系数NC计算,再经过1*1的卷积和sigmoid函数层,得到相似度特征图。所有相似度特征图相加得到空间协同注意力权重CSWi。
其中,Conv1*1()表示卷积核为1*1的卷积操作,NC()表示归一化相关系数和,它是图像匹配中的经典算法,用来计算任意两个通道特征Ci和Cj的相似性,定义为:
S3.4:计算单幅图像的空间协同注意力特征CSi
所述S2步骤得到的单幅图像通道特征Ci与所述空间协同注意力权重CSWi相乘得到空间协同注意力特征CSi。
CSi=Ci*CSWi
S3.5:计算单幅图像的空间特征Si
将所述单幅图像空间注意力特征FSi与所述单幅图像的空间协同注意力特征CSi特征级联,得到单幅图像的空间特征。
Si=Cat(FSi,CSi)
进一步的,在步骤S4中,经过解码器生成协同显著图的具体方法如下:
所述步骤S3输出的空间特征Si,经过解码器得到协同显著图Mi。所述解码器采用图像显著性检测模型中常用的FPN(feature pyramid networks)结构,即在最高层特征反卷积的过程中,逐步结合Res_5,Res_4,Res_3,Res_2和Conv_1侧边特征,最后的融合特征经过1*1卷积和sigmoid函数得到协同显著图。
进一步的,在步骤S5中,在显著真值图的监督下进行学习训练的具体方法如下:
整个模型在显著真值图的监督下进行训练,其损失函数定义为图像显著性检测中标准的交叉熵损失函数:
其中,Yi和Mi分别表示第i幅图像的显著真值图和模型生成的显著图。
与已有技术相比,本发明有益效果体现在:
本发明提出一种基于注意力机制的图像协同显著目标检测模型,通过通道协同注意力,激活组内图像共同的类别信息,通过空间协同注意力,激活组内图像相似目标的位置。所述模型利用注意力机制挖掘组内图像的协同关系,提高图像协同显著目标检测的效果。
附图说明
图1为本发明一种基于注意力机制的图像协同显著目标检测模型图。
以下通过具体实施方式,并结合附图对本发明做进一步说明,但本发明的实施方式不限于此。
具体实施方式
本实施例提供一种基于注意力机制的图像协同显著目标检测模型,其特征在于,该模型包括以下步骤:
S1、提取单幅图像特征;
S2、利用单幅图像通道注意力和多幅图像通道协同注意力提取每幅图像的通道特征;
S3、利用单幅图像空间注意力和多幅图像空间协同注意力提取每幅图像的空间特征;
S4、经过解码器生成协同显著图;
S5、所述模型在显著真值图的监督下进行学习训练。
进一步的,在步骤S1中,提取单幅图像特征具体方法如下:
一组N幅图像输入共享权重的N个ResNet50网络,提取所述N幅图像的特征所述ResNet50网络包括一个卷积块Conv_1和4个残差卷积块Res_i(i=2,3,4,5),在ImageNet数据集上预训练。
进一步的,在步骤S2中,利用单幅图像通道注意力和多幅图像通道协同注意力提取每幅图像的通道特征的具体方法如下:
S2.1:计算单幅图像通道注意力权重CAi
对于所述S1步骤得到的单幅图像特征Fi,首先进行基于空间的全局平均池化操作,然后经过一个简单的3层全连接神经网络和sigmoid函数层,得到单幅图像通道注意力权重CAi。
CAi=Sig(MLP(GAP(Fi)))
其中GAP()表示全局平均池化,MLP()表示多层全连接神经网络,Sig()表示sigmoid函数。
S2.2:计算单幅图像通道注意力特征FCi
所述S1步骤得到的单幅图像特征Fi与所述单幅图像通道注意力权重CAi相乘,得到单幅图像通道注意力特征FCi。
FCi=Fi*CAi
S2.3:计算多幅图像通道协同注意力权重CCW
将一组内多幅图像的通道注意力权重CAi相加,得到多幅图像通道协同注意力权重。
S2.4:计算单幅图像的通道协同注意力特征CCi
所述S1步骤得到的单幅图像特征Fi与所述多幅图像通道协同注意力权重CCW相乘,得到单幅图像通道协同注意力特征CCi。
CCi=Fi*CCW
S2.5:计算单幅图像的通道特征Ci
将所述单幅图像的通道注意力特征FCi与所述单幅图像的通道协同注意力特征CCi特征级联,得到单幅图像的通道特征。
Ci=Cat(FCi,CCi)
其中Cat()表示特征级联操作。
进一步的,在步骤S3中,利用单幅图像空间注意力和多幅图像空间协同注意力提取每幅图像的空间特征的具体方法如下:
S3.1:计算单幅图像空间注意力权重SAi
对于所述S2步骤得到的单幅图像通道特征Ci,首先进行基于通道方向的全局平均和最大池化,然后将这两个结果级联,再经过一个7*7的卷积操作和sigmoid函数层,得到单幅图像空间注意力权重SAi。
SAi=Sig(Conv7*7(Cat(GAP(Ci),GMP(Ci))))
其中GMP()表示全局最大池化,Conv7*7()表示卷积核为7*7的卷积操作。
S3.2:计算单幅图像空间注意力特征FSi
所述S2步骤得到的单幅图像通道特征Ci与所述单幅图像空间注意力权重SAi相乘,得到单幅图像空间注意力特征FSi。
FSi=Ci*SAi
S3.3:计算多幅图像空间协同注意力权重CSWi
所述S2步骤得到的单幅图像通道特征Ci,与组内其他图像通道特征Cj(j≠i)进行归一化相关系数NC计算,再经过1*1的卷积和sigmoid函数层,得到相似度特征图。所有相似度特征图相加得到空间协同注意力权重CSWi。
其中,Conv1*1()表示卷积核为1*1的卷积操作,NC()表示归一化相关系数和,它是图像匹配中的经典算法,用来计算任意两个通道特征Ci和Cj的相似性,定义为:
S3.4:计算单幅图像的空间协同注意力特征CSi
所述S2步骤得到的单幅图像通道特征Ci与所述空间协同注意力权重CSWi相乘得到空间协同注意力特征CSi。
CSi=Ci*CSWi
S3.5:计算单幅图像的空间特征Si
将所述单幅图像空间注意力特征FSi与所述单幅图像的空间协同注意力特征CSi特征级联,得到单幅图像的空间特征。
Si=Cat(FSi,CSi)
进一步的,在步骤S4中,经过解码器生成协同显著图的具体方法如下:
所述步骤S3输出的空间特征Si,经过解码器得到协同显著图Mi。所述解码器采用图像显著性检测模型中常用的FPN(feature pyramid networks)结构,即在最高层特征反卷积的过程中,逐步结合Res_5,Res_4,Res_3,Res_2和Conv_1侧边特征,最后的融合特征经过1*1卷积和sigmoid函数得到协同显著图。
进一步的,在步骤S5中,在显著真值图的监督下进行学习训练的具体方法如下:
整个模型在显著真值图的监督下进行训练,其损失函数定义为图像显著性检测中标准的交叉熵损失函数:
其中,Yi和Mi分别表示第i幅图像的显著真值图和模型生成的显著图。
本实施例一种基于注意力机制的图像协同显著目标检测模型,通过通道协同注意力,激活组内图像共同的类别信息,通过空间协同注意力,激活组内图像相似目标的位置。所述模型利用注意力机制挖掘组内图像的协同关系,提高图像协同显著目标检测的效果。
Claims (6)
1.本发明一种基于注意力机制的图像协同显著目标检测模型,其特征在于,该模型包括以下步骤:
S1、提取单幅图像特征;
S2、利用单幅图像通道注意力和多幅图像通道协同注意力提取每幅图像的通道特征;
S3、利用单幅图像空间注意力和多幅图像空间协同注意力提取每幅图像的空间特征;
S4、经过解码器生成协同显著图;
S5、所述模型在显著真值图的监督下进行学习训练。
3.根据权利要求1所述的一种基于注意力机制的图像协同显著目标检测模型,其特征在于,所述步骤S2的具体过程为:
S2.1:计算单幅图像通道注意力权重CAi
对于所述S1步骤得到的单幅图像特征Fi,首先进行基于空间的全局平均池化操作,然后经过一个多层感知器和sigmoid函数层,得到单幅图像通道注意力权重CAi。
CAi=Sig(MLP(GAP(Fi)))
其中GAP()表示全局平均池化,MLP()表示多层全连接神经网络,Sig()表示sigmoid函数。
S2.2:计算单幅图像通道注意力特征FCi
所述S1步骤得到的单幅图像特征Fi与所述单幅图像通道注意力权重CAi相乘,得到单幅图像通道注意力特征FCi。
FCi=Fi*CAi
S2.3:计算多幅图像通道协同注意力权重CCW
将一组内多幅图像的通道注意力权重CAi相加,得到多幅图像通道协同注意力权重。
S2.4:计算单幅图像的通道协同注意力特征CCi
所述S1步骤得到的单幅图像特征Fi与所述多幅图像通道协同注意力权重CCW相乘,得到单幅图像通道协同注意力特征CCi。
CCi=Fi*CCW
S2.5:计算单幅图像的通道特征Ci
将所述单幅图像的通道注意力特征FCi与所述单幅图像的通道协同注意力特征CCi特征级联,得到单幅图像的通道特征。
Ci=Cat(FCi,CCi)
其中Cat()表示特征级联操作。
4.根据权利要求1所述的一种基于注意力机制的图像协同显著目标检测模型,其特征在于,所述步骤S3的具体过程为:
S3.1:计算单幅图像空间注意力权重SAi
对于所述S2步骤得到的单幅图像通道特征Ci,首先进行基于通道方向的全局平均和最大池化,然后将这两个结果级联,再经过一个7*7的卷积操作和sigmoid函数层,得到单幅图像空间注意力权重SAi。
SAi=Sig(Conv7*7(Cat(GAP(Ci),GMP(Ci))))
其中GMP()表示全局最大池化,Conv7*7()表示卷积核为7*7的卷积操作。
S3.2:计算单幅图像空间注意力特征FSi
所述S2步骤得到的单幅图像通道特征Ci与所述单幅图像空间注意力权重SAi相乘,得到单幅图像空间注意力特征FSi。
FSi=Ci*SAi
S3.3:计算多幅图像空间协同注意力权重CSWi
所述S2步骤得到的单幅图像通道特征Ci,与组内其他图像通道特征Cj(j≠i)进行归一化相关系数NC计算,再经过1*1的卷积和sigmoid函数层,得到相似度特征图。所有相似度特征图相加得到空间协同注意力权重CSWi。
其中,Conv1*1()表示卷积核为1*1的卷积操作,NC()表示归一化相关系数和,它是图像匹配中的经典算法,用来计算任意两个通道特征Ci和Cj的相似性,定义为:
S3.4:计算单幅图像的空间协同注意力特征CSi
所述S2步骤得到的单幅图像通道特征Ci与所述空间协同注意力权重CSWi相乘得到空间协同注意力特征CSi。
CSi=Ci*CSWi
S3.5:计算单幅图像的空间特征Si
将所述单幅图像空间注意力特征FSi与所述单幅图像的空间协同注意力特征CSi特征级联,得到单幅图像的空间特征。
Si=Cat(FSi,CSi)。
5.根据权利要求1所述的一种基于注意力机制的图像协同显著目标检测模型,其特征在于,所述步骤S4的具体过程为:所述步骤S3输出的空间特征Si,经过解码器得到协同显著图Mi。所述解码器采用图像显著性检测模型中常用的FPN(feature pyramid networks)结构,即在最高层特征反卷积的过程中,逐步结合Res_5,Res_4,Res_3,Res_2和Conv_1侧边特征,最后的融合特征经过1*1卷积和sigmoid函数得到协同显著图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010109240.0A CN113298748B (zh) | 2020-02-21 | 2020-02-21 | 一种基于注意力机制的图像协同显著目标检测模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010109240.0A CN113298748B (zh) | 2020-02-21 | 2020-02-21 | 一种基于注意力机制的图像协同显著目标检测模型 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113298748A true CN113298748A (zh) | 2021-08-24 |
CN113298748B CN113298748B (zh) | 2022-11-18 |
Family
ID=77317607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010109240.0A Active CN113298748B (zh) | 2020-02-21 | 2020-02-21 | 一种基于注意力机制的图像协同显著目标检测模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113298748B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140001358A (ko) * | 2012-06-26 | 2014-01-07 | 한국전자통신연구원 | 차폐 영역 필터링 기반 영상 처리 방법 |
CN107133955A (zh) * | 2017-04-14 | 2017-09-05 | 大连理工大学 | 一种多层次结合的协同显著性检测方法 |
CN107909059A (zh) * | 2017-11-30 | 2018-04-13 | 中南大学 | 一种面向复杂城市场景中协同仿生视觉的交通标志牌检测与识别方法 |
CN108550132A (zh) * | 2018-03-16 | 2018-09-18 | 安徽大学 | 一种基于全局紧凑先验和全局相似度显著传播的协同显著目标检测方法 |
CN109583450A (zh) * | 2018-11-27 | 2019-04-05 | 东南大学 | 基于前馈神经网络融合视觉注意先验的显著区域检测方法 |
CN110020658A (zh) * | 2019-03-28 | 2019-07-16 | 大连理工大学 | 一种基于多任务深度学习的显著目标检测方法 |
CN110276396A (zh) * | 2019-06-21 | 2019-09-24 | 西安电子科技大学 | 基于物体显著性和跨模态融合特征的图片描述生成方法 |
CN110390289A (zh) * | 2019-07-17 | 2019-10-29 | 苏州大学 | 基于指称理解的视频安防检测方法 |
CN110675423A (zh) * | 2019-08-29 | 2020-01-10 | 电子科技大学 | 一种基于孪生神经网络和注意力模型的无人机跟踪方法 |
CN110751160A (zh) * | 2019-10-30 | 2020-02-04 | 华中科技大学 | 图像中物体的检测方法、装置及系统 |
-
2020
- 2020-02-21 CN CN202010109240.0A patent/CN113298748B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140001358A (ko) * | 2012-06-26 | 2014-01-07 | 한국전자통신연구원 | 차폐 영역 필터링 기반 영상 처리 방법 |
CN107133955A (zh) * | 2017-04-14 | 2017-09-05 | 大连理工大学 | 一种多层次结合的协同显著性检测方法 |
CN107909059A (zh) * | 2017-11-30 | 2018-04-13 | 中南大学 | 一种面向复杂城市场景中协同仿生视觉的交通标志牌检测与识别方法 |
CN108550132A (zh) * | 2018-03-16 | 2018-09-18 | 安徽大学 | 一种基于全局紧凑先验和全局相似度显著传播的协同显著目标检测方法 |
CN109583450A (zh) * | 2018-11-27 | 2019-04-05 | 东南大学 | 基于前馈神经网络融合视觉注意先验的显著区域检测方法 |
CN110020658A (zh) * | 2019-03-28 | 2019-07-16 | 大连理工大学 | 一种基于多任务深度学习的显著目标检测方法 |
CN110276396A (zh) * | 2019-06-21 | 2019-09-24 | 西安电子科技大学 | 基于物体显著性和跨模态融合特征的图片描述生成方法 |
CN110390289A (zh) * | 2019-07-17 | 2019-10-29 | 苏州大学 | 基于指称理解的视频安防检测方法 |
CN110675423A (zh) * | 2019-08-29 | 2020-01-10 | 电子科技大学 | 一种基于孪生神经网络和注意力模型的无人机跟踪方法 |
CN110751160A (zh) * | 2019-10-30 | 2020-02-04 | 华中科技大学 | 图像中物体的检测方法、装置及系统 |
Non-Patent Citations (8)
Title |
---|
DINGWEN ZHANG ET AL: "A Review of Co-Saliency Detection Algorithms: Fundamentals, Applications, and Challenges", 《ACM TRANSACTIONS ON INTELLIGENT SYSTEMS AND TECHNOLOGY》 * |
JINGRU REN ET AL: "Co-saliency detection via integration of multi-layer convolutional features and inter-image propagation", 《NEUROCOMPUTING》 * |
K. ZHANG ET AL: "Co-Saliency Detection via Mask-Guided Fully Convolutional Networks With Multi-Scale Label Smoothing", 《CVPR》 * |
L. YE ET AL: "Co-Saliency Detection via Co-Salient Object Discovery and Recovery", 《IEEE SIGNAL PROCESSING LETTERS》 * |
S. -B. CHEN ET AL: "Pyramid Attention Dense Network for Image Super-Resolution", 《 2019 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS》 * |
Z. -J. ZHA ET AL: "Robust Deep Co-Saliency Detection With Group Semantic and Pyramid Attention", 《IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS》 * |
张鼎文: "基于显著性及弱监督学习的智能视觉信息处理", 《中国博士学位论文全文数据库 信息科技辑》 * |
钱晓亮等: "协同视觉显著性检测方法综述", 《电子学报》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113298748B (zh) | 2022-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guo et al. | Scene-driven multitask parallel attention network for building extraction in high-resolution remote sensing images | |
CN111582316B (zh) | 一种rgb-d显著性目标检测方法 | |
CN109271960B (zh) | 一种基于卷积神经网络的人数统计方法 | |
CN109949255B (zh) | 图像重建方法及设备 | |
CN109377530B (zh) | 一种基于深度神经网络的双目深度估计方法 | |
CN112132023A (zh) | 基于多尺度上下文增强网络的人群计数方法 | |
CN109919032B (zh) | 一种基于动作预测的视频异常行为检测方法 | |
CN112818969B (zh) | 一种基于知识蒸馏的人脸姿态估计方法及系统 | |
CN111582044A (zh) | 基于卷积神经网络和注意力模型的人脸识别方法 | |
CN116206133B (zh) | 一种rgb-d显著性目标检测方法 | |
CN113408577A (zh) | 一种基于注意力机制的图像分类方法 | |
CN113221694A (zh) | 一种动作识别方法 | |
CN112085738A (zh) | 一种基于生成对抗网络的图像分割方法 | |
TW201839665A (zh) | 物件辨識方法及物件辨識系統 | |
CN114743027B (zh) | 弱监督学习引导的协同显著性检测方法 | |
CN113505634A (zh) | 一种双流解码跨任务交互网络的光学遥感图像显著目标检测方法 | |
CN116740439A (zh) | 一种基于跨尺度金字塔Transformer的人群计数方法 | |
CN112348033B (zh) | 一种协同显著性目标检测方法 | |
CN113298748B (zh) | 一种基于注意力机制的图像协同显著目标检测模型 | |
Andrei et al. | Unsupervised Machine Learning Algorithms Used in Deforested Areas Monitoring | |
CN111950476A (zh) | 基于深度学习的复杂环境下河道船舶自动识别方法 | |
CN116662656A (zh) | 一种基于协同增强和图注意力神经网络的电影推荐方法 | |
CN116433980A (zh) | 脉冲神经网络结构的图像分类方法、装置、设备及介质 | |
CN116977683A (zh) | 对象识别方法、装置、计算机设备、存储介质和程序产品 | |
CN113763474B (zh) | 一种基于场景几何约束的室内单目深度估算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |