CN110490189A - 一种基于双向消息链路卷积网络的显著性物体的检测方法 - Google Patents
一种基于双向消息链路卷积网络的显著性物体的检测方法 Download PDFInfo
- Publication number
- CN110490189A CN110490189A CN201910598297.9A CN201910598297A CN110490189A CN 110490189 A CN110490189 A CN 110490189A CN 201910598297 A CN201910598297 A CN 201910598297A CN 110490189 A CN110490189 A CN 110490189A
- Authority
- CN
- China
- Prior art keywords
- convolution
- feature
- channel
- indicate
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Abstract
本发明提出一种基于双向消息链路卷积网络的显著性物体的检测方法。首先,利用注意力机制引导特征提取模块提取实体有效特征,并以渐进方式选择整合多层次之间的上下文信息。然后使用带有跳过连接结构的网络与带门控函数的消息传递链路组成的双向信息链路,将高层语义信息与浅层轮廓信息相融合。最后,使用多尺度融合策略,编码多层有效卷积特征,以生成最终显著图。在6个数据集的定性和定量实验表明,本发明提出的方法在不同指标下均获得较好的表现。
Description
技术领域
本发明属于图像处理领域,特别是对于图像显著性物体检测的领域、提取图像中显著性区域(即人类感兴趣的区域)。
背景技术
视觉显著性是用来刻画图像中的部分区域,这些区域相对于它们的临近区域更为突出。显著性模型可分为基于数据驱动的自底向上模型和基于任务驱动的自顶向下模型。基于卷积神经网络的显著性检测方法消除了对手工特征的需求,逐渐成为显著性检测的主流方向。显著性物体检测用于突出图像中最重要的部分,常作为图像预处理步骤用于计算机视觉任务中,包括图像分割,视觉跟踪,场景分类,物体检测,图像检索,图像识别等。
显著性物体检测可分为使用手工设计低级特征的显著性检测方法,以及基于深度卷积神经网络提取特征的显著性检测方法。使用手工设计特征的显著性检测方法大多数使用启发式显著性先验知识,如颜色对比先验,边界背景先验以及中心先验等等。
基于深度卷积神经网络,特别是全卷积神经网络(FCN),已经在语义分割、姿态估计和对象提取等标记任务中表现出优异的性能。同时也推动了尝试使用FCN解决显著性物体检测中显著性物体定位问题。在使用深度神经网络解决显著性物体检测的任务中,依旧存在很多解决的问题,如边界细节信息缺失、背景抑制和实体镜像等问题需要解决。目前在解决边界细节信息丢失问题主要采用对侧输出层之间添加短连接将低级边界特征传递到深层特征、使用非线性融合和多级融合不同级别的特征、使用循环神经网络整合多层信息或者跳过连接等方式组合不同的级别特征;在解决背景抑制问题主要采用“软硬”注意力机制或者残差注意力机制来训练残差网络等方式来增强显著性物体的的权值,达到对背景内容的抑制;在处理实体镜像问题上采用显著性抑制的方式进行处理。本发明使用由通道注意力与空间注意力组成的注意力模块指导有效特征的提取,采用串联的方式将通道注意力与空间注意力进行组合,可赋予有效通道、有效卷积特征更高的权值,减少背景对显著性物体预测的影响。本发明提出具有跳过连接结构的上下文感知模块与带门控函数的消息链路组成的双向消息链路,在实现高层语义信息与低层轮廓信息相互传递的同时,能够控制高层语义对低层轮廓提取的影响程度,达到高层语义“有限”指导低层轮廓的提取,而低层轮廓信息则为高层语义的识别提供更精确的空间信息。本发明借助多尺度融合策略将多级有效特征进行融合,可在不同角度产生对显著性物体的预测,并进一步融合不同尺度的信息生成具有完整边界的显著性物体预测图。
发明内容
本发明的目的在于提供一种图像显著性物体的检测方法。本发明提出双向消息链路卷积网络(BML-CNN)模型,提取和融合有效特征信息用于显著性物体检测。首先,利用注意力机制引导特征提取模块提取实体有效特征,并以渐进方式选择整合多层次之间的上下文信息。然后使用带有跳过连接结构的网络与带门控函数的消息传递链路组成的双向信息链路,将高层语义信息与浅层轮廓信息相融合。最后,使用多尺度融合策略,编码多层有效卷积特征,以生成最终显著图。在6个数据集的定性和定量实验表明,本发明提出的BML-CNN在不同指标下均获得最好的表现。
为了达到上述目的,本发明通过以下技术方案实现:
一种基于双向消息链路卷积网络的显著性物体检测方法,其特点是,该检测方法包含如下步骤:
步骤1,采集图像显著性物体检测训练数据集;
步骤2,建立含有通道注意力与空间注意力的有效特征提取模块,提取有效显著性物体特征;
步骤3,建立带有跳过连接结构的上下文感知网络与带有门控函数的信息传递链路组成的双向消息链路,用于有效特征的相互传递;
步骤4,使用多尺度融合策略融合多尺度上下文信息,输出对图像中物体显著度的预测。
所述的一种基于双向消息链路卷积网络的显著性物体检测方法,其特点是,所述的步骤2包含如下步骤:
步骤2.1,通道注意力机制是通道注意力机制是处理卷积神经网络中不同的特征通道,为有效的通道赋予更高的权重使其能对显著性对象有更高的响应,降低无效通道的权重使其能够降低对显著性对象预测的干扰。
将卷积特征用I∈RW×H×C表示,其中R表示实数集合,W×H×C表示卷积特征I的维度,用F={f1,f2,…,fC}表示卷积特征I上的通道,其中fi∈RW×H,i∈{1,2,…,C}表示卷积特征I上的第i个通道,W表示宽,H表示高,C表示通道总数。用s∈RC表示通道权重向量,我们设计一个卷积层来学习每个通道的权值特征:
g=WC*F+bC (1)
其中*表示卷积运算,WC表示卷积滤波器,bC表示卷积偏差。使用Softmax激活函数获得最终的通道注意力向量aC={aC(1),aC(2),…,aC(C)}:
步骤2.2,空间注意力机制直接使用卷积特征预测显著性往往可能由于非显著性区域所造成的噪音导致次优结果。空间注意力机制通过对每一个区域进行评估,为每一个区域赋予不同的权值,使得模型能够更加关注有助于显著性预测的有效信息。空间注意力机制可以突出显著性对象,减少背景区域的干扰。
使用I∈RW×H×C表示卷积特征,使用L={(x,y)|x=1,2,…,W;y=1,2,…H}表示卷积特征上空间位置,其中(x,y)表示空间上点的坐标。我们设计了一个卷积层来计算空间注意力特征图:
m=WS*I+bS (4)
其中m∈RW×H是包含所有通道的信息,*表示卷积运算,Ws表示卷积滤波器,bS表示卷积偏差。
接下来使用Softmax激活函数获取每一个位置上的空间注意力权重。
∑l∈LaS(l)=1 (6)
其中m(l)表示空间注意力特征图m中第1个点,其中l∈L,aS(l)表示第1个点的权值。令aS={aS(1),aS(2),…,aS(W×H)}为空间关注图。
注意力模块使用通道注意力模块与空间注意力模块串联成注意力模块。将注意力模块添加到带跳过连接的上下文感知模块,可从不同方向上减少背景区域的干扰,提高对显著性物体的预测,并精确的保留边界信息。
使用I∈RW×H×C表示输入注意力模块的卷积特征前半阶段为通道注意力机制,后半段为空间注意力机制。令IC为经过通道注意力模块输出的卷积特征:
IC(i)=I(i)×aC(i) (7)
其中×表示对应元素相乘,aC(i)表示第i层通道的通道注意力向量第i维参数,其中i∈{1,2,…,C}。
接下来将得到的卷积特征输入到空间注意力模块中得到ICS:
ICS=aS*IC (8)
其中*表示Hadamard矩阵乘积运算。得到的ICS是通过注意力模块的带权卷积特征,模型使用ICS指导下一层卷积对显著性物体特征的提取。
所述的一种基于双向消息链路卷积网络的显著性物体检测方法,其特点是,所述的步骤3包含如下步骤:
步骤3.1,带有跳过连接结构的上下文传递模块,公式(9)中的“Conv5”是对原始图片的特征提取,使用跳过连接结构将原始图片,与语义特征一起作为新的卷积层的输入,实现上下文传递,并使用后续的卷积将低级空间特征与高级语义相融合,使得显著性特征具有比较完备的边界信息和高级语义信息。另外注意力机制的加入减少了背景对显著性物体预测的影响。
att_conv5=Atten(Conv5) (9)
Upi=Up(att_conv5,ui) (10)
其中att_conv5为“Conv5”通过注意力模块Atten的输出,Upi,i∈{1,2,3,4,5}表示上采样的输出,ui为大小分别为{16×16,8×8,4×4,2×2,1×1}的上采样内核。
convi=Conv(Concat(Upi-5,convi-1),K) (11)
ati=Atten(convi) (12)
其中K表示大小为3×3的卷积核,concat表示通道连接,Upi-5由公式(9)和(10)计算得到。公式(11)中卷积的激活函数均为Relu。ati表示convi通过注意力模块的输出。
步骤3.2,使用带门控函数的信息传递链路将高级语义信息与中间层卷积特征相融合,因为并不是所有的中间层都对物体显著性的预测是有帮助的,所以借助门控函数产生[0-1]的权值向量,控制高层卷积特征对低级卷积特征的影响程度,从而每一层都是由上一层加权并与本层特征融合的结果,使得每一层都有在上一层高级语义的指导下选择本层的空间特征,从而产生不同级别、不同尺度、不同视角的显著性预测先验信息,为进一步的多尺度融合提供比较全面的特征信息。
dcij=Conv(ati,K,Dj) (13)
sdi=Concat(dci1,dci2,dci3,dci4) (14)
其中dcij,i∈{1,2,3,4,5},j∈{1,2,3,4}表示空洞卷积的输出,卷积核K的大小均为3×3,Dj表示大小分别为1,3,5,7的dilation rate。sdi表示融合空洞卷积的输出,i∈{1,2,3,4,5}。
Mi=G(Si+1,Ki1)×Conv(Si+1,Ki2) (15)
G(Si+1,Ki1)=Sigmoid(Conv(Si+1,Ki1)) (16)
Si=Conv(Concat(Mi,sdi),Ki) (17)
其中门控函数由G表示,Ki、Ki1和Ki2均表示大小为3×3的卷积核。Si则表示双向消息链路的侧输出。
所述的一种基于双向消息链路卷积网络的显著性物体检测方法,其特点是,所述的步骤4包含如下步骤:
步骤4.1使用多尺度特征融合策略将双消息链路的侧输出Si,i∈{1,2,3,4,5}进行融合。首先对6个侧输出进行上采样操作得到分层映射Smi,它将用于对尺度特征融合的输入。
Smi=Up(Si,ui) (18)
其中Up表示上采样操作,ui分别表示大小为{1×1,2×2,4×4,8×8,16×16}的采样内核。
步骤4.2将公式18计算得到的5个分层特征映射Smi输入到特征融合策略,生成最终的显著性预测图。
FCM0=Concat(Sm1,Sm2,Sm3,Sm4,Sm5) (19)
FCM1=Conv(FCM0,K1) (20)
FCM2=Conv(FCM1,K2) (21)
pre_gt=Conv(FCM2,K3) (22)
其中K1、K2和K3分别表示大小为3×3,3×3,1×1的卷积核,激活函数分别为Relu,Relu,Sigmoid。pre_gt为模型最终的输出,也是物体的显著性预测图。
本发明使用由通道注意力与空间注意力组成的注意力模块指导有效特征的提取,采用串联的方式将通道注意力与空间注意力进行组合,可赋予有效通道、有效卷积特征更高的权值,减少背景对显著性物体预测的影响。本发明提出具有跳过连接结构的上下文感知模块与带门控函数的消息链路组成的双向消息链路,在实现高层语义信息与低层轮廓信息相互传递的同时,能够控制高层语义对低层轮廓提取的影响程度,达到高层语义“有限”指导低层轮廓的提取,而低层轮廓信息则为高层语义的识别提供更精确的空间信息。本发明借助多尺度融合策略将多级有效特征进行融合,可在不同角度产生对显著性物体的预测,并进一步融合不同尺度的信息生成具有完整边界的显著性物体预测图。
附图说明
图1是一种基于双向消息链路卷积网络的显著性物体的检测方法的整体流程图。
具体实施方式
以下结合附图,通过详细说明一个较佳的具体实施例,对本发明做进一步阐述。
如图1所示,一种基于双向消息链路卷积网络的显著性物体检测方法,其检测方法包含如下步骤:
步骤1,采集图像显著性物体检测训练数据集;
为了训练本文模型,使用DUTS-TR数据集训练本文模型,数据集包括10553张图片,为了使模型获得更好的训练效果,使用了数据增强策略生成了63318张图片作为训练图片。为了评估模型,本发明使用6个标准数据集:DUTS-TE数据集,该数据集具有5019个具有高像素注释的测试数据集。DUT-OMRON数据集,该数据集有5168个高质量的图像,数据集中的图像具有一个或多个显著性对象和相对复杂的背景。ECSSD数据集,该数据集具有1000个图像,在语义上具有比较复杂的分割结构。HKU-IS数据集,该数据集具有4447幅图片,具有多个不相连的显著性对象。PASCAL-S数据集,该数据集是从PASCAL VOC数据集中挑选的,具有850张自然图像。
步骤2,建立含有通道注意力与空间注意力的有效特征提取模块,提取有效显著性物体特征;
步骤2.1,通道注意力机制是通道注意力机制是处理卷积神经网络中不同的特征通道,为有效的通道赋予更高的权重使其能对显著性对象有更高的响应,降低无效通道的权重使其能够降低对显著性对象预测的干扰。
将卷积特征用I∈RW×H×C表示,其中R表示实数集合,W×H×C表示卷积特征I的维度,用F={f1,f2,…,fC}表示卷积特征I上的通道,其中fi∈RW×H,i∈{1,2,…,C}表示卷积特征I上的第i个通道,W表示宽,H表示高,C表示通道总数。用s∈RC表示通道权重向量,我们设计一个卷积层来学习每个通道的权值特征:
g=WC*F+bC (23)
其中*表示卷积运算,WC表示卷积滤波器,bC表示卷积偏差。使用Softmax激活函数获得最终的通道注意力向量aC={aC(1),aC(2),…,aC(C)}:
步骤2.2,空间注意力机制直接使用卷积特征预测显著性往往可能由于非显著性区域所造成的噪音导致次优结果。空间注意力机制通过对每一个区域进行评估,为每一个区域赋予不同的权值,使得模型能够更加关注有助于显著性预测的有效信息。空间注意力机制可以突出显著性对象,减少背景区域的干扰。
使用I∈RW×H×C表示卷积特征,使用L={(x,y)|x=1,2,…,W;y=1,2,…H}表示卷积特征上空间位置,其中(x,y)表示空间上点的坐标。我们设计了一个卷积层来计算空间注意力特征图:
m=WS*I+bS (26)
其中m∈RW×H是包含所有通道的信息,*表示卷积运算,Ws表示卷积滤波器,bS表示卷积偏差。
接下来使用Softmax激活函数获取每一个位置上的空间注意力权重。
∑l∈LaS(l)=1 (28)
其中m(l)表示空间注意力特征图m中第1个点,其中l∈L,aS(l)表示第1个点的权值。令aS={aS(1),aS(2),…,aS(W×H)}为空间关注图。
注意力模块使用通道注意力模块与空间注意力模块串联成注意力模块。将注意力模块添加到带跳过连接的上下文感知模块,可从不同方向上减少背景区域的干扰,提高对显著性物体的预测,并精确的保留边界信息。
使用I∈RW×H×C表示输入注意力模块的卷积特征前半阶段为通道注意力机制,后半段为空间注意力机制。令IC为经过通道注意力模块输出的卷积特征:
IC(i)=I(i)×aC(i) (29)
其中×表示对应元素相乘,aC(i)表示第i层通道的通道注意力向量第i维参数,其中i∈{1,2,…,C}。
接下来将得到的卷积特征输入到空间注意力模块中得到ICS:
ICS=aS*IC (30)
其中*表示Hadamard矩阵乘积运算。得到的ICS是通过注意力模块的带权卷积特征,模型使用ICS指导下一层卷积对显著性物体特征的提取。
步骤3,建立带有跳过连接结构的上下文感知网络与带有门控函数的信息传递链路组成的双向消息链路,用于有效特征的相互传递;
步骤3.1,带有跳过连接结构的上下文传递模块,“Conv5”是对原始图片的特征提取,使用跳过连接结构将原始图片,与语义特征一起作为新的卷积层的输入,实现上下文传递,并使用后续的卷积将低级空间特征与高级语义相融合,使得显著性特征具有比较完备的边界信息和高级语义信息。另外注意力机制的加入减少了背景对显著性物体预测的影响。
att_conv5=Atten(Conv5) (31)
Upi=Up(att_conv5,ui) (32)
其中att_conv5为“Conv5”通过注意力模块Atten的输出,Upi,i∈{1,2,3,4,5}表示上采样的输出,ui为大小分别为{16×16,8×8,4×4,2×2,1×1}的上采样内核。
convi=Conv(Concat(Upi-5,convi-1),K) (33)
ati=Atten(convi) (34)
其中K表示大小为3×3的卷积核,concat表示通道连接,Upi-5由公式(31)和(32)计算得到。公式(33)中卷积的激活函数均为Relu。ati表示convi通过注意力模块的输出。
步骤3.2,使用带门控函数的信息传递链路将高级语义信息与中间层卷积特征相融合,因为并不是所有的中间层都对物体显著性的预测是有帮助的,所以借助门控函数产生[0-1]的权值向量,控制高层卷积特征对低级卷积特征的影响程度,从而每一层都是由上一层加权并与本层特征融合的结果,使得每一层都有在上一层高级语义的指导下选择本层的空间特征,从而产生不同级别、不同尺度、不同视角的显著性预测先验信息,为进一步的多尺度融合提供比较全面的特征信息。
dcij=Conv(ati,K,Dj) (35)
sdi=Concat(dci1,dci2,dci3,dci4) (36)
其中dcij,i∈{1,2,3,4,5},j∈{1,2,3,4}表示空洞卷积的输出,卷积核K的大小均为3×3,Di表示大小分别为1,3,5,7的dilation rate。sdi表示融合空洞卷积的输出,i∈{1,2,3,4,5}。
Mi=G(Si+1,Ki1)×Conv(Si+1,Ki2) (37)
G(Si+1,Ki1)=Sigmoid(Conv(Si+1,Ki1)) (38)
Si=Conv(Concat(Mi,sdi),Ki) (39)
其中门控函数由G表示,Ki、Ki1和Ki2均表示大小为3×3的卷积核。Si则表示双向消息链路的侧输出。
步骤4,使用多尺度融合策略融合多尺度上下文信息,输出对图像中物体显著度的预测。
步骤4.1使用多尺度特征融合策略将双消息链路的侧输出Si,i∈{1,2,3,4,5}进行融合。首先对6个侧输出进行上采样操作得到分层映射Smi,它将用于对尺度特征融合的输入。
Smi=Up(Si,ui) (40)
其中Up表示上采样操作,ui分别表示大小为{1×1,2×2,4×4,8×8,16×16}的采样内核。
步骤4.2将公式18计算得到的5个分层特征映射Smi输入到特征融合策略,生成最终的显著性预测图。
FCM0=Concat(Sm1,Sm2,Sm3,Sm4,Sm5) (41)
FCM1=Conv(FCM0,K1) (42)
FCM2=Conv(FCM1,K2) (43)
pre_gt=Conv(FCM2,K3) (44)
其中K1、K2和K3分别表示大小为3×3,3×3,1×1的卷积核,激活函数分别为Relu,Relu,Sigmoid。pre_gt为模型最终的输出,也是物体的显著性预测图。实验结果显示,本发明提出的BML-CNN在数据集DUTS-TE,DUT-OMRON,HKU-IS,THUR15K,PASCAL-S上MAE降低了5.97%,21.35%,5.77%,13.41%和10%,在Fβ指标上分别提高了4.69%,7.02%,2.23%,8.62%和3.88%。在数据集ECSSD上BML-CNN比Amulet的MAE高了3.28%,但BML-CNN却在Fβ比Amulet高了1.26%。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。
Claims (4)
1.一种基于双向消息链路卷积网络的显著性物体的检测方法,其特征在于,该提取方法包含如下步骤:
步骤1,采集图像显著性物体检测训练数据集;
步骤2,建立含有通道注意力与空间注意力的有效特征提取模块,提取有效显著性物体特征;
步骤3,建立带有跳过连接结构的上下文感知网络与带有门控函数的信息传递链路组成的双向消息链路,用于有效特征的相互传递;
步骤4,使用多尺度融合策略融合多尺度上下文信息,输出对图像中物体显著度的预测。
2.如权利要求1所述的一种基于双向消息链路卷积网络的显著性物体的检测方法的步骤2包含如下步骤:
步骤2.1,通道注意力机制是通道注意力机制是处理卷积神经网络中不同的特征通道,为有效的通道赋予更高的权重使其能对显著性对象有更高的响应,降低无效通道的权重使其能够降低对显著性对象预测的干扰。
将卷积特征用I∈Rw×H×C表示,其中R表示实数集合,W×H×C表示卷积特征I的维度,用F={f1,f2,…,fC}表示卷积特征I上的通道,其中fi∈RW×H,i∈{1,2,…,C}表示卷积特征I上的第i个通道,W表示宽,H表示高,C表示通道总数。用s∈RC表示通道权重向量,我们设计一个卷积层来学习每个通道的权值特征:
g=WC*F+bC (1)
其中*表示卷积运算,WC表示卷积滤波器,bC表示卷积偏差。使用Softmax激活函数获得最终的通道注意力向量aC={aC(1),aC(2),…,aC(C)}:
步骤2.2,空间注意力机制直接使用卷积特征预测显著性往往可能由于非显著性区域所造成的噪音导致次优结果。空间注意力机制通过对每一个区域进行评估,为每一个区域赋予不同的权值,使得模型能够更加关注有助于显著性预测的有效信息。空间注意力机制可以突出显著性对象,减少背景区域的干扰。
使用I∈RW×H×C表示卷积特征,使用L={(x,y)|x=1,2,…,W;y=1,2,…H}表示卷积特征上空间位置,其中(x,y)表示空间上点的坐标。我们设计了一个卷积层来计算空间注意力特征图:
m=WS*I+bS (4)
其中m∈RW×H是包含所有通道的信息,*表示卷积运算,WS表示卷积滤波器,bS表示卷积偏差。
接下来使用Softmax激活函数获取每一个位置上的空间注意力权重。
∑l∈LaS(l)=1 (6)
其中m(l)表示空间注意力特征图m中第1个点,其中l∈L,aS(l)表示第1个点的权值。令aS={aS(1),aS(2),…,aS(W×H)}为空间关注图。
注意力模块使用通道注意力模块与空间注意力模块串联成注意力模块。将注意力模块添加到带跳过连接的上下文感知模块,可从不同方向上减少背景区域的干扰,提高对显著性物体的预测,并精确的保留边界信息。
使用I∈RW×H×C表示输入注意力模块的卷积特征前半阶段为通道注意力机制,后半段为空间注意力机制。令IC为经过通道注意力模块输出的卷积特征:
IC(i)=I(i)×aC(i) (7)
其中×表示对应元素相乘,aC(i)表示第i层通道的通道注意力向量第i维参数,其中i∈{1,2,…,C}。
接下来将得到的卷积特征输入到空间注意力模块中得到ICS:
ICS=aS*IC (8)
其中*表示Hadamard矩阵乘积运算。得到的ICS是通过注意力模块的带权卷积特征,模型使用ICS指导下一层卷积对显著性物体特征的提取。
3.如权利要求1所述的基于双向消息链路卷积网络的显著性物体检测的步骤3包含如下步骤:
步骤3.1,带有跳过连接结构的上下文传递模块,“Conv5”是对原始图片的特征提取,使用跳过连接结构将原始图片,与语义特征一起作为新的卷积层的输入,实现上下文传递,并使用后续的卷积将低级空间特征与高级语义相融合,使得显著性特征具有比较完备的边界信息和高级语义信息。另外注意力机制的加入减少了背景对显著性物体预测的影响。
att_conv5=Atten(Conv5) (9)
Upi=Up(att_conv5,ui) (10)
其中att_conv5为“Conv5”通过注意力模块Atten的输出,Upi,i∈{1,2,3,4,5}表示上采样的输出,ui为大小分别为{16×16,8×8,4×4,2×2,1×1}的上采样内核。
Convi=Conv(Concat(Upi-5,convi-1),K) (11)
ati=Atten(convi) (12)
其中K表示大小为3×3的卷积核,concat表示通道连接,Upi-5由公式(9)和(10)计算得到。公式(11)中卷积的激活函数均为Relu。ati表示convi通过注意力模块的输出。
步骤3.2,使用带门控函数的信息传递链路将高级语义信息与中间层卷积特征相融合,因为并不是所有的中间层都对物体显著性的预测是有帮助的,所以借助门控函数产生[0-1]的权值向量,控制高层卷积特征对低级卷积特征的影响程度,从而每一层都是由上一层加权并与本层特征融合的结果,使得每一层都有在上一层高级语义的指导下选择本层的空间特征,从而产生不同级别、不同尺度、不同视角的显著性预测先验信息,为进一步的多尺度融合提供比较全面的特征信息。
dcij=Conv(ati,K,Dj) (13)
sdi=Concat(dci1,dci2,dCi3,dci4) (14)
其中dcij,i∈{1,2,3,4,5},j∈{1,2,3,4}表示空洞卷积的输出,卷积核K的大小均为3×3,Dj表示大小分别为1,3,5,7的dilation rate。sdi表示融合空洞卷积的输出,i∈{1,2,3,4,5}。
Mi=G(Si+1,Ki1)×Conv(Si+1,Ki2) (15)
G(Si+1,Ki1)=Sigmoid(Conv(Si+1,Ki1)) (16)
Si=Conv(Concat(Mi,sdi),Kl) (17)
其中门控函数由G表示,Ki、Ki1和Ki2均表示大小为3×3的卷积核。Si则表示双向消息链路的侧输出。
4.如权利要求1所述的基于双向消息链路卷积网络的显著性物体检测的步骤4包含如下步骤:
使用多尺度特征融合策略将双消息链路的侧输出Si,i∈{1,2,3,4,5}进行融合。首先对6个侧输出进行上采样操作得到分层映射Smi,它将用于对尺度特征融合的输入。
Smi=Up(Si,ui) (18)
其中Up表示上采样操作,ui分别表示大小为{1×1,2×2,4×4,8×8,16×16}的采样内核。
FCM0=Concat(Sm1,Sm2,Sm3,Sm4,Sm5) (19)
FCM1=Conv(FCM0,K1) (20)
FCM2=Conv(FCM1,K2) (21)
pre_gt=Conv(FCM2,K3) (22)
其中K1、K2和K3分别表示大小为3×3,3×3,1×1的卷积核,激活函数分别为Relu,Relu,Sigmoid。pre_gt为模型最终的输出,也是物体的显著性预测图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910598297.9A CN110490189A (zh) | 2019-07-04 | 2019-07-04 | 一种基于双向消息链路卷积网络的显著性物体的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910598297.9A CN110490189A (zh) | 2019-07-04 | 2019-07-04 | 一种基于双向消息链路卷积网络的显著性物体的检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110490189A true CN110490189A (zh) | 2019-11-22 |
Family
ID=68546712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910598297.9A Withdrawn CN110490189A (zh) | 2019-07-04 | 2019-07-04 | 一种基于双向消息链路卷积网络的显著性物体的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110490189A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414969A (zh) * | 2020-03-26 | 2020-07-14 | 西安交通大学 | 一种雾天环境下的烟检测方法 |
CN111415342A (zh) * | 2020-03-18 | 2020-07-14 | 北京工业大学 | 一种融合注意力机制的三维卷积神经网络肺部结节图像自动检测方法 |
CN111428805A (zh) * | 2020-04-01 | 2020-07-17 | 南开大学 | 显著性物体的检测方法、装置、存储介质及电子设备 |
CN111563513A (zh) * | 2020-05-15 | 2020-08-21 | 电子科技大学 | 基于注意力机制的散焦模糊检测方法 |
-
2019
- 2019-07-04 CN CN201910598297.9A patent/CN110490189A/zh not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111415342A (zh) * | 2020-03-18 | 2020-07-14 | 北京工业大学 | 一种融合注意力机制的三维卷积神经网络肺部结节图像自动检测方法 |
CN111415342B (zh) * | 2020-03-18 | 2023-12-26 | 北京工业大学 | 一种融合注意力机制的三维卷积神经网络肺部结节图像自动检测方法 |
CN111414969A (zh) * | 2020-03-26 | 2020-07-14 | 西安交通大学 | 一种雾天环境下的烟检测方法 |
CN111428805A (zh) * | 2020-04-01 | 2020-07-17 | 南开大学 | 显著性物体的检测方法、装置、存储介质及电子设备 |
CN111428805B (zh) * | 2020-04-01 | 2023-04-18 | 南开大学 | 显著性物体的检测方法、模型、存储介质及电子设备 |
CN111563513A (zh) * | 2020-05-15 | 2020-08-21 | 电子科技大学 | 基于注意力机制的散焦模糊检测方法 |
CN111563513B (zh) * | 2020-05-15 | 2022-06-24 | 电子科技大学 | 基于注意力机制的散焦模糊检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109949317B (zh) | 基于逐步对抗学习的半监督图像实例分割方法 | |
CN109299274B (zh) | 一种基于全卷积神经网络的自然场景文本检测方法 | |
CN109902622B (zh) | 一种用于登机牌信息验证的文字检测识别方法 | |
CN109754015B (zh) | 用于画作多标签识别的神经网络及相关方法、介质和设备 | |
CN110490189A (zh) | 一种基于双向消息链路卷积网络的显著性物体的检测方法 | |
CN112541501B (zh) | 一种基于视觉语言建模网络的场景文字识别方法 | |
CN113158875B (zh) | 基于多模态交互融合网络的图文情感分析方法及系统 | |
US11854244B2 (en) | Labeling techniques for a modified panoptic labeling neural network | |
CN109948692B (zh) | 基于多颜色空间卷积神经网络及随机森林的计算机生成图片检测方法 | |
CN113065577A (zh) | 一种面向目标的多模态情感分类方法 | |
CN105678292A (zh) | 基于卷积及递归神经网络的复杂光学文字序列识别系统 | |
CN112036276B (zh) | 一种人工智能视频问答方法 | |
CN113554032B (zh) | 基于高度感知的多路并行网络的遥感图像分割方法 | |
CN109903339B (zh) | 一种基于多维融合特征的视频群体人物定位检测方法 | |
CN112651940B (zh) | 基于双编码器生成式对抗网络的协同视觉显著性检测方法 | |
CN115131797B (zh) | 一种基于特征增强金字塔网络的场景文本检测方法 | |
CN112395442A (zh) | 移动互联网上的低俗图片自动识别与内容过滤方法 | |
CN110321894A (zh) | 一种基于深度学习ocr的图书馆图书快速定位方法 | |
CN112084859A (zh) | 一种基于稠密边界块和注意力机制的建筑物分割方法 | |
CN112418351A (zh) | 基于全局与局部上下文感知的零样本学习图像分类方法 | |
CN114972847A (zh) | 图像处理方法及装置 | |
CN112800979B (zh) | 一种基于表征流嵌入网络的动态表情识别方法及系统 | |
CN114155556A (zh) | 一种基于加入通道混洗模块的堆叠沙漏网络的人体姿态估计方法及系统 | |
CN111476226A (zh) | 一种文本定位方法、装置及模型训练方法 | |
CN111275694A (zh) | 一种注意力机制引导的递进式划分人体解析模型及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20191122 |
|
WW01 | Invention patent application withdrawn after publication |