CN114049503A - 一种基于非端到端深度学习网络的显著性区域检测方法 - Google Patents

一种基于非端到端深度学习网络的显著性区域检测方法 Download PDF

Info

Publication number
CN114049503A
CN114049503A CN202111388848.2A CN202111388848A CN114049503A CN 114049503 A CN114049503 A CN 114049503A CN 202111388848 A CN202111388848 A CN 202111388848A CN 114049503 A CN114049503 A CN 114049503A
Authority
CN
China
Prior art keywords
network
color
texture
contrast
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111388848.2A
Other languages
English (en)
Inventor
徐丹
蒋奔
史金龙
钱萍
左欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University of Science and Technology
Original Assignee
Jiangsu University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University of Science and Technology filed Critical Jiangsu University of Science and Technology
Priority to CN202111388848.2A priority Critical patent/CN114049503A/zh
Publication of CN114049503A publication Critical patent/CN114049503A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于非端到端深度学习网络的显著性区域检测方法,包括如下步骤:步骤1:训练样本生成;步骤2:深度网络构建:构建四段式卷积神经网络;步骤3:深度网络训练;步骤4:显著性检测:将测试样本导入步骤3中训练所得的网络模型,通过softmax分类器获得区域块属于显著性区域的概率,即为该区域块对应的超像素的显著值,测试样本中所有超像素的显著值构成测试样本的颜色显著图和纹理显著图;步骤5:显著图融合:将颜色显著图和纹理显著图按自适应加权方式融合,得到最终的显著图。本发明采用深度学习网络进行图像特征提取,可实现复杂图像场景中显著性区域和物体的检测,解决了在复杂图象场景中检测率较低的问题。

Description

一种基于非端到端深度学习网络的显著性区域检测方法
技术领域
本发明涉及图像处理与计算机视觉技术领域,具体涉及一种基于非端到端深度学习网络的显著性区域检测方法。
背景技术
图像显著性可描述为图像中的组成元素吸引人类视觉注意的能力,显著性检测可在无需任何先验知识的情况下定位一个场景中的重要区域,帮助快速检测图像或视频中的目标区域,可用于自动驾驶、智能安防、社交网络等场景。
术语“显著”与前景/背景的对比度有关,基于此产生了直接采用对比度度量的显著性检测方法。Cheng等人[Cheng M,Mitra N J,Huang X,et al.Global contrast basedsalient region detection[J].IEEE Transactions on Pattern Analysis and MachineIntelligence,2015,37(3):569-582]提出了全局对比度方法,将某一区域和图像中其他区域之间的特征距离作为该区域的显著性度量。Yang等人[Yang C,Zhang L,Lu H,etal.Saliency detection via graph-based manifold ranking[C].In:Proceedings ofIEEE International Conference on CVPR,2013:3166-3173.]以不同的方式考虑前景和背景线索,通过基于图的流形排序对图像元素与背景种子和前景查询之间的相似性进行排序,再根据相似性估计图像元素的显著值。该类方法易于理解和实现,但仅适用于目标和背景单一的图像。
基于深度学习的显著性检测方法通过深度学习网络自动提取场景高层语义特征。Liu等人[Liu N.DHSNet:Deep Hierarchical Saliency Network for Salient ObjectDetection[C].In:Proceedings of IEEE International Conference on CVPR,2016:678–686]提出的端到端网络DHSnet包括编码和解码两部分,编码部分从全局角度出发得到初始显著图,解码部分则利用VGG网络不同层级的特征对得到的初始显著图进行优化。Hou等人[Hou Q,Cheng M,Hu X,et al.Deeply supervised salient object detection withshort connections[C].In:Proceedings of IEEE International Conference on CVPR,2017:5300–5309]提出的DSS网络,采用短连接结构融合不同尺度的侧向输出,并让深层侧向输出直接对浅层侧向输出产生影响,以充分利用侧向输出特征图中的丰富显著性语义。
以上基于端到端深度网络的显著性检测模型的性能较之传统方法有了明显改进,然而,在此过程中,深度学习模型完全依赖网络自身从数据中学习与显著性检测相关的特征或映射函数,这导致显著性线索的作用并不清楚;此外,上述深度网络中单层卷积操作只能提取卷积核局部范围内的语义信息,缺乏全局性信息,影响了方法的最终检测性能。
发明内容
本发明提供了一种基于非端到端深度学习网络的显著性区域检测方法,以解决现有技术中直接采用对比度度量的显著性检测方法在复杂图象场景中检测率较低,端到端的深度学习显著性检测方法中全局对比度缺失的问题。
本发明提供了一种基于非端到端深度学习网络的显著性区域检测方法,包括如下步骤:
步骤1:训练样本生成:采用SLIC方法对原始图像进行超像素分割,同时,将原始图像均匀划分为N×N个区域块,按照超像素和区域块重叠面积的大小将超像素与区域块进行匹配,以区域块为单位,计算区域块对应的超像素与其他区域块对应的超像素之间的全局对比度,得到相应的对比度立方体作为训练样本;
步骤2:深度网络构建:构建四段式卷积神经网络,第一阶段包含卷积层、最大池化层和Relu非线性函数;第二阶段包含卷积层、最大池化层和Relu非线性函数,其中卷积层的尺寸与第一阶段不同;第三阶段包含卷积层和ReLu非线性函数,最后一阶段包含全连接层;
步骤3:深度网络训练:将所述步骤1中获取的训练样本作为卷积神经网络的输入,设置网络训练的超参数,随机初始化网络权重参数,利用交叉熵损失函数计算网络预测值与真值之间的损失,利用随机梯度下降法调整网络参数,进行网络训练;
步骤4:显著性检测:将测试样本导入所述步骤3中训练所得的网络模型,通过softmax分类器获得区域块属于显著性区域的概率,即为该区域块对应的超像素的显著值,测试样本中所有超像素的显著值构成测试样本的颜色显著图和纹理显著图;
步骤5:显著图融合:将颜色显著图和纹理显著图按自适应加权方式融合,得到最终的显著图。
进一步地,所述步骤1的具体步骤如下:
步骤11:采用SLIC方法将原始图像分割成Q个超像素;
步骤12:将原始图像均匀划分为N×N个区域块,使得Q≈N×N;
步骤13:按照超像素和区域块重叠面积的大小将超像素与区域块进行匹配,具体如下:当区域块包含于某一超像素时,将该区域块用该超像素表示;当区域块跨越两个或更多超像素时,将该区域块用包含面积最大的超像素表示;
步骤14:通过计算与某一区域块对应的超像素与图像中其他超像素之间的特征距离来获取某一区域块的对比度立方体,对比度立方体的尺度为N×N×M,其中,M为特征维度;
步骤15:构建颜色特征立方体,将RGB、Lab、HSV三种不同的颜色空间的每个颜色通道作为一维特征,一共9维特征,颜色特征立方体大小为N×N×9;
步骤16:构建纹理特征立方体,利用Circular LBP特征描述子提取纹理特征,纹理特征立方体大小为N×N×8。
进一步地,所述步骤2的深度网络的构建具体为:
卷积神经网络第一阶段包含64通道、卷积核大小为5×5的卷积层,2×2的最大池化层和Relu非线性层;卷积神经网络第二阶段包含96通道、卷积核大小为3×3的卷积层,2×2的最大池化层和Relu非线性层;卷积神经网络第三阶段包含48通道、卷积核大小为3×3的卷积层和Relu非线性层;卷积神经网络第四阶段包含2通道、卷积核大小为2×2的全连接层,将前层特征映射到样本标记空间,即非显著区域和显著性区域。
进一步地,所述步骤3的具体步骤如下:
步骤31:分别将步骤1得到的颜色特征立方体和纹理特征立方体输入卷积神经网络;
步骤32:设置网络训练的超参,包括学习率、动量、权重衰减、批处理大小、迭代次数等;
步骤33:随机初始化网络权重参数,包括各卷积层神经元权重和偏置;
步骤34:利用交叉熵损失函数计算网络预测值与真值之间的损失,用公式表示为:
Figure BDA0003368073750000041
式中,m表示批处理大小,θ是网络的参数集,包含了所有卷积层的权重和偏置参数,1(li=j)是指示函数,用来指示真值,P(li=j|θ)是由softmax生成的第i个超像素属于显著性区域的条件概率,λ是权重衰减因子,K是神经网络的卷积层数,
Figure BDA0003368073750000042
是Wk的L2正则化项;
步骤35:利用随机梯度下降法更新神经网络的权重;
步骤36:得到训练后的颜色对比度网络和纹理对比度网络。
进一步地,所述步骤4的具体步骤如下:
步骤41:将测试图像按照生成训练样本同样的方式构建颜色特征立方体和纹理特征立方体,从而构成测试样本;
步骤42:将测试样本中的颜色特征立方体和纹理特征立方体分别输入训练好的颜色对比度网络和纹理对比度网络,利用softmax函数输出每个区域块对应的超像素属于显著性区域的概率,作为该超像素的显著值;
步骤43:将超像素的显著值作为该超像素的灰度值,构成原始图像的显著图;
步骤44:根据不同的测试数据和深度网络,分别获得颜色显著图和纹理显著图。
进一步地,所述步骤5的具体步骤如下:
步骤51:计算每个超像素与其它超像素的颜色对比度和纹理对比度,公式如下:
Figure BDA0003368073750000051
Figure BDA0003368073750000052
式中,Cdc(spi)为颜色对比度,Cdt(spi)为纹理对比度,cn(spi)表示超像素spi的颜色特征,lbp(spi)表示超像素spi的纹理特征;
步骤52:计算每个超像素在融合时颜色对比度在总对比度中的比值,记为βi,公式如下:
βi=Cdc(spi)/(Cdc(spi)+Cdt(spi))
步骤53:将βi作为自适应权重,融合颜色显著图和纹理显著图,公式如下:
Figure BDA0003368073750000053
其中,csal和tsal分别是颜色显著图和纹理显著图,sal为融合后的显著图。
本发明的有益效果:
本发明提供一种基于非端到端深度学习网络的显著性区域检测方法,采用深度学习网络进行图像特征提取,可实现复杂图像场景中显著性区域和物体的检测,解决了直接采用对比度度量的显著性检测方法在复杂图象场景中检测率较低的问题;与端到端的深度学习显著性检测方法中以原始图像作为网络输入不同,本发明首先进行全局对比度计算,得到对比度立方体,作为深度网络的输入,能够缓解端到端的深度学习显著性检测方法中全局对比度缺失的问题。
附图说明
通过参考附图会更加清楚的理解本发明的特征和优点,附图是示意性的而不应理解为对本发明进行任何限制,在附图中:
图1是本发明的流程图;
图2是SLIC超像素分割结果示意图;
图3是对比度立方体的形成过程示意图;
图4是颜色对比度卷积神经网络结构示意图;
图5是纹理对比度卷积神经网络结构示意图;
图6是网络训练过程示意图;
图7是显著性检测和融合示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提供了一种基于非端到端深度学习网络的显著性区域检测方法,该方法分为两个阶段,训练阶段和测试阶段。在训练阶段,利用图像的颜色特征和纹理特征分别构建颜色对比度立方体和纹理对比度立方体,然后构建颜色对比度网络和纹理对比度网络,将对比度立方体作为训练样本进行网络训练,得到网络模型。在测试阶段,利用测试图像构建对比度立方体,导入训练好的网络模型,得到颜色显著图和纹理显著图,再将两者按自适应加权方式融合,得到最终的显著图。主要包括如下详细步骤:
(1)训练样本生成:采用SLIC方法对原始图像进行超像素分割,同时,将原始图像均匀划分为N×N个区域,按照超像素和区域块重叠面积的大小将超像素与区域进行匹配,以区域块为单位计算其对应的超像素与其他区域块对应的超像素之间的全局对比度,得到对比度立方体。
所述训练样本生成的的具体内容是:
(11)如图2所示,采用SLIC方法将原始图像分割成Q个超像素,取Q=600;
(12)将原始图像均匀划分为N×N个区域块,使得Q≈N×N,这里取N=24;
(13)如图3所示,按照区域块和超像素重叠面积的大小将两者进行匹配,具体地,如果区域完整地包含某一超像素,该区域与该超像素相匹配;如果区域中包括多个超像素,则与区域内面积最大的超像素相匹配。
(14)如图3所示,某一区域ri的全局对比度立方体可通过计算与该区域对应的超像素spi与图像中其他区域对应的超像素之间的特征距离获得,对比度立方体的尺度为N×N×M,其中,M为特征维度。
(15)构建颜色特征立方体,颜色特征采用RGB、Lab、HSV三种不同的颜色空间,将每个颜色通道作为一维特征,一共9维特征,因此,颜色特征立方体大小为24×24×9。
(16)构建纹理特征立方体,利用Circular LBP特征描述子提取超像素的局部纹理特征,纹理特征立方体大小为24×24×8。
(17)该步骤中建立图像区域块和超像素之间的对应关系在于,超像素分割可得到具有语义信息的图像区域,但形状不规则,很难形成大小统一的立方体;另一方面,均匀划分的区域块又不具有图像的语义信息,故将二者结合,在立方体生成中以区域块为单位,但对比度特征提取以及后期的显著性计算均以区域块对应的超像素为计算对象。
(2)深度网络构建:构建四段式卷积神经网络,第一阶段包含卷积层、最大池化层和Relu非线性函数,除卷积层的尺寸外,第二阶段与第一阶段完全相同,第三阶段包含卷积层和ReLu非线性函数,最后一阶段仅包含一个全连接层,用来将前层特征映射到样本标记空间。
所述颜色对比度神经网络结构如图4所示:
(21)第一阶段:输入大小为24×24×9的对比度立方体,也可记为9@24×24,把特征维度9看作通道数,24×24看作输入样本的尺寸大小;经过64个大小为5×5的卷积核得到的特征图尺寸为64@20×20,再经过大小为2×2的池化层,输出尺寸为64@10×10;ReLu层不改变特征图尺寸;
(22)第二阶段:输入即为第一阶段的输出,大小为64@10×10;经过96个大小为3×3的卷积核得到的特征图尺寸为96@8×8,再经过大小为2×2的池化层,输出尺寸为96@4×4;ReLu层不改变特征图尺寸;
(23)第三阶段:输入即为第二阶段的输出,大小为96@4×4;经过48个大小为3×3的卷积核得到的特征图尺寸为48@2×2;ReLu层不改变特征图尺寸;
(24)第四阶段:输入即为第三阶段的输出,大小为48@2×2;经过2个大小为2×2的卷积核得到的特征图尺寸为2@1×1;
(25)所述纹理对比度神经网络结构如图5所示,其结构与颜色对比度神经网络相同,不同之处在于前三个阶段中卷积层的通道数不同,分别为32@5×5、64@3×3和32@2×2。
(3)深度网络训练:将特征对比度立方体作为卷积神经网络的输入,设置网络训练的超参数,随机初始化网络权重参数,利用交叉熵损失函数计算网络预测值与真值之间的损失,利用随机梯度下降法调整网络参数,进行网络训练。
该步骤的详细内容是:
(31)设置神经网络的超参,具体如下,设置随机梯度下降法的学习率为0.01,动量为0.9,学习率每次下降0.1直至损失函数收敛;权重衰减因子设置为0.0005;采用批处理方式进行训练,批大小为256;整个训练集的训练次数为100代。
(32)随机初始化卷积神经网络中各卷积层的权重和偏置。
(33)利用交叉熵损失函数计算训练网络预测结果与真值图之间的损失,如图6所示,从左至右依次为原始图像、网络预测结果、真值图,以更新网络权重,交叉熵损失函数表示如下:
Figure BDA0003368073750000081
式中,m=256为批处理大小;θ是网络的参数集,包含了所有卷积层的权重和偏置参数;1(li=j)是真值指示函数,j=0表示背景区域,j=1表示显著性区域;P(li=j|θ)是由softmax生成的第i个超像素在参数集为θ时属于显著性区域的条件概率,即显著值;λ=0.0005是权重衰减因子;K=4是神经网络的卷积层数;
Figure BDA0003368073750000082
是Wk的L2正则化项;
(34)根据交叉熵损失函数,利用随机梯度下降法,沿梯度下降最快的方向更新神经网络权重,得到训练后的颜色对比度网络和纹理对比度网络。
(4)显著性检测:将测试样本导入训练所得的网络模型,通过softmax分类器获得区域块属于显著性区域的概率,即为该区域块对应的超像素的显著值,图像中所有超像素的显著值构成输入图像的显著图。
该步骤的详细内容是:
(41)将测试图像按照生成训练样本同样的方式构建颜色特征立方体和纹理特征立方体,构成测试样本;
(42)将测试样本中的颜色特征立方体和纹理特征立方体分别输入训练好的颜色对比度网络和纹理对比度网络,利用softmax函数输出每个区域块对应的超像素属于显著性区域的概率,作为该超像素的显著值;
(43)将超像素的显著值作为该超像素的灰度值,构成原始图像的显著图;
(44)根据不同的测试数据和深度网络,分别获得颜色显著图和纹理显著图。
(5)显著图融合:将得到的颜色显著图和纹理显著图按自适应加权方式融合,得到最终的显著图。该步骤的详细内容是:
(51)计算每个超像素spi与其它超像素的颜色对比度Cdc(spi)和纹理对比度Cdt(spi),公式如下:
Figure BDA0003368073750000091
Figure BDA0003368073750000092
式中,cn(spi)表示超像素spi的颜色特征,lbp(spi)表示超像素spi的纹理特征;
(52)计算每个超像素在融合时颜色对比度在总对比度中的比值,记为βi,公式如下:
βi=Cdc(spi)/(Cdc(spi)+Cdt(spi)) (4)
(53)将βi作为自适应权重,融合颜色显著图和纹理显著图,公式如下:
Figure BDA0003368073750000093
如图7所示,从左到右依次为原图、颜色对比度产生的显著图、纹理对比度产生的显著图、融合之后的显著图和真值图,公式(5)中,csal和tsal分别是颜色显著图,如图7左2和纹理显著图,如图7左3,sal为融合后的显著图,如图7左4。
虽然结合附图描述了本发明的实施例,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下作出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。

Claims (6)

1.一种基于非端到端深度学习网络的显著性区域检测方法,其特征在于,包括如下步骤:
步骤1:训练样本生成:采用SLIC方法对原始图像进行超像素分割,同时,将原始图像均匀划分为N×N个区域块,按照超像素和区域块重叠面积的大小将超像素与区域块进行匹配,以区域块为单位,计算区域块对应的超像素与其他区域块对应的超像素之间的全局对比度,得到相应的对比度立方体作为训练样本;
步骤2:深度网络构建:构建四段式卷积神经网络,第一阶段包含卷积层、最大池化层和Relu非线性函数;第二阶段包含卷积层、最大池化层和Relu非线性函数,其中卷积层的尺寸与第一阶段不同;第三阶段包含卷积层和ReLu非线性函数,最后一阶段包含全连接层;
步骤3:深度网络训练:将所述步骤1中获取的训练样本作为卷积神经网络的输入,设置网络训练的超参数,随机初始化网络权重参数,利用交叉熵损失函数计算网络预测值与真值之间的损失,利用随机梯度下降法调整网络参数,进行网络训练;
步骤4:显著性检测:将测试样本导入所述步骤3中训练所得的网络模型,通过softmax分类器获得区域块属于显著性区域的概率,即为该区域块对应的超像素的显著值,测试样本中所有超像素的显著值构成测试样本的颜色显著图和纹理显著图;
步骤5:显著图融合:将颜色显著图和纹理显著图按自适应加权方式融合,得到最终的显著图。
2.如权利要求1所述的基于非端到端深度学习网络的显著性区域检测方法,其特征在于,所述步骤1的具体步骤如下:
步骤11:采用SLIC方法将原始图像分割成Q个超像素;
步骤12:将原始图像均匀划分为N×N个区域块,使得Q≈N×N;
步骤13:按照超像素和区域块重叠面积的大小将超像素与区域块进行匹配,具体如下:当区域块包含于某一超像素时,将该区域块用该超像素表示;当区域块跨越两个或更多超像素时,将该区域块用包含面积最大的超像素表示;
步骤14:通过计算与某一区域块对应的超像素与图像中其他超像素之间的特征距离来获取某一区域块的对比度立方体,对比度立方体的尺度为N×N×M,其中,M为特征维度;
步骤15:构建颜色特征立方体,将RGB、Lab、HSV三种不同的颜色空间的每个颜色通道作为一维特征,一共9维特征,颜色特征立方体大小为N×N×9;
步骤16:构建纹理特征立方体,利用Circular LBP特征描述子提取纹理特征,纹理特征立方体大小为N×N×8。
3.如权利要求1所述的基于非端到端深度学习网络的显著性区域检测方法,其特征在于,所述步骤2的深度网络的构建具体为:
卷积神经网络第一阶段包含64通道、卷积核大小为5×5的卷积层,2×2的最大池化层和Relu非线性层;卷积神经网络第二阶段包含96通道、卷积核大小为3×3的卷积层,2×2的最大池化层和Relu非线性层;卷积神经网络第三阶段包含48通道、卷积核大小为3×3的卷积层和Relu非线性层;卷积神经网络第四阶段包含2通道、卷积核大小为2×2的全连接层,将前层特征映射到样本标记空间,即非显著区域和显著性区域。
4.如权利要求1所述的基于非端到端深度学习网络的显著性区域检测方法,其特征在于,所述步骤3的具体步骤如下:
步骤31:分别将步骤1得到的颜色特征立方体和纹理特征立方体输入卷积神经网络;
步骤32:设置网络训练的超参,包括学习率、动量、权重衰减、批处理大小、迭代次数等;
步骤33:随机初始化网络权重参数,包括各卷积层神经元权重和偏置;
步骤34:利用交叉熵损失函数计算网络预测值与真值之间的损失,用公式表示为:
Figure FDA0003368073740000031
式中,m表示批处理大小,θ是网络的参数集,包含了所有卷积层的权重和偏置参数,1(li=j)是指示函数,用来指示真值,P(li=j|θ)是由softmax生成的第i个超像素属于显著性区域的条件概率,λ是权重衰减因子,K是神经网络的卷积层数,
Figure FDA0003368073740000032
是Wk的L2正则化项;
步骤35:利用随机梯度下降法更新神经网络的权重;
步骤36:得到训练后的颜色对比度网络和纹理对比度网络。
5.如权利要求1所述的基于非端到端深度学习网络的显著性区域检测方法,其特征在于,所述步骤4的具体步骤如下:
步骤41:将测试图像按照生成训练样本同样的方式构建颜色特征立方体和纹理特征立方体,从而构成测试样本;
步骤42:将测试样本中的颜色特征立方体和纹理特征立方体分别输入训练好的颜色对比度网络和纹理对比度网络,利用softmax函数输出每个区域块对应的超像素属于显著性区域的概率,作为该超像素的显著值;
步骤43:将超像素的显著值作为该超像素的灰度值,构成原始图像的显著图;
步骤44:根据不同的测试数据和深度网络,分别获得颜色显著图和纹理显著图。
6.如权利要求1所述的基于非端到端深度学习网络的显著性区域检测方法,其特征在于,所述步骤5的具体步骤如下:
步骤51:计算每个超像素与其它超像素的颜色对比度和纹理对比度,公式如下:
Figure FDA0003368073740000041
Figure FDA0003368073740000042
式中,Cdc(spi)为颜色对比度,Cdt(spi)为纹理对比度,cn(spi)表示超像素spi的颜色特征,lbp(spi)表示超像素spi的纹理特征;
步骤52:计算每个超像素在融合时颜色对比度在总对比度中的比值,记为βi,公式如下:
βi=Cdc(spi)/(Cdc(spi)+Cdt(spi))
步骤53:将βi作为自适应权重,融合颜色显著图和纹理显著图,公式如下:
Figure FDA0003368073740000043
其中,csal和tsal分别是颜色显著图和纹理显著图,sal为融合后的显著图。
CN202111388848.2A 2021-11-22 2021-11-22 一种基于非端到端深度学习网络的显著性区域检测方法 Pending CN114049503A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111388848.2A CN114049503A (zh) 2021-11-22 2021-11-22 一种基于非端到端深度学习网络的显著性区域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111388848.2A CN114049503A (zh) 2021-11-22 2021-11-22 一种基于非端到端深度学习网络的显著性区域检测方法

Publications (1)

Publication Number Publication Date
CN114049503A true CN114049503A (zh) 2022-02-15

Family

ID=80210381

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111388848.2A Pending CN114049503A (zh) 2021-11-22 2021-11-22 一种基于非端到端深度学习网络的显著性区域检测方法

Country Status (1)

Country Link
CN (1) CN114049503A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115116054A (zh) * 2022-07-13 2022-09-27 江苏科技大学 一种基于多尺度轻量级网络的病虫害识别方法
CN116129265A (zh) * 2023-01-03 2023-05-16 国网湖北省电力有限公司经济技术研究院 一种基于神经网络的遥感影像工程量监测方法
CN115116054B (zh) * 2022-07-13 2024-05-24 江苏科技大学 一种基于多尺度轻量级网络的病虫害识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DAN XU.ETC: "Spatial-aware global contrast representation for saliency detection", 《TURKISH JOURNAL OF ELECTRICAL ENGINEERING AND COMPUTER SCIENCES》, 3 June 2019 (2019-06-03), pages 2412 - 2429 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115116054A (zh) * 2022-07-13 2022-09-27 江苏科技大学 一种基于多尺度轻量级网络的病虫害识别方法
CN115116054B (zh) * 2022-07-13 2024-05-24 江苏科技大学 一种基于多尺度轻量级网络的病虫害识别方法
CN116129265A (zh) * 2023-01-03 2023-05-16 国网湖北省电力有限公司经济技术研究院 一种基于神经网络的遥感影像工程量监测方法
CN116129265B (zh) * 2023-01-03 2024-03-08 国网湖北省电力有限公司经济技术研究院 一种基于神经网络的遥感影像工程量监测方法

Similar Documents

Publication Publication Date Title
CN110135366B (zh) 基于多尺度生成对抗网络的遮挡行人重识别方法
CN111080629B (zh) 一种图像拼接篡改的检测方法
CN109543606B (zh) 一种加入注意力机制的人脸识别方法
CN109949255B (zh) 图像重建方法及设备
CN109670528B (zh) 面向行人重识别任务的基于成对样本随机遮挡策略的数据扩充方法
CN109743642B (zh) 基于分层循环神经网络的视频摘要生成方法
CN111563447A (zh) 一种基于密度图的人群密度分析与检测定位方法
CN111507183B (zh) 一种基于多尺度密度图融合空洞卷积的人群计数方法
CN110458192B (zh) 基于视觉显著性的高光谱遥感图像分类方法及系统
CN111797841B (zh) 一种基于深度残差网络的视觉显著性检测方法
Wang et al. The poor generalization of deep convolutional networks to aerial imagery from new geographic locations: an empirical study with solar array detection
CN108388901B (zh) 基于空间-语义通道的协同显著目标检测方法
CN111639697B (zh) 基于非重复采样与原型网络的高光谱图像分类方法
Chen et al. ASF-Net: Adaptive screening feature network for building footprint extraction from remote-sensing images
CN115223017B (zh) 一种基于深度可分离卷积的多尺度特征融合桥梁检测方法
CN114037891A (zh) 基于u型注意力控制网络的高分辨率遥感影像建筑物提取方法及装置
Hu et al. RGB-D image multi-target detection method based on 3D DSF R-CNN
CN115410081A (zh) 一种多尺度聚合的云和云阴影辨识方法、系统、设备及存储介质
CN107392211A (zh) 基于视觉稀疏认知的显著目标检测方法
CN114332075A (zh) 基于轻量化深度学习模型的结构缺陷快速识别与分类方法
CN114049503A (zh) 一种基于非端到端深度学习网络的显著性区域检测方法
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN108765384B (zh) 一种联合流形排序和改进凸包的显著性检测方法
CN114494999B (zh) 一种双分支联合型目标密集预测方法及系统
Zhang et al. Semisupervised Change Detection Based on Bihierarchical Feature Aggregation and Extraction Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination