CN112950477B - 一种基于双路径处理的高分辨率显著性目标检测方法 - Google Patents

一种基于双路径处理的高分辨率显著性目标检测方法 Download PDF

Info

Publication number
CN112950477B
CN112950477B CN202110277184.6A CN202110277184A CN112950477B CN 112950477 B CN112950477 B CN 112950477B CN 202110277184 A CN202110277184 A CN 202110277184A CN 112950477 B CN112950477 B CN 112950477B
Authority
CN
China
Prior art keywords
resolution
convolution
information
module
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110277184.6A
Other languages
English (en)
Other versions
CN112950477A (zh
Inventor
王俊
杨青朋
杨尚钦
柴秀丽
张苗辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University
Original Assignee
Henan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University filed Critical Henan University
Priority to CN202110277184.6A priority Critical patent/CN112950477B/zh
Publication of CN112950477A publication Critical patent/CN112950477A/zh
Application granted granted Critical
Publication of CN112950477B publication Critical patent/CN112950477B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明公开了一种基于双路径处理的高分辨率显著性目标检测方法,包括:图像处理,输入的高分辨率图像首先经过包含深度可分离卷积的HeadBottleneck模块,对原始高分辨率图像预处理降低其参数量;较大感受野特征提取,全局上下文路径首先经过基于ResNet‑50改进的骨干网络R‑ResNet来提取具有较大的感受野的特征;多尺度特征提取,R‑ResNet骨干网络得到的特征被送入多尺度特征提取和增强模块;显著图生成,空间细节保持分支通过边缘信息引导模块提取详细的边缘信息,然后与全局上下文分支得到的特征互补融合得到最终的显著图结果。本发明能够实现对高分辨率图像中的显著性目标进行精确检测并快速分割,最终输出目标显著图,可以为高分辨率显著性目标检测提供一种解决方法。

Description

一种基于双路径处理的高分辨率显著性目标检测方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于双路径处理的高分辨率显著性目标检测方法。
背景技术
显著目标检测旨在识别和分割图像或视频中最突出的目标区域,通常将其用作预处理步骤以促进计算机视觉任务,例如图像分割,视觉跟踪,图像理解和图像裁剪等。尽管已经有许多研究人员在显著性目标检测方面取得了很大的成就,但在此领域仍然充满挑战,特别是在高分辨显著性目标检测方面的研究极少。
传统的显著性目标检测受人眼机制讨论的启发,它通常利用目标的显著特征,例如明亮的颜色,强烈的对比度,方向的差异,纹理等来对显著性部分进行分割。一般,根据视觉子集的类型或使用特性,传统的显着性对象检测方法可以分为两个不同的类别:(1)使用基于块的视觉子集或基于区域的视觉子集。(2)仅使用图像本身提供的固有提示或引入外部提示,例如用户注释。但是,它们通常对复杂的图像产生不令人满意的预测,并且在实践中不能应用于实际项目。
近年来,深度学习在显著目标检测任务中取得了令人惊叹的性能,特别是基于2015年提出的LongJ,ShelhamerE,DarrellT.FullyConvolutionalNetworks for SemanticSegmentation[J].IEEE Transactions on Pattern Analysis and MachineIntelligence,2015,39(4):640-651全卷积网络(FCN)的编码器-解码器方法极大地促进了SOD的发展。编码器可以提取多尺度和多样化级别的语义特征,其中包括具有不同细节的低级特征,以及各种背景干扰和深层全局语义特征。尽管基于FCN的显着性检测方法与传统方法相比取得了长足的进步,但其预测图仍不足以获取具有统一有效区域和清晰边界的显著图。
准确检测和完全分割出高分辨率显著目标仍存在一些挑战:1)单尺度语义特征不足以获取令人满意的显著性图。此外,来自深度神经网络不同层的特征是互补的,并且对显著性检测有积极作用。深层特征包含丰富的语义信息但缺少边缘细节信息,而低层特征具有丰富的细节,但缺乏全局性特征。为了获得更好的结果,如何设计一个集成了不同尺度特征的框架已经成为一个关键问题。2)边界信息的添加对于良好的分割至关重要。但是,由于边界和全局分支的信息不同,因此简单地集成这些特征可能会导致不兼容的干扰,从而使模型难以收敛。如果不能很好地利用边界信息来确定边界,则将获得具有模糊边界的次优解。3)显著性检测是图像理解的重要部分。尽管常规方法已经达到令人满意的精度,但是由于内存的大量消耗,它们被限制于较低分辨率的图像处理(例如224×224像素),几乎没有诸如1024×2048像素的高分辨率网络。高分辨率输入意味着大量的计算资源消耗和GPU内存成本,特别是需要解决高分辨率特征图和较大的感受野需求之间的矛盾,其次还应考虑准确性和效率之间的平衡。4)传统的处理方法是利用下采样通过减小图片的尺寸逐渐获得语义特征图,这会导致细节信息的丢失,给显著性目标检测上采样恢复到原始分辨率带来严峻的挑战。在此情况下,以这种方式处理高分辨率输入会使缺点更加明显。
发明内容
针对现有技术不足,本发明的目的在于提供一种基于双路径处理的高分辨率显著性目标检测方法,解决背景技术中的问题。
本发明提供如下技术方案:
一种基于双路径处理的高分辨率显著性目标检测方法,包括:
步骤1:图像处理,输入的高分辨率图像首先经过包含深度可分离卷积的HeadBottleneck模块,对原始高分辨率图像处理降低其参数量,减少内存占用量和运算时间的消耗,为后续双路径处理提供便利;
步骤2:较大感受野特征提取,全局上下文分支首先经过R-ResNet骨干网络提取具有较大的感受野的特征;
步骤3:多尺度特征提取,R-ResNet骨干网络得到的特征被送入多尺度特征提取和增强模块,从而得到包含全局上下文信息的并且具有较大感受野和丰富语义信息的多尺度特征;
步骤4、显著图生成,空间细节保持分支通过边缘信息引导模块提取详细的边缘信息,然后与全局上下文分支得到的特征互补融合得到最终的显著图结果。
优选的,所述多尺度特征提取模块主要由并行的空洞卷积组成。
优选的,所述R-ResNet骨干网络是将ResNet-50的第4,5blocks内的普通卷积替换为空洞率为2的空洞卷积。
优选的,所述Head Bottleneck模块包含一个标准卷积层,标准卷积层增加了特征通道,然后通过一个深度可分离卷积减轻特征通过深度可分离卷积层时的损失,最后,使用卷积和线性运算来恢复特征通道。
优选的,在ResNet-50骨干网络中,将3×3标准卷积替换为rate=2de 3×3空洞卷积,在不增加网络参数的情况下特征图的分辨率不再降低,从而使得特征图具有较大的感受野。
优选的,所述多尺度特征提取和增强模块主要由不同空洞率的并行空洞卷积组成,利用批量归一化对输入特征图进行归一化,避免梯度消失,梯度的增加意味着学习收敛速度快,能够加快训练速度;采用1×1卷积减少特征图的通道,这些通道能够减少网络参数并控制模型大小,以防止网络变大。
优选的,通过全局平均池化和1×1卷积来处理特征图,得到全局信息,通过修正残差网络来进行处理,最后,利用激活函数sigmoid对重要像素进行权重分配,突出重要的位置信息,抑制不需要的背景信息,模块可以学习对各通道的依赖程度,并根据不同的依赖程度调整特征图。
优选的,在步骤4中,首先将全局语义特征和边界特征连接起来,然后利用DSConv有效地组合目标像素周围相邻像素的特征信息,并充分利用顶层和底层的互补性,最后,通过双线性插值将融合特征上采样到原始分辨率。
优选的,所述边缘信息引导模块用于抑制无关的边界信息,从而更好地定位和探索对象的有用结构,有助于恢复和完善粗略预测。
优选的,所述边缘信息引导模块引导网络更加关注重要区域,它只有尽可能浅的四层,以节省更多细节来细化粗略的特征图。
与现有技术相比,本发明具有以下有益效果:
(1)本发明在于一种基于双路径处理的高分辨率显著性目标检测方法,输入的高分辨率图像首先经过包含深度可分离卷积的Head Bottleneck模块,对原始高分辨率图像处理降低其参数量,减少内存占用量和运算时间的消耗,为后续双边处理提供便利,解决了高分辨率特征图和较大的感受野需求之间的矛盾。
(2)本发明在于一种基于双路径处理的高分辨率显著性目标检测方法,空间细节保持分支通过边缘信息引导模块提取详细的边缘信息,能够很好地利用边界信息来确定边界,获得具有清晰的边界。
(3)本发明在于一种基于双路径处理的高分辨率显著性目标检测方法,能够在不增加网络参数的情况下使特征图具有较大的感受野,而且可以使特征图的分辨率不再降低。
(4)本发明在于一种基于双路径处理的高分辨率显著性目标检测方法,利用激活函数sigmoid对重要像素进行权重分配,突出重要的位置信息,抑制不需要的背景信息,模块可以学习对各通道的依赖程度,并根据不同的依赖程度调整特征图。
(5)本发明在于一种基于双路径处理的高分辨率显著性目标检测方法,设计了全局上下文路径和空间细节信息保存路径;通过将高分辨率图像输入到改进的ResNet骨干网络先提取具有较大感受野的特征;通过多尺度特征提取和增强模块提取具有较大感受野的丰富的多尺度语义信息;通过边界细节信息引导模块来提取清晰的边缘细节信息,促使网络定位聚焦显著性目标的边缘;通过特征融合模块互补来融合全局多尺度信息和边缘细节信息从而获得效果显著的高分辨率图像的显著图。
附图说明
为了更清楚地说明本发明实施方式的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明的总体网络框图。
图2为本发明的R-ResNet骨干网络的详细配置表。
图3为本发明的在不同数据集的评价结果表。
图4为本发明的PR曲线和F值曲线对比图。
图5为本发明的不同方法的实验结果对比图。
图6为本发明的可视化过程示意图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述。显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
因此,以下对在附图中提供的本发明的实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
结合图1-3所示,步骤1、输入的高分辨率图像首先经过包含深度可分离卷积的Head Bottleneck模块,对原始高分辨率图像处理降低其参数量,为后续双边处理提供便利;
步骤2、全局上下文分支首先经过R-ResNet骨干网络,将ResNet-50的第4,5blocks内的普通卷积替换为空洞率为2的空洞卷积,提取具有较大的感受野的特征;
步骤3、经过R-ResNet骨干网络得到的特征被送入由并行的空洞卷积组成的多尺度特征提取和增强模块可以得到包含全局上下文信息的并且具有较大感受野和丰富语义信息的多尺度特征;
步骤4、空间细节保持分支通过边缘信息引导模块提取详细的边缘信息然后与全局上下文分支得到的特征互补融合得到最终的显著图结果。
全局上下文分支在较低分辨率上经过R-ResNet骨干网络和多尺度特征提取和增强模块获得的包含较大感受野、多尺度特征、丰富的语义信息的特征和经空间细节保存分支内的边缘信息引导模块在较高分辨率上获得的边缘细节信息互补融合得到最终的显著图结果。本方法采用的“Head Bottleneck”对输入的高分辨率图像进行预处理,从而可以降低较低分辨率下的全局上下文路径的计算成本,从而以较小的输入量提取出更丰富的语义特征。并且另一空间细节分支能够以高分辨率学习详细的边界特征,以指导全局上下文路径的细化并最终产生良好的结果。
本发明的Head Bottleneck,是一个粗略的全局提取器,包含一个标准卷积层,一个1×1卷积层来增加了特征通道,然后通过一个深度可分离卷积旨在减轻特征通过深度可分离卷积层时的损失。最后,使用1×1卷积和线性运算来恢复特征通道。
为了克服在使用ResNet-50骨干网络处理输入图像的分辨率会不断降低,直到仅保留弱空间信息的特征图(例如一系列下采样操作),会导致目标的位置信息丢失。并且作为按像素分类的任务,特征图的较大感受野对于学习复杂全局上下文之间的关系至关重要,一旦丢失细节,几乎就不可能通过双线性上采样或去卷积来恢复它们。因此,删除了其最后的全连接层,并修改了Res-4,Res-5块。具体来说,将3×3标准卷积(Conv2d)替换为rate=2的3×3空洞卷积,可以在不增加网络参数的情况下使特征图具有较大的感受野,而且可以使特征图的分辨率不再降低。为了在多个尺度上捕获上下文,本发明提高了一个并行的多特征提取和增强模块,该模块主要由空洞率为6,12,18的的并行空洞卷积组成,具体来说,首先利用批量归一化对输入特征图进行归一化,避免梯度消失的问题,梯度的增加意味着学习收敛速度快,可以大大加快训练速度。然后,采用1×1卷积来减少特征图的通道,这些通道可以显着减少网络参数并控制模型大小,以防止网络变大。根据在Deeplab-v3中设计,将并行的空洞卷积空洞率分别设置为6,12,18,并且大量实验已验证了有效性,并行特征提取策略能够实现多尺度的语义特征,并通过以不同的速率进行膨胀卷积生成的级联特征图,较大的接收文件大小可以为高分辨率输入中的对象提供全局信息。因此,融合特征中的神经元包含多个可接收的文件大小,并且多个信息可有助于提高性能和网络鲁棒性。
考虑到特征图谱包含冗杂的背景信息,通过改善网络的表示能力,以每个通道的依赖关系建模,可以调整通道的特性。因此,将池化操作改为通道注意力操作。具体来说,我们通过全局平均池化和1×1卷积来处理特征图,得到全局信息,通过修正残差网络来进行处理,最后,利用激活函数sigmoid对重要像素进行权重分配,突出重要的位置信息,抑制不需要的背景信息。模块可以学习对各通道的依赖程度,并根据不同的依赖程度调整特征图。
高级特征拥有丰富的语义信息,而低级特征则包含空间细节和显式边缘信息。尽管全局上下文路径收集了丰富的语义信息但产生了模糊的边缘,仍缺少一些边缘细节。图像中的空间细节对于保留对象的边界非常重要。为了获得高质量的分割,本发明提出了一种边界信息引导模块,用于抑制无关的边界信息,从而更好地定位和探索对象的有用结构,有助于恢复和完善粗略预测。我们提出了边界信息引导模块,该模块引导网络更加关注重要区域,它只有尽可能浅的四层,以节省更多细节来细化粗略的特征图。边缘信息引导模块对于定位重要边缘信息(尤其是较浅的层)非常重要,此外,通过实验发现,浅层的确包含许多边缘细节。
与大多数融合方法不同,首先将全局语义特征和边界特征连接起来,然后利用DSConv有效地组合目标像素周围相邻像素的特征信息,并充分利用顶层和底层的互补性。最后,通过双线性插值将融合特征上采样到原始分辨率。
为了验证本方法的有效性,在两个高分辨率数据集(HRSOD,DAVIS-IS)四个公开的低分辨率数据集(PASCAL-S、ECSSD、DUTS-TE,HKU-IS)上与10个最新的显著性目标检测方法进行了对比实验。实验采用深度学习框架Pytorch搭建网络,实验环境为Linux系统,使用NVIDIATesla T4 GPU16GB进行神经网络模型训练与测试,在HRSOD高分辨率数据集上进行模型的训练。在六个数据集上与最新的方法进行了实验性能对比,如图4所示,本方法的PR曲线和F值曲线表现良好。如图5所示,从显著图结果对比来看,本方法具有较强的高分辨率显著性目标边缘分割、位置检测和细节分割能力。
以上所述仅为本发明的优选实施方式而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于双路径处理的高分辨率显著性目标检测方法,其特征在于,包括:
步骤1:图像处理,输入的高分辨率图像首先经过包含深度可分离卷积的HeadBottleneck模块,对原始高分辨率图像处理降低其参数量,减少内存占用量和运算时间的消耗,为后续双边处理提供便利;
步骤2:感受野特征提取,全局上下文分支首先经过R-ResNet骨干网络提取具有较大的感受野的特征;
步骤3:多尺度特征提取,R-ResNet骨干网络得到的特征被送入多尺度特征提取和增强模块,从而得到包含全局上下文信息的并且具有较大感受野和丰富语义信息的多尺度特征;
步骤4、显著图生成,空间细节保持分支通过边缘信息引导模块提取详细的边缘信息,然后与全局上下文分支得到的特征互补融合得到最终的显著图结果;首先将全局语义特征和边界特征连接起来,然后利用DWConv有效地组合目标像素周围相邻像素的特征信息,并充分利用顶层和底层的互补性,最后,通过双线性插值将融合特征上采样到原始分辨率,所述边缘信息引导模块引导网络更加关注重要区域,它只有尽可能浅的四层,以节省更多细节来细化粗略的特征图;
在边缘信息引导模块,经过头部瓶颈模块处理的特征图被送入空间细节路径,经1×1卷积即Conv1×1、BN和ReLU对特征图处理;再采用DWConv3×3模块处理;然后采用全局池化操作,即 Global pool、 Conv1×1、ReLU来聚焦于最重要的边缘细节区域,经Softmax激活函数计算,与原始输入特征进行元素相乘即Mul操作、后再相加即Add操作,最后得到清晰的边缘特征图。
2.根据权利要求1所述的一种基于双路径处理的高分辨率显著性目标检测方法,其特征在于,多尺度特征提取模块主要由并行的空洞卷积组成。
3.根据权利要求1所述的一种基于双路径处理的高分辨率显著性目标检测方法,其特征在于,所述R-ResNet骨干网络的第4,5 blocks内的普通卷积替换为6.12.18的不同空洞率的空洞卷积。
4.根据权利要求1所述的一种基于双路径处理的高分辨率显著性目标检测方法,其特征在于,所述Head Bottleneck模块包含一个标准卷积层,标准卷积层增加了特征通道,然后通过一个深度可分离卷积减轻特征通过深度可分离卷积层时的损失,最后,使用卷积和线性运算来恢复特征通道。
5.根据权利要求1所述的一种基于双路径处理的高分辨率显著性目标检测方法,其特征在于,在R-ResNet骨干网络中,将3×3标准卷积替换为rate=2de 3×3空洞卷积,在不增加网络参数的情况下使特征图具有较大的感受野,而且能够使特征图的分辨率不再降低。
6.根据权利要求1所述的一种基于双路径处理的高分辨率显著性目标检测方法,其特征在于,所述多尺度特征提取和增强模块主要由不同空洞率的并行空洞卷积组成,利用批量归一化对输入特征图进行归一化,避免梯度消失,梯度的增加意味着学习收敛速度快,能够加快训练速度;采用1×1卷积减少特征图的通道,这些通道能够减少网络参数并控制模型大小,以防止网络变大。
7.根据权利要求1-6任一项所述的一种基于双路径处理的高分辨率显著性目标检测方法,其特征在于,通过全局平均池化和1×1卷积来处理特征图,得到全局信息,通过修正残差网络来进行处理,最后,利用激活函数sigmoid对重要像素进行权重分配,突出重要的位置信息,抑制不需要的背景信息,模块可以学习对各通道的依赖程度,并根据不同的依赖程度调整特征图。
CN202110277184.6A 2021-03-15 2021-03-15 一种基于双路径处理的高分辨率显著性目标检测方法 Active CN112950477B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110277184.6A CN112950477B (zh) 2021-03-15 2021-03-15 一种基于双路径处理的高分辨率显著性目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110277184.6A CN112950477B (zh) 2021-03-15 2021-03-15 一种基于双路径处理的高分辨率显著性目标检测方法

Publications (2)

Publication Number Publication Date
CN112950477A CN112950477A (zh) 2021-06-11
CN112950477B true CN112950477B (zh) 2023-08-22

Family

ID=76229924

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110277184.6A Active CN112950477B (zh) 2021-03-15 2021-03-15 一种基于双路径处理的高分辨率显著性目标检测方法

Country Status (1)

Country Link
CN (1) CN112950477B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837223B (zh) * 2021-08-24 2023-06-09 中国地质大学(武汉) 一种基于rgb-d的显著目标检测方法及储存介质
CN113837080B (zh) * 2021-09-24 2023-07-25 江西理工大学 一种基于信息增强与感受野增强的小目标检测方法
CN115471831B (zh) * 2021-10-15 2024-01-23 中国矿业大学 一种基于文本增强学习的图像显著性检测方法
CN114332490A (zh) * 2021-11-25 2022-04-12 河南大学 一种基于涂鸦监督的高分辨显著性目标检测方法
CN115019201B (zh) * 2022-05-20 2024-03-05 西北工业大学 一种基于特征精细化深度网络的弱小目标检测方法
CN115294359B (zh) * 2022-08-17 2023-10-10 杭州电子科技大学 一种基于深度学习的高分辨率图像显著性目标检测方法
CN115294412A (zh) * 2022-10-10 2022-11-04 临沂大学 基于深度学习的实时煤岩分割网络生成方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3032487A1 (en) * 2016-08-03 2018-02-08 Jiangsu University Saliency-based method for extracting road target from night vision infrared image
CN110188817A (zh) * 2019-05-28 2019-08-30 厦门大学 一种基于深度学习的实时高性能街景图像语义分割方法
CN111242138A (zh) * 2020-01-11 2020-06-05 杭州电子科技大学 一种基于多尺度特征融合的rgbd显著性检测方法
CN111462126A (zh) * 2020-04-08 2020-07-28 武汉大学 一种基于边缘增强的语义图像分割方法及系统
CN111461043A (zh) * 2020-04-07 2020-07-28 河北工业大学 基于深度网络的视频显著性检测方法
CN112084901A (zh) * 2020-08-26 2020-12-15 长沙理工大学 基于gcam的高分辨率sar图像机场跑道区自动检测方法及系统
CN112365523A (zh) * 2020-11-05 2021-02-12 常州工学院 基于无锚点孪生网络关键点检测的目标跟踪方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3032487A1 (en) * 2016-08-03 2018-02-08 Jiangsu University Saliency-based method for extracting road target from night vision infrared image
CN110188817A (zh) * 2019-05-28 2019-08-30 厦门大学 一种基于深度学习的实时高性能街景图像语义分割方法
CN111242138A (zh) * 2020-01-11 2020-06-05 杭州电子科技大学 一种基于多尺度特征融合的rgbd显著性检测方法
CN111461043A (zh) * 2020-04-07 2020-07-28 河北工业大学 基于深度网络的视频显著性检测方法
CN111462126A (zh) * 2020-04-08 2020-07-28 武汉大学 一种基于边缘增强的语义图像分割方法及系统
CN112084901A (zh) * 2020-08-26 2020-12-15 长沙理工大学 基于gcam的高分辨率sar图像机场跑道区自动检测方法及系统
CN112365523A (zh) * 2020-11-05 2021-02-12 常州工学院 基于无锚点孪生网络关键点检测的目标跟踪方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Edge-Aware Convolution Neural Network Based Salient Object Detection;Wenlong Guan等;IEEE Signal Processing Letters;第26卷(第1期);第114-118页 *

Also Published As

Publication number Publication date
CN112950477A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
CN112950477B (zh) 一种基于双路径处理的高分辨率显著性目标检测方法
CN111047551B (zh) 一种基于U-net改进算法的遥感影像变化检测方法及系统
CN109859190B (zh) 一种基于深度学习的目标区域检测方法
WO2020108362A1 (zh) 人体姿态检测方法、装置、设备及存储介质
Wang et al. RGB-D salient object detection via minimum barrier distance transform and saliency fusion
Zhang et al. Deep hierarchical guidance and regularization learning for end-to-end depth estimation
CN113158862B (zh) 一种基于多任务的轻量级实时人脸检测方法
Wang et al. Small-object detection based on yolo and dense block via image super-resolution
CN110796026A (zh) 一种基于全局特征拼接的行人重识别方法
CN111612008A (zh) 基于卷积网络的图像分割方法
CN111696110B (zh) 场景分割方法及系统
CN112150493A (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
CN111583173A (zh) 一种rgb-d图像显著性目标检测方法
CN109886159B (zh) 一种非限定条件下的人脸检测方法
CN112184585B (zh) 一种基于语义边缘融合的图像补全方法及系统
Yin et al. Visual attention dehazing network with multi-level features refinement and fusion
CN114764868A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
Ye et al. Depth super-resolution with deep edge-inference network and edge-guided depth filling
Xue et al. Boundary-induced and scene-aggregated network for monocular depth prediction
CN111882620A (zh) 一种基于多尺度信息道路可行驶区域分割方法
CN110852199A (zh) 一种基于双帧编码解码模型的前景提取方法
Zheng et al. T-net: Deep stacked scale-iteration network for image dehazing
Zhang et al. R2net: Residual refinement network for salient object detection
Zhang et al. Residual attentive feature learning network for salient object detection
CN112801021B (zh) 基于多级语义信息的车道线检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant