CN114332559A - 一种基于自适应跨模态融合机制和深度注意力网络的rgb-d显著性目标检测方法 - Google Patents

一种基于自适应跨模态融合机制和深度注意力网络的rgb-d显著性目标检测方法 Download PDF

Info

Publication number
CN114332559A
CN114332559A CN202111565872.9A CN202111565872A CN114332559A CN 114332559 A CN114332559 A CN 114332559A CN 202111565872 A CN202111565872 A CN 202111565872A CN 114332559 A CN114332559 A CN 114332559A
Authority
CN
China
Prior art keywords
depth
rgb
data set
target detection
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111565872.9A
Other languages
English (en)
Other versions
CN114332559B (zh
Inventor
夏晨星
段松松
黄荣梅
孙延光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University of Science and Technology
Original Assignee
Anhui University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University of Science and Technology filed Critical Anhui University of Science and Technology
Priority to CN202111565872.9A priority Critical patent/CN114332559B/zh
Publication of CN114332559A publication Critical patent/CN114332559A/zh
Application granted granted Critical
Publication of CN114332559B publication Critical patent/CN114332559B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明属于计算机视觉领域,提供了一种自适应跨模态融合机制和深度注意力网络的RGB‑D显著性目标检测方法,包括以下步骤:1)准备RGB‑D显著性目标检测数据集,该数据集包括三个部分,分别是RGB图像I、对应的深度(Depth)图D像以及显著性分割图S,进一步可划分为训练集和测试集;2)设计深度图质量感知模块,并计算输入该模块的深度图的质量值,高于该值的深度图作为训练样本,否则过滤掉该深度图;3)分别建立用于提取RGB特征和Depth特征的神经网络模型,并使用VGG16网络用于提取特征;4)建立计算深度显著性先验和背景先验的计算方式;5)建立RGB特征和Depth特征的高效互补的自适应跨模态特征融合方案,并整合多尺度融合特征,得到预测结果。

Description

一种基于自适应跨模态融合机制和深度注意力网络的RGB-D 显著性目标检测方法
技术领域
本发明涉及计算机视觉领域,特别地涉及一种基于自适应跨模态融合机制和深度注意力网络的RGB-D显著性目标检测方法。
背景技术
本部分的陈述仅仅是涉及到了与本发明相关的背景技术,并不必然构成现有技术。
显著性目标检测是计算机视觉领域最基本的任务之一,在各大计算机视觉任务中充当一个非常重要的角色。显著性目标检测可以模拟人类视觉感知系统找出最引人注意的物体和区域,并被广泛应用于各类计算机视觉任务,比如图像分割,图像检索,语义分割,目标检测等。显著性是基于人类视觉对于图片场景内容理解的基础上进行主观的区域选择,因此研究视觉显著性对于探索计算机模拟人类视觉机制有着非常重要的意义。
深度(Depth)图像也能够为计算机视觉任务提供显著信息,并且Depth信息能够为RGB图像提供缺失的空间结构信息以及其他一些补充信息,比如边缘细节和局部信息。并且随着深度传感器的广泛应用,可以较容易获取Depth图像,并作为RGB-D显著性目标检测算法的输入数据。现有的RGB-D显著性目标检测算法利用Depth图像的方式可以分为三类:(1)一类是将Depth图像和RGB 图像一起作为原始的输入数据,将Depth图像作为RGB图像的第四个通道;(2)一类是将Depth图像经过相应的操作提取出显著性特征,去增强RGB特征从而预测出显著图;(3)一类是将Depth图像作为一个单独的子网去提取出显著性信息,然后与RGB图像的显著性信息相融合,最后提取出显著图。
然而第一类方式通常将Depth图像与RGB图像同等对待,没有考虑RGB图像和Depth图像之间存在的差异;第二类方式忽略了Depth图像天然带有噪声的问题,也就是Depth图的质量问题。如何将Depth图中带有的噪声去除却没有受到关注;第三类方式主要将特征进行连接或者元素级操作,并没有考虑到不同通道特征所携带的信息之间的差异。
本发明采用后期融合和多尺度融合的策略,设计深度注意力网络增强RGB特征并且使用自适应的跨模态特征融合方式选择携带更多显著性的通道特征。
发明内容
基于现有RGB-D显著性目标检测存在的跨模态特征融合方面和 Depth图像质量对于RGB-D模型性能影响的问题,本发明从这两方面考虑,提供一种自适应跨模态特征融合机制和深度注意网络的 RGB-D显著性目标检测方法。
本发明采用的具体技术方案如下:
1.准备RGB-D显著性目标检测数据集,数据集中包括三个部分,分别是RGB图像I、对应的Depth图D以及显著性分割图S,进一步可划分为训练集和测试集。
具体步骤如下:
1.1)收集数据集RGB-D显著性目标检测常用的公开数据集, STERE数据集、GIT数据集、DES数据集、NLPR数据集、LFSD 数据集、NJUD数据集、SSD数据集、DUT-RGBD数据集、SIP数据集。
1.2)将上述STERE数据集、GIT数据集、DES数据集、NLPR数据集、LFSD数据集、NJUD数据集、SSD数据集进行深度图质量评估,筛选出深度质量较好的RGB-D图像对作为训练样本,通过该方式得到一个高质量的RGB-D SOD数据集并将其作为训练数据集,将 DUT-RGBD数据集、SIP数据集作为测试数据集。
1.3)对训练数据集和测试数据集进行相应的操作,比如裁剪,填充,反转等,使得数据集中的图像能够满足模型的需求。
2.设计Depth图质量感知模块,并计算输入该模块的Depth图的质量值,高于该值的Depth图作为训练样本,否则过滤掉该Depth 图。最后该模块输出一个高质量的Depth图像,并作为整个RGB-D 模型的Depth图输入数据。其中,深度图过滤模块作为整个RGB-D 模型的预处理阶段。具体步骤如下所示:
2.1)设计出高质量Depth图的评价指标,并根据该指标去判别输入Depth图的质量。该Depth图的质量评价标准,该评价指标的计算方式如下所示:
DH(i)=HisG(i) 公式(1)
Figure RE-GDA0003524871660000031
其中,HisG(i)表示Depth图i对应的深度分布直方图,HQ用于判断该Depth图像质量的高低。
2.2)利用该计算方法,对训练集中的STERE数据集、GIT数据集、 DES数据集、NLPR数据集、LFSD数据集、NJUD数据集、SSD 数据集进行筛选,过滤掉低质量的Depth图,得到高质量Depth图像的RGB-D显著性目标检测模型。
3.分别建立用于提取RGB特征和Depth特征的神经网络模型,使用VGG16网络用于提取特征。并将原始RGB图像和经过Depth 图像过滤之后的Depth图作为输出,输出包括RGB显著性特征和 Depth显著性特征。
3.1)搭建RGB特征提取网络,设置5个卷积模块,每一个卷积模块中包含3个卷积操作和若干池化操作和ReLu()激活函数。每一个模块都输出一个特征向量,整个RGB特征提取提取网络将输出5个层次的特征,分别S_conv1,S_conv2,S_conv3,S_conv4,S_conv5。
3.2)搭建Depth特征提取网络,设置5个卷积模块,每一个卷积模块中包含3个卷积操作和若干池化操作和ReLu()激活函数。并且每一个模块最后对应一个1x1的卷积操作。每一个模块都输出一个特征向量,整个Depth特征提取网络将输出5个层次的特征,分别是D_conv1,,D_conv2,,D_conv3,D_conv4,D_conv5。
4.建立Depth显著性先验和背景先验的计算方式。通过对Depth 图像的调制,计算出带有显著信息的深度显著性先验和非显著信息的背景先验增强RGB特征携带显著信息的能力并弱化背景。
具体步骤如下:
4.1)基于所述的高质量Depth图像的深度分布直方图,依据其双峰效应可以分为3个区间,两个深度峰对应两个深度区间,余下的深度值对应一个区间;
4.2)基于所述的Depth图像中深度值的三个区间,将深度值较小的区间定义为深度显著性先验,余下的而深度值定义为背景先验。
5.建立RGB特征和深度特征的高效互补的自适应跨模态特征融合方案。通过该自适应融合方案自动选择带有更多显著信息通道特征,从而更准确地预测出图像中的显著目标。
具体步骤如下:
5.1)利用RGB数据集中的Depth图的真值标签,计算每一个特征通道所对应的自适应因子:
Figure RE-GDA0003524871660000051
Figure RE-GDA0003524871660000052
Figure RE-GDA0003524871660000053
其中,F表示通道特征,G表示显著性真值标签,Fi表示第i通道的特征,
Figure RE-GDA0003524871660000054
表示第i通道对应的自适应因子,γ表示加权系数。
5.2)基于所述的自适应因子,将每一个通道对应的自适应因子与其通道特征相乘,可得到过滤之后的特征:
Figure RE-GDA0003524871660000055
Figure RE-GDA0003524871660000056
其中,
Figure RE-GDA0003524871660000057
表示经过自适应因子过滤之后的通道特征,Fs表示融合之后的特征。
6.整合Depth图过滤单元、RGB特征编码器、深度特征编码器、自适应跨模态融合机制、多尺度特征融合方案和先验知识增强RGB 特征方法成完整的RGB-D显著性目标检测模型,输出最终的显著图,计算如下:
Figure RE-GDA0003524871660000061
7.通过模型输出的显著图和数据集中的显著目标分割图计算损失函数,并进行反向传播,调整参数,最后训练出模型。将测试集数据输入训练好的RGB-D SOD模型测试模型的性能,并输出预测的显著图(SalientMap),损失函数计算如下:
Figure RE-GDA0003524871660000062
其中,H,W分别代表输出图像的高度和宽度,Gi,j表示显著性分割图,Si,j表示预测的显著图。
8.将测试阶段的实验数据输入,使用模型的评价指标,比如MAE、 F-measure(Fβ)、S-measure(Sm)等,进行计算模型的性能,评价指标计算如下所示:
Figure RE-GDA0003524871660000063
Figure RE-GDA0003524871660000064
Sm=α*So+(1-α)*Sr 公式(12)
其中,W,H分别表示输入图像的宽度和高度,S表示预测的显著图,G表示真值标签,Precision表示精确度,Recall表示召回率,α通常设置为0.5,便于平衡目标感知结构的相似性(So)和区域感知结构的相似性(Sr)。
附图说明
图1为本发明的模型结构示意图
图2为本发明中的自适应跨模态融合机制示意图
图3为本发明中的多尺度特征融合机制示意图
图4为本发明的显著性先验和背景先验的计算示意图
图5为本发明中的模型训练流程图
图6为本发明的结果视觉展示图
具体实施方案
下面将结合本发明实例中的附图,对本发明实施例中的技术方案进行清楚完整地描述,此外,所叙述的实施例仅是本发明一部分实施例,而不是所有的实施例。基于本发明中的实施例,本研究方向普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护范围。
如图1所展示,一种包含自适应跨模态特征融合机制和深度注意力网络的RGB-D显著性目标检测方法包含以下步骤:
1.准备RGB-D显著性目标检测数据集,该数据集包括三个部分,分别是RGB图像I、对应的Depth图D像以及显著目标分割图S,进一步可划分为训练集和测试集。
具体步骤如下:
1.1)收集数据集RGB-D显著性目标检测常用的公开数据集, STERE数据集、GIT数据集、DES数据集、NLPR数据集、LFSD 数据集、NJUD数据集、SSD数据集、DUT-RGBD数据集、SIP数据集。
1.2)将上述STERE数据集、GIT数据集、DES数据集、NLPR数据集、LFSD数据集、NJUD数据集、SSD数据集进行深度图质量评估,筛选出深度质量较好的RGB-D图像对作为训练样本,通过该方式得到一个高质量的RGB-D SOD数据集并将其作为训练数据集,将 DUT-RGBD数据集、SIP数据集作为测试数据集。
1.3)对训练数据集和测试数据集进行相应的操作,比如裁剪,填充,反转等,使得数据集中的图像能够满足模型的需求。
2.设计关注Depth图质量的模块,并计算输入该模块的Depth图的质量值,高于该值的Depth图作为训练样本,否则过滤掉该Depth 图。最后该模块输出一个高质量的Depth图像,作为整个RGB-D模型的Depth图输入。其中,Depth图过滤模块作为整个RGB-D模型的预处理阶段。具体步骤如下所示:
2.1)设计出高质量Depth图的评价指标,并根据该指标去判别输入Depth图的质量。该Depth图的质量评价标准,该评价指标的计算方式如下所示:
DH(i)=HisG(i) 公式(1)
Figure RE-GDA0003524871660000081
其中,HisG(i)表示Depth图i对应的深度分布直方图,HQ表示该Depth图像质量的高低。
2.2)利用该计算方法,对训练集中的STERE数据集、GIT数据集、DES数据集、NLPR数据集、LFSD数据集、NJUD数据集、SSD 数据集进行筛选,过滤掉低质量的Depth图,得到高质量Depth图像的RGB-D显著性目标检测模型。
3.分别建立用于提取RGB特征和Depth特征的神经网络模型,模型的主干网络选择VGG16网络用于提取特征。并将原始RGB图像和经过Depth图像过滤之后的Depth图作为输出,输出包括RGB 显著性特征和深度显著性特征。
3.1)搭建RGB特征提取网络,设置5个卷积模块,每一个卷积模块中包含3个卷积操作和若干池化操作和ReLu()激活函数。每一个模块都输出一个特征向量,整个RGB特征提取提取网络将输出5个层次的特征,分别S_conv1,S_conv2,S_conv3,S_conv4,S_conv5。
3.2)搭建深度特征提取网络,设置5个卷积模块,每一个卷积模块中包含3个卷积操作和若干池化操作和ReLu()激活函数。并且每一个模块最后对应一个1x1的卷积操作。每一个模块都输出一个特征向量,整个Depth特征提取网络将输出5个层次的特征,分别是D_conv1,D_conv2,D_conv3,D_conv4,D_conv5。
4.建立计算深度显著性先验和背景先验的计算方式。通过对 Depth图像的调制,计算出带有显著信息的深度显著性先验和背景先验去增强RGB特征携带限制信息的能力并弱化背景。
具体步骤如下:
4.1)基于所述的高质量Depth图像的深度分布直方图,依据其双峰效应可以分为3个区间,两个深度峰对应两个区间,余下的深度值对应一个区间;
4.2)基于所述的Depth图像中深度值的三个区间,将深度值较小的区间定义为深度显著性先验,余下的而深度值定义为背景先验。
5.建立RGB特征和Depth特征的高效互补的自适应跨模态特征融合方案。通过该自适应融合方案自动选择带有更多显著信息通道特征,从而更准确地预测出图像中的显著目标。
具体步骤如下:
5.1)利用RGB-D数据集中的显著目标分割图,计算每一个特征通道所对应的自适应因子:
Figure RE-GDA0003524871660000101
Figure RE-GDA0003524871660000102
Figure RE-GDA0003524871660000103
其中,F表示通道特征,G表示显著性真值标签,Fi表示第i通道的特征,
Figure RE-GDA0003524871660000104
表示第i通道对应的自适应因子,γ表示加权系数。
5.2)基于所述的自适应因子,将每一个通道对应的自适应因子与其通道特征相乘,可得到过滤之后的特征:
Figure RE-GDA0003524871660000105
Figure RE-GDA0003524871660000106
其中,
Figure RE-GDA0003524871660000107
表示经过自适应因子过滤之后的通道特征,Fs表示融合之后的特征。
6.整合Depth图过滤单元、RGB特征编码器、深度特征编码器、自适应跨模态融合机制、多尺度特征融合方案和先验知识增强RGB 特征方法成完整的RGB-D显著性目标检测模型,输出最终的显著图,计算如下:
Figure RE-GDA0003524871660000111
7.通过模型的输出的显著图和数据集中的显著性标签计算损失函数,并进行反向传播,调整参数,最后训练出模型。将测试集数据输入训练好的RGB-D SOD模型测试模型的性能,并输出预测的显著图(SalientMap),损失函数计算如下:
Figure RE-GDA0003524871660000112
其中,H,W分别代表输出图像的高度和宽度,Gi,j表示真值标签, Si,j表示预测的显著图。
8.将测试阶段的实验数据输入,使用模型的评价指标,比如MAE、 F-measure(Fβ)、S-measure(Sm)等,进行计算模型的性能,评价指标计算如下所示:
Figure RE-GDA0003524871660000113
Figure RE-GDA0003524871660000114
Sm=α*So+(1-α)*Sr 公式(11)
其中,W,H分别表示输入图像的宽度和高度,S表示预测的显著图, G表示显著目标分割图,Precision表示精确度,Recall表示召回率,α通常设置为0.5,便于平衡目标感知结构的相似性(So)和区域感知结构的相似性(Sr)。
以上所述为本申请优选实施而以,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包括在本申请的保护范围内。

Claims (7)

1.一种基于自适应跨模态融合机制和深度注意力网络的RGB-D显著性目标检测方法,其特征在于,该方法包括以下步骤:
1)获取训练该RGB-D显著性目标检测模型的数据集;
2)构建高质量Depth图像的评价方法,并利用该评价方法从现有公开的RGB-D显著性目标检测数据集中构建含有高质量Depth图的RGB-D显著性目标检测数据集,用于提高该RGB-D显著性目标检测模型的性能;
3)分别建立用于提取RGB特征和Depth特征的深度神经网络;
4)基于RGB深度神经子网和Depth深度神经子网的RGB特征和Depth特征,构建自适应跨模态特征融合的超网络结构;
5)构建基于深度注意力网络的先验知识的超网络结构,并且利用深度显著性先验用于增强RGB特征的显著信息,并且利用背景先验弱化RGB特征中的复杂背景,帮助RGB-D显著性目标检测模型更好从给出的图片中定位显著目标;
6)基于所述的深度神经网络结构和超网络结构确定整个RGB-D显著性目标检测模型结构;
7)将获取到的数据集进行RGB-D模型训练,并将训练好的模型对RGB图像进行显著目标的预测。
2.根据权利要求1所述的基于自适应跨模态融合机制和深度注意力网络的RGB-D显著性目标检测方法,其特征在于,所述步骤1)中,获取RGB-D显著目标检测的数据集包括现有的公开数据集,例如GIT 数据集、DES数据集、NLPR数据集、LFSD数据集、NJUD数据集、SSD数据集、DUT-RGBD数据集、SIP数据集等。
3.根据权利要求1所述的基于自适应跨模态融合机制和深度注意力网络的RGB-D显著性目标检测方法,其特征在于,所述步骤2)的具体方法是:
3.1)对获取到的Deopth图像转换为深度分布直方图,并对该深度直方图进行预处理,将深度值较小的值删除;
DH(i)=HisG(i) 公式(1)
其中,HisG(i)表示Depth图像i对应的深度分布直方图,i表示Depth图像。
2)基于预处理之后的Depth图像进行判断,如果该Depth图的深度分布直方图满足双峰效应,则判定该Depth图为高质量Depth图;否则,则不为高质量Depth图像:
Figure FDA0003418365570000021
其中,HQ=1表示该Depth图为高质量Depth图。θ(DH(i))表示直方图峰的数量。
3.3)基于Depth图像的双峰效应,从现有公开数据集中建构高质量的混合Depth图RGB-D显著性目标检测数据集,并将该混合数据集分成三个类别:大,中,小。使用该混合数据集去探索不同大小的显著目标对RGB-D显著性目标检测模型的影响。
4.根据权利要求1所述的基于自适应跨模态融合机制和深度注意力网络的RGB-D显著性目标检测方法,其特征在于,所述步骤3)的采用两个VGG16作为RGB特征和Depth特征的特征提取器,其中Depth的VGG16主干网络是已经与训练好的深度神经网络,其目的是减少模型的参数。
5.根据权利要求1所述的基于自适应跨模态融合机制和深度注意力网络的RGB-D显著性目标检测方法,其特征在于,所述步骤4)的具体步骤为:
5.1)利用RGB-D数据集中的真值标签,计算每一个特征通道所对应的自适应因子:
Figure FDA0003418365570000031
Figure FDA0003418365570000032
Figure FDA0003418365570000033
其中,F表示通道特征,G表示显著性真值标签,Fi表示第i通道的特征,
Figure FDA0003418365570000034
表示第i通道对应的自适应因子,γ表示加权系数。
5.2)基于所述的自适应因子,将每一个通道对应的自适应因子与其通道特征相乘,可得到过滤之后的特征:
Figure FDA0003418365570000035
Figure FDA0003418365570000036
其中,
Figure FDA0003418365570000037
表示经过自适应因子过滤之后的通道特征,Fs表示融合之后的特征。
6.根据权利要求1所述的基于自适应跨模态融合机制和深度注意力网络的RGB-D显著性目标检测方法,其特征在于,所述步骤5)的具体步骤为:
6.1)基于所述的高质量Depth图像的深度分布直方图,依据其双峰效应可以分为3个区间,两个深度峰对应两个区间,余下的深度值对应一个区间;
6.2)基于所述的Depth图像中深度值的三个区间,将深度值较小的区间定义为深度显著性先验,余下的而深度值定义为背景先验。
7.根据权利要求1所述的基于自适应跨模态融合机制和深度注意力网络的RGB-D显著性目标检测方法,其特征在于,所述步骤6)的具体步骤为:
对步骤5和步骤6所生成的特征进行融合,生成最后的显著图。
Figure FDA0003418365570000041
CN202111565872.9A 2021-12-17 2021-12-17 一种基于自适应跨模态融合机制和深度注意力网络的rgb-d显著性目标检测方法 Active CN114332559B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111565872.9A CN114332559B (zh) 2021-12-17 2021-12-17 一种基于自适应跨模态融合机制和深度注意力网络的rgb-d显著性目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111565872.9A CN114332559B (zh) 2021-12-17 2021-12-17 一种基于自适应跨模态融合机制和深度注意力网络的rgb-d显著性目标检测方法

Publications (2)

Publication Number Publication Date
CN114332559A true CN114332559A (zh) 2022-04-12
CN114332559B CN114332559B (zh) 2024-08-06

Family

ID=81053441

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111565872.9A Active CN114332559B (zh) 2021-12-17 2021-12-17 一种基于自适应跨模态融合机制和深度注意力网络的rgb-d显著性目标检测方法

Country Status (1)

Country Link
CN (1) CN114332559B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114663436A (zh) * 2022-05-25 2022-06-24 南京航空航天大学 一种基于深度学习的跨尺度缺陷检测方法
CN117671472A (zh) * 2024-01-31 2024-03-08 吉林大学 一种基于动态视觉传感器的水下多目标群体识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242238A (zh) * 2020-01-21 2020-06-05 北京交通大学 一种rgb-d图像显著性目标获取的方法
CN112183751A (zh) * 2020-11-09 2021-01-05 大连东软教育科技集团有限公司 神经网络模型预测置信度校准方法、系统及存储介质
CN112651406A (zh) * 2020-12-18 2021-04-13 浙江大学 一种深度感知和多模态自动融合的rgb-d显著性目标检测方法
CN113705562A (zh) * 2021-03-03 2021-11-26 腾讯科技(深圳)有限公司 目标区域确定方法、装置、设备及存储介质
US20210383231A1 (en) * 2020-08-20 2021-12-09 Chang'an University Target cross-domain detection and understanding method, system and equipment and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242238A (zh) * 2020-01-21 2020-06-05 北京交通大学 一种rgb-d图像显著性目标获取的方法
US20210383231A1 (en) * 2020-08-20 2021-12-09 Chang'an University Target cross-domain detection and understanding method, system and equipment and storage medium
CN112183751A (zh) * 2020-11-09 2021-01-05 大连东软教育科技集团有限公司 神经网络模型预测置信度校准方法、系统及存储介质
CN112651406A (zh) * 2020-12-18 2021-04-13 浙江大学 一种深度感知和多模态自动融合的rgb-d显著性目标检测方法
CN113705562A (zh) * 2021-03-03 2021-11-26 腾讯科技(深圳)有限公司 目标区域确定方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张守东;杨明;胡太;: "基于多特征融合的显著性目标检测算法", 计算机科学与探索, no. 05, 3 September 2018 (2018-09-03) *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114663436A (zh) * 2022-05-25 2022-06-24 南京航空航天大学 一种基于深度学习的跨尺度缺陷检测方法
CN117671472A (zh) * 2024-01-31 2024-03-08 吉林大学 一种基于动态视觉传感器的水下多目标群体识别方法
CN117671472B (zh) * 2024-01-31 2024-05-14 吉林大学 一种基于动态视觉传感器的水下多目标群体识别方法

Also Published As

Publication number Publication date
CN114332559B (zh) 2024-08-06

Similar Documents

Publication Publication Date Title
CN103985130B (zh) 一种针对复杂纹理图像的图像显著性分析方法
CN113569724B (zh) 基于注意力机制和扩张卷积的道路提取方法及系统
CN114332559B (zh) 一种基于自适应跨模态融合机制和深度注意力网络的rgb-d显著性目标检测方法
CN107273870A (zh) 一种监控场景下融合上下文信息的行人位置检测方法
CN112861690A (zh) 多方法融合的遥感影像变化检测方法及系统
CN110738132B (zh) 一种具备判别性感知能力的目标检测质量盲评价方法
WO2019167784A1 (ja) 位置特定装置、位置特定方法及びコンピュータプログラム
CN113781510A (zh) 边缘检测方法、装置及电子设备
CN111275694B (zh) 一种注意力机制引导的递进式划分人体解析系统及方法
CN114998373A (zh) 基于多尺度损失函数的改进型U-Net云图分割方法
CN111199199B (zh) 一种基于自适应上下文区域选取的动作识别方法
CN117830889A (zh) 基于光流图特征融合机制的视频显著性检测方法、系统及存储介质
JP2011170890A (ja) 顔検出方法および装置並びにプログラム
CN115661482B (zh) 一种基于联合注意力的rgb-t显著目标检测方法
CN110796716A (zh) 一种基于多重残差网络和正则化迁移学习的图像着色方法
CN116229104A (zh) 一种基于边缘特征引导的显著性目标检测方法
CN113538199B (zh) 一种基于多层感知卷积和通道加权的图像隐写检测方法
CN110348404B (zh) 一种农村道路景观视觉评价分析方法
CN111754459B (zh) 基于统计深度特征的染色伪造图像检测方法及电子装置
CN114299328A (zh) 一种环境自适应感知的小样本濒危动物检测方法及系统
CN114155198A (zh) 一种去雾图像的质量评价方法和装置
CN112668403A (zh) 多特征区域的细粒度船舶图像目标识别方法
CN114119506B (zh) 基于背景信息的图像显著性检测方法
CN117058125B (zh) 基于手机后盖玻璃的检测方法和系统
CN116912918B (zh) 一种人脸识别方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant