CN109409435A - 一种基于卷积神经网络的深度感知显著性检测方法 - Google Patents
一种基于卷积神经网络的深度感知显著性检测方法 Download PDFInfo
- Publication number
- CN109409435A CN109409435A CN201811294279.3A CN201811294279A CN109409435A CN 109409435 A CN109409435 A CN 109409435A CN 201811294279 A CN201811294279 A CN 201811294279A CN 109409435 A CN109409435 A CN 109409435A
- Authority
- CN
- China
- Prior art keywords
- depth
- conspicuousness
- saliency maps
- network
- colored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络的深度感知显著性检测方法,具体步骤如下:a.将深度图转化为三通道深度图;b.将三通道深度图和彩色图分别送入彩色显著性网络和深度显著性网络中,得到彩色显著性图和深度显著性图;c.将彩色显著性图和深度显著性图一起送入显著性融合网络中,得到融合显著性图;d.将彩色显著性图和深度显著性图联合训练并计算损失函数loss,以此来训练步骤b和c中的网络,让其拥有更强的特征提取能力。
Description
技术领域
本发明涉及一种图像显著性检测方法,特别是一种基于卷积神经网络的深度感知显著性检测方法,旨在通过RGB图和深度图来检测出图像中的显著性物体。
背景技术
显著性检测模仿人类视觉机制,利用计算机对图像上在人眼中最显著的物体进行检测,显著性检测算法得到的显著性图是一种灰度图,图中利用灰度值来表示图片中不同物体的显著性程度,图中越亮的区域越显著。近年来显著性检测一直是计算机视觉领域的一个重要课题,它可以在很多课题中起到应用,比如图像分类,图像分割和对象识别。随着显著性检测受到越来越多的关注,人们开始思考如何利用深度信息来辅助进行显著性检测,随着立体相机,深度相机以及微软的kinect传感器的出现,深度图被用到RGBD显著性检测中,RGBD显著性检测在3D内容监控,立体图像检索等方面有重要的应用。
现有技术中,2017年,宋等人针对RGBD图像和立体图像,提出一种深度感知显著性检测和分割框架,通过利用低级特征对比、中级特征加权因子和高级位置先验,基于多尺度区域分割计算了四类特征的各种显著性度量,利用随机森林回归器来区分显著性融合并在每个尺度上生成DSF显著性图。2017年,韩等人提出了一个基于双流法的RGBD显著性检测框架,该方法分别将彩色图像和深度图像分别送入两个VGG网络,并通过迁移学习的方式,将彩色通道的权重迁移到深度网络中,并采用多尺度融合的方式,将两种图所提取的特征进行融合得到最后的显著性图。2018年,朱等人提出基于编码器和解码器结构的RGBD显著性检测方法,该方法将提取RGB显著特征的网络部分作为主网络,深度图用子网络来提取特征,并采用简单级联的方式将两种特征融合再采用解码器结构将特征图还原为显著性图。以上这些方法虽然利用深度信息来生成显著性图,但对深度图中的信息提取不够,并且没有较好的将深度信息和彩色信息进行融合。
发明内容
本发明的目的在于提高现有技术的性能,提出一种基于卷积神经网络的深度感知显著性检测方法。其基于深度显著性网络,彩色显著性网络和显著性融合网络,利用深度信息和彩色信息能够更为准确地提取出RGBD图像中的显著性对象并将两种显著性图进行融合,并且有效地抑制无关的背景区域。
为了达到上述目的,本发明采用的技术方案如下:
一种基于卷积神经网络的深度感知显著性检测方法,具体步骤如下:
a.将深度图转化为三通道深度图;
b.将三通道深度图和彩色图分别送入彩色显著性网络和深度显著性网络中,得到彩色显著性图和深度显著性图;
c.将彩色显著性图和深度显著性图一起送入显著性融合网络中,得到融合显著性图;
d.将彩色显著性图和深度显著性图联合训练并计算损失函数loss,以此来训练步骤b和c中的网络,让其拥有更强的特征提取能力;
上述步骤(a)将深度图转化为三通道深度图,具体步骤如下:
(a-1)、将深度图像全部送入HHA算法中,将深度图转化为水平差异图,对地高度图以及表面法向量图三种单通道深度图;
(a-2)、将这三种单通道深度图的像素值用RGB三种颜色表示,再将三种单通道深度图组成三通道深度图。
上述步骤(b)中将两种图送入两种显著性网络,得到彩色显著性图和深度显著性图,具体步骤如下:
(b-1)、输入原始彩色图像和三通道深度图像其中N表示图像的总张数;
(b-2)、彩色图送入彩色显著性检测模型,输出得到彩色显著性图;
(b-3)、三通道深度图送入一种深度显著性网络,该网络由两部分组成,基础网络部分是由VGG16部分组成,该网络对输入图像进行了卷积和池化操作,由于深度图所包含的信息量没有彩色图像多,为了更好的适应提取深度图特征的任务,将VGG16网络中的第五层池化去掉,避免过度池化损失信息,并在第三和第四次池化后加入dropout层,避免由于数据量不够导致的网络过拟合;为了更好的提取和结合浅层语义信息和深层细节信息,采用空间多尺度金字塔结构来融合信息,具体做法是将第5层卷积层输出的特征进行上采样,并与第4层卷积层输出的结果相加,然后将相加的结果进行卷积再做上采样,并与第3层卷积层输出的结果相加,再将相加的结果进行卷积和上采样,并与第2层卷积层结果相加,并将此结果经过卷积层变为2通道后再上采样输出得到深度显著性图。
上述步骤(c)用显著性融合网络计算融合图,具体步骤如下:
(c-1)、将彩色显著性图和深度显著性图一起送入显著性融合网络中,该网络主要由3个部分组成:相乘部分,相加部分和级联部分;
(c-2)、相加部分是将深度显著性图和彩色显著性图相加,完成显著性信息的互补,因为深度图和彩色图所包含的信息是不同的,所以网络所能提取出来的特征也不同,通过相加形成信息的互补;相乘部分是将深度显著性图先经过sigmoid函数,将深度显著性图归一化到[0,1]之间,即转化为一种权重图,高显著性部分权重接近1,低显著性部分权重接近0,将权重图和彩色显著性图相乘,则起到了强化共同的显著性部分,弱化各自显著性部分的作用;
(c-3)、将相加和相乘的结果送入级联层,将两种显著性结果融合并经过卷积后得到最终的融合显著性图。
上述步骤(d)计算网络损失函数loss,具体步骤如下:
(d-1)、将彩色显著性网络,深度显著性网络和显著性融合网络进行联合训练即同时计算3个网络的loss并相加得到总的loss值,如式(1)所示,
LossA=LossD+LossC+LossF (1)
采取联合训练策略保证彩色显著性和深度显著性图都有较好的结果,这样使得彩色图和深度图都在网络中充分发挥作用,显著性融合网络的loss是为了保证在彩色显著性图和深度显著性图都有较好效果的情况下,能融合出一个好的融合显著性图,式(1)中的3个loss越小,步骤b和c中网络的特征提取能力越强;
(d-2)、三个网络的损失函数都采用相同的损失函数,如式(2)所示,
其中W和b代表损失函数的权重和偏差参数,Y+和Y-表示显著性对象和背景区域,β=|Y+|/Y表示显著性对象在背景中的比例,表示像素属于显著性物体的概率。
与现有技术相比,本发明具有如下的优点:
1.本发明所使用的深度显著性网络相比与现有技术具有更强的特征提取能力。
2.本发明所提出的显著性融合网络能更好的将深度显著性图和彩色显著性图融合。
附图说明
图1是本发明一种基于卷积神经网络的深度感知显著性检测方法的流程图。
图2(a)是本发明步骤(a)中输入的原始深度图像。
图2(b)是本发明步骤(b)中输入的原始深度图像对应的彩色图像。
图2(c)是本发明由原始深度图像得到的HHA图。
图2(d)是本发明由HHA图组合得到的三通道深度图。
图3(a)是本发明基于彩色显著性网络得到的RGB显著性图。
图3(b)是本发明基于深度显著性网络得到的深度显著性图。
图3(c)是基于显著性融合网络得到的最终显著性图。
具体实施方式
下面结合说明书附图对本发明的实施例作进一步详细说明。
本发明进行的仿真实验是在CPU为4GHz、内存为16G,GPU为NVIDIA TITAN XP GPU的PC测试平台上编程实现,采用caffe框架来训练卷积神经网络,并调用matlab接口来测试实验结果,本网络调用已有的显著性检测模型做预训练模型并在此基础上微调,学习率设为10-8,动量为0.9,批量设为32,网络迭代14000次得到最终模型。
如图1所示,一种基于卷积神经网络的深度感知显著性检测方法,其具体步骤如下:
(a)、利用HHA算法生成三通道深度图;
(a-1)、将深度图像,如图2(a)所示,全部送入HHA算法中,如图2(b)所示,该算法是由Gupta等人提出的,该算法可以将深度图转化为水平差异图,对地高度图以及表面法向量图三种单通道深度图,如图2(c)所示;
(a-2)、将这三种单通道深度图的像素值用RGB三种颜色表示,再将三种单通道深度图组成三通道深度图,如图2(d)所示。
(b)、将两种图送入两种显著性网络,得到彩色显著性图和深度显著性图;
(b-1)、输入原始彩色图像和三通道深度图像如图2(a)和2(b)所示,N表示图像的总张数,
(b-2)彩色图送入彩色显著性检测模型,输出得到彩色显著性图;如图3(a)所示;
(b-3)、三通道深度图送入一种深度显著性网络,具体结构如表1所示;
表1.深度显著性网络结构,C[卷积核]-[张量维度]-[特征尺寸],DC[上采样倍数]-[张量维度]-[特征尺寸],C表示卷积,DC表示反卷积
该网络由两部分组成,基础网络部分是由VGG16部分组成,该网络对输入图像进行了卷积和池化操作,由于深度图所包含的信息量没有彩色图像多,为了更好的适应提取深度图特征的任务,将VGG16网络中的第五层池化去掉,避免过度池化损失信息,并在第三和第四次池化后加入dropout层,避免由于数据量不够导致的网络过拟合;为了更好的提取和结合浅层语义信息和深层细节信息,采用空间多尺度金字塔结构来融合信息,具体做法是将第5层卷积层输出的特征进行上采样,并与第4层卷积层输出的结果相加,然后将相加的结果进行卷积再做上采样,并与第3层卷积层输出的结果相加,再将相加的结果进行卷积和上采样,并与第2层卷积层结果相加,并将此结果经过卷积层变为2通道后再上采样输出得到深度显著性图,如图3(b)所示。
(c)、将两种显著性图送入显著性融合网络得到融合显著性图;
(c-1)、将彩色显著性图和深度显著性图一起送入显著性融合网络中,如图3(a)和3(b)所示,卷积部分结构如表2所示;该网络主要由3个部分组成相乘部分,相加部分和级联部分;
表2.深度融合网络结构,C[卷积核]-[张量维度]-[特征尺寸],C表示卷积
Block | Layers |
Conv1_f | C3-64-[256,256],C3-64-[256,256],C1-2-[256,256] |
Conv2_f | C3-64-[256,256],C3-64-[256,256],C1-2-[256,256] |
Conv3_f | C3-64-[256,256],C3-64-[256,256],C1-2-[256,256] |
(c-2)、相加部分是将深度显著性图和彩色显著性图相加,完成显著性信息的互补,因为深度图和彩色图所包含的信息是不同的,所以网络所能提取出来的特征也不同,通过相加形成信息的互补,再将相加特征经过Conv1_f卷积;相乘部分是将深度显著性图先经过sigmoid函数,将深度显著性图归一化到[0,1]之间,即转化为一种权重图,高显著性部分权重接近1,低显著性部分权重接近0,将权重图和彩色显著性图相乘,再将相加特征经过Conv2_f卷积,相乘起到了强化共同的显著性部分,弱化各自显著性部分的作用;
(c-3)、将相乘和相加的结果送入级联层将两种显著性结果融合并经过Conv3_f卷积后得到最终的融合显著性图,如图3(c)所示;
(d)、计算训练时的损失函数;
(d-1)、将彩色显著性网络,深度显著性网络和显著性融合网络进行联合训练即同时计算3个网络的loss并相加得到总的loss值,如式(1)所示,
LossA=LossD+LossC+LossF (1)
采取联合训练策略保证彩色显著性和深度显著性图都有较好的结果,这样使得彩色图和深度图都在网络中充分发挥作用,显著性融合网络的loss是为了保证在彩色显著性图和深度显著性图都有较好效果的情况下,能融合出一个好的融合显著性图,式(1)中的3个loss越小,步骤b和c中网络的特征提取能力越强;
(d-2)、三个网络的损失函数都采用相同的损失函数,如式(2)所示,
其中W和b代表损失函数的权重和偏差参数,Y+和Y-表示显著性对象和背景区域,β=|Y+|/Y表示显著性对象在背景中的比例,表示像素属于显著性物体的概率。
从上述仿真实验结果可以看出,本发明一种基于卷积神经网络的深度感知显著性检测,能够更有效完整地突显两种图中显著的对象,并抑制无关的背景区域。
Claims (5)
1.一种基于卷积神经网络的深度感知显著性检测方法,其特征在于,具体步骤如下:
a.将深度图转化为三通道深度图;
b.将三通道深度图和彩色图分别送入彩色显著性网络和深度显著性网络中,得到彩色显著性图和深度显著性图;
c.将彩色显著性图和深度显著性图一起送入显著性融合网络中,得到融合显著性图;
d.将彩色显著性图和深度显著性图联合训练并计算损失函数loss,以此来训练步骤b和c中的网络,让其拥有更强的特征提取能力。
2.根据权利要求1所述的基于卷积神经网络的深度感知显著性检测方法,其特征在于,所述步骤(a)将深度图转化为三通道深度图,具体步骤如下:
(a-1)、将深度图像全部送入HHA算法中,将深度图转化为水平差异图,对地高度图以及表面法向量图三种单通道深度图;
(a-2)、将这三种单通道深度图的像素值用RGB三种颜色表示,再将三种单通道深度图组成三通道深度图。
3.根据权利要求1所述的基于卷积神经网络的深度感知显著性检测方法,其特征在于,所述步骤(b)中将两种图送入两种显著性网络,得到彩色显著性图和深度显著性图,具体步骤如下:
(b-1)、输入原始彩色图像和三通道深度图像其中N表示图像的总张数,(b-2)、彩色图送入彩色显著性检测模型,输出得到彩色显著性图;
(b-3)、三通道深度图送入一种深度显著性网络,该网络由两部分组成,基础网络部分是由VGG16部分组成,该网络对输入图像进行了卷积和池化操作,由于深度图所包含的信息量没有彩色图像多,为了更好的适应提取深度图特征的任务,将VGG16网络中的第五层池化去掉,避免过度池化损失信息,并在第三和第四次池化后加入dropout层,避免由于数据量不够导致的网络过拟合;为了更好的提取和结合浅层语义信息和深层细节信息,采用空间多尺度金字塔结构来融合信息,具体做法是将第5层卷积层输出的特征进行上采样,并与第4层卷积层输出的结果相加,然后将相加的结果进行卷积再做上采样,并与第3层卷积层输出的结果相加,再将相加的结果进行卷积和上采样,并与第2层卷积层结果相加,并将此结果经过卷积层变为2通道后再上采样输出得到深度显著性图。
4.根据权利要求1所述的基于卷积神经网络的深度感知显著性检测方法,其特征在于,所述步骤(c)用显著性融合网络计算融合图,具体步骤如下:
(c-1)、将彩色显著性图和深度显著性图一起送入显著性融合网络中,该网络主要由3个部分组成:相乘部分,相加部分和级联部分;
(c-2)、相加部分是将深度显著性图和彩色显著性图相加,完成显著性信息的互补,因为深度图和彩色图所包含的信息是不同的,所以网络所能提取出来的特征也不同,通过相加形成信息的互补;相乘部分是将深度显著性图先经过sigmoid函数,将深度显著性图归一化到[0,1]之间,即转化为一种权重图,高显著性部分权重接近1,低显著性部分权重接近0,将权重图和彩色显著性图相乘,则起到了强化共同的显著性部分,弱化各自显著性部分的作用;
(c-3)、将相加和相乘的结果送入级联层,将两种显著性结果融合并经过卷积后得到最终的融合显著性图。
5.根据权利要求1所述的基于卷积神经网络的深度感知显著性检测方法,其特征在于,所述步骤(d)计算网络损失函数loss,具体步骤如下:
(d-1)、将彩色显著性网络,深度显著性网络和显著性融合网络进行联合训练即同时计算3个网络的loss并相加得到总的loss值,如式(1)所示,
LossA=LossD+LossC+LossF (1)
采取联合训练策略保证彩色显著性和深度显著性图都有较好的结果,这样使得彩色图和深度图都在网络中充分发挥作用,显著性融合网络的loss是为了保证在彩色显著性图和深度显著性图都有较好效果的情况下,能融合出一个好的融合显著性图,式(1)中的3个loss越小,步骤b和c中网络的特征提取能力越强;
(d-2)、三个网络的损失函数都采用相同的损失函数,如式(2)所示,
其中W和b代表损失函数的权重和偏差参数,Y+和Y-表示显著性对象和背景区域,β=|Y+|/Y表示显著性对象在背景中的比例,表示像素属于显著性物体的概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811294279.3A CN109409435B (zh) | 2018-11-01 | 2018-11-01 | 一种基于卷积神经网络的深度感知显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811294279.3A CN109409435B (zh) | 2018-11-01 | 2018-11-01 | 一种基于卷积神经网络的深度感知显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109409435A true CN109409435A (zh) | 2019-03-01 |
CN109409435B CN109409435B (zh) | 2022-07-15 |
Family
ID=65471172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811294279.3A Active CN109409435B (zh) | 2018-11-01 | 2018-11-01 | 一种基于卷积神经网络的深度感知显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109409435B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111289A (zh) * | 2019-04-28 | 2019-08-09 | 深圳市商汤科技有限公司 | 一种图像处理方法及装置 |
CN110223295A (zh) * | 2019-06-21 | 2019-09-10 | 安徽大学 | 基于深度神经网络色彩感知的显著性预测方法及装置 |
CN110232418A (zh) * | 2019-06-19 | 2019-09-13 | 深圳前海达闼云端智能科技有限公司 | 一种语义识别方法、终端及计算机可读存储介质 |
CN110246148A (zh) * | 2019-05-27 | 2019-09-17 | 浙江科技学院 | 多模态的深度信息融合和注意力学习的显著性检测方法 |
CN110263813A (zh) * | 2019-05-27 | 2019-09-20 | 浙江科技学院 | 一种基于残差网络和深度信息融合的显著性检测方法 |
CN110458178A (zh) * | 2019-08-12 | 2019-11-15 | 浙江科技学院 | 多模态多拼接的rgb-d显著性目标检测方法 |
CN110781895A (zh) * | 2019-10-10 | 2020-02-11 | 湖北工业大学 | 一种基于卷积神经网络的图像语义分割方法 |
CN110929736A (zh) * | 2019-11-12 | 2020-03-27 | 浙江科技学院 | 多特征级联rgb-d显著性目标检测方法 |
CN111242138A (zh) * | 2020-01-11 | 2020-06-05 | 杭州电子科技大学 | 一种基于多尺度特征融合的rgbd显著性检测方法 |
CN111242173A (zh) * | 2019-12-31 | 2020-06-05 | 四川大学 | 一种基于孪生网络的rgbd显著物体检测方法 |
CN111723822A (zh) * | 2020-06-20 | 2020-09-29 | 福州大学 | 一种基于多层次融合的rgbd图像显著性检测方法及系统 |
CN111832592A (zh) * | 2019-04-20 | 2020-10-27 | 南开大学 | Rgbd显著性检测方法以及相关装置 |
CN113298154A (zh) * | 2021-05-27 | 2021-08-24 | 安徽大学 | 一种rgb-d图像显著目标检测方法 |
CN113627367A (zh) * | 2021-08-16 | 2021-11-09 | 电子科技大学 | 一种基于多维信息聚合的立体视频显著性检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157319A (zh) * | 2016-07-28 | 2016-11-23 | 哈尔滨工业大学 | 基于卷积神经网络的区域和像素级融合的显著性检测方法 |
CN107274419A (zh) * | 2017-07-10 | 2017-10-20 | 北京工业大学 | 一种基于全局先验和局部上下文的深度学习显著性检测方法 |
CN107886533A (zh) * | 2017-10-26 | 2018-04-06 | 深圳大学 | 立体图像的视觉显著性检测方法、装置、设备及存储介质 |
CN107895345A (zh) * | 2017-11-29 | 2018-04-10 | 浙江大华技术股份有限公司 | 一种提高人脸图像分辨率的方法和装置 |
CN108345892A (zh) * | 2018-01-03 | 2018-07-31 | 深圳大学 | 一种立体图像显著性的检测方法、装置、设备及存储介质 |
CN108537239A (zh) * | 2018-04-18 | 2018-09-14 | 西南科技大学 | 一种图像显著性目标检测的方法 |
-
2018
- 2018-11-01 CN CN201811294279.3A patent/CN109409435B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157319A (zh) * | 2016-07-28 | 2016-11-23 | 哈尔滨工业大学 | 基于卷积神经网络的区域和像素级融合的显著性检测方法 |
CN107274419A (zh) * | 2017-07-10 | 2017-10-20 | 北京工业大学 | 一种基于全局先验和局部上下文的深度学习显著性检测方法 |
CN107886533A (zh) * | 2017-10-26 | 2018-04-06 | 深圳大学 | 立体图像的视觉显著性检测方法、装置、设备及存储介质 |
CN107895345A (zh) * | 2017-11-29 | 2018-04-10 | 浙江大华技术股份有限公司 | 一种提高人脸图像分辨率的方法和装置 |
CN108345892A (zh) * | 2018-01-03 | 2018-07-31 | 深圳大学 | 一种立体图像显著性的检测方法、装置、设备及存储介质 |
CN108537239A (zh) * | 2018-04-18 | 2018-09-14 | 西南科技大学 | 一种图像显著性目标检测的方法 |
Non-Patent Citations (5)
Title |
---|
HAO CHEN等: ""Attention-aware Cross-modal Cross-level Fusion Network for RGB-D Salient Object Detection"", 《2018 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS)》 * |
HAO CHEN等: ""Multi-scale Multi-path Multi-modal Fusion Network and Example Application to RGB-D Salient Object Detection"", 《2017 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS)》 * |
JUNWEI HAN等: ""CNNs-Based RGB-D Saliency Detection via Cross-View Transfer and Multiview Fusion"", 《IEEE》 * |
TSUNG-YI LIN,AT EL.: ""Feature Pyramid Networks for Object Detection"", 《ARXIV》 * |
蔡佳丽: ""基于显著性的运动目标检测技术研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111832592A (zh) * | 2019-04-20 | 2020-10-27 | 南开大学 | Rgbd显著性检测方法以及相关装置 |
CN111832592B (zh) * | 2019-04-20 | 2023-10-24 | 南开大学 | Rgbd显著性检测方法以及相关装置 |
CN110111289A (zh) * | 2019-04-28 | 2019-08-09 | 深圳市商汤科技有限公司 | 一种图像处理方法及装置 |
CN113808061A (zh) * | 2019-04-28 | 2021-12-17 | 深圳市商汤科技有限公司 | 一种图像处理方法及装置 |
CN113808062A (zh) * | 2019-04-28 | 2021-12-17 | 深圳市商汤科技有限公司 | 一种图像处理方法及装置 |
CN110263813A (zh) * | 2019-05-27 | 2019-09-20 | 浙江科技学院 | 一种基于残差网络和深度信息融合的显著性检测方法 |
CN110246148A (zh) * | 2019-05-27 | 2019-09-17 | 浙江科技学院 | 多模态的深度信息融合和注意力学习的显著性检测方法 |
CN110263813B (zh) * | 2019-05-27 | 2020-12-01 | 浙江科技学院 | 一种基于残差网络和深度信息融合的显著性检测方法 |
CN110246148B (zh) * | 2019-05-27 | 2021-07-13 | 浙江科技学院 | 多模态的深度信息融合和注意力学习的显著性检测方法 |
CN110232418A (zh) * | 2019-06-19 | 2019-09-13 | 深圳前海达闼云端智能科技有限公司 | 一种语义识别方法、终端及计算机可读存储介质 |
CN110232418B (zh) * | 2019-06-19 | 2021-12-17 | 达闼机器人有限公司 | 一种语义识别方法、终端及计算机可读存储介质 |
CN110223295A (zh) * | 2019-06-21 | 2019-09-10 | 安徽大学 | 基于深度神经网络色彩感知的显著性预测方法及装置 |
CN110458178A (zh) * | 2019-08-12 | 2019-11-15 | 浙江科技学院 | 多模态多拼接的rgb-d显著性目标检测方法 |
CN110458178B (zh) * | 2019-08-12 | 2023-09-22 | 浙江科技学院 | 多模态多拼接的rgb-d显著性目标检测方法 |
CN110781895A (zh) * | 2019-10-10 | 2020-02-11 | 湖北工业大学 | 一种基于卷积神经网络的图像语义分割方法 |
CN110781895B (zh) * | 2019-10-10 | 2023-06-20 | 湖北工业大学 | 一种基于卷积神经网络的图像语义分割方法 |
CN110929736A (zh) * | 2019-11-12 | 2020-03-27 | 浙江科技学院 | 多特征级联rgb-d显著性目标检测方法 |
CN110929736B (zh) * | 2019-11-12 | 2023-05-26 | 浙江科技学院 | 多特征级联rgb-d显著性目标检测方法 |
CN111242173B (zh) * | 2019-12-31 | 2021-03-02 | 四川大学 | 一种基于孪生网络的rgbd显著物体检测方法 |
CN111242173A (zh) * | 2019-12-31 | 2020-06-05 | 四川大学 | 一种基于孪生网络的rgbd显著物体检测方法 |
CN111242138B (zh) * | 2020-01-11 | 2022-04-01 | 杭州电子科技大学 | 一种基于多尺度特征融合的rgbd显著性检测方法 |
CN111242138A (zh) * | 2020-01-11 | 2020-06-05 | 杭州电子科技大学 | 一种基于多尺度特征融合的rgbd显著性检测方法 |
CN111723822B (zh) * | 2020-06-20 | 2022-06-14 | 福州大学 | 一种基于多层次融合的rgbd图像显著性检测方法及系统 |
CN111723822A (zh) * | 2020-06-20 | 2020-09-29 | 福州大学 | 一种基于多层次融合的rgbd图像显著性检测方法及系统 |
CN113298154A (zh) * | 2021-05-27 | 2021-08-24 | 安徽大学 | 一种rgb-d图像显著目标检测方法 |
CN113298154B (zh) * | 2021-05-27 | 2022-11-11 | 安徽大学 | 一种rgb-d图像显著目标检测方法 |
CN113627367A (zh) * | 2021-08-16 | 2021-11-09 | 电子科技大学 | 一种基于多维信息聚合的立体视频显著性检测方法 |
CN113627367B (zh) * | 2021-08-16 | 2023-04-07 | 电子科技大学 | 一种基于多维信息聚合的立体视频显著性检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109409435B (zh) | 2022-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109409435A (zh) | 一种基于卷积神经网络的深度感知显著性检测方法 | |
CN106504064A (zh) | 基于深度卷积神经网络的服装分类与搭配推荐方法及系统 | |
CN107220657B (zh) | 一种面向小数据集的高分辨率遥感影像场景分类的方法 | |
CN110378985B (zh) | 一种基于gan的动漫绘画辅助创作方法 | |
CN111625608B (zh) | 一种基于gan模型根据遥感影像生成电子地图的方法、系统 | |
CN107392925A (zh) | 基于超像素编码和卷积神经网络的遥感影像地物分类方法 | |
CN103208001B (zh) | 结合形状自适应邻域和纹理特征提取的遥感图像处理方法 | |
CN111242841B (zh) | 一种基于语义分割和深度学习的图片背景风格迁移方法 | |
CN110472627A (zh) | 一种端到端的sar图像识别方法、装置及存储介质 | |
CN103810504B (zh) | 一种图像处理方法和装置 | |
CN108399362A (zh) | 一种快速行人检测方法及装置 | |
CN106096542B (zh) | 基于距离预测信息的图像视频场景识别方法 | |
CN105303195B (zh) | 一种词袋图像分类方法 | |
CN106462771A (zh) | 一种3d图像的显著性检测方法 | |
CN108537239A (zh) | 一种图像显著性目标检测的方法 | |
CN106897673A (zh) | 一种基于retinex算法和卷积神经网络的行人再识别方法 | |
CN108345850A (zh) | 基于超像素的笔画特征变换和深度学习的区域分类的场景文本检测方法 | |
CN109086668A (zh) | 基于多尺度生成对抗网络的无人机遥感影像道路信息提取方法 | |
CN103714181B (zh) | 一种层级化的特定人物检索方法 | |
CN108345892A (zh) | 一种立体图像显著性的检测方法、装置、设备及存储介质 | |
CN108734710A (zh) | 一种智能果蔬挑选方法 | |
CN105787490A (zh) | 基于深度学习的商品潮流识别方法及装置 | |
CN109800817A (zh) | 基于融合语义神经网络的图像分类方法 | |
CN104298974A (zh) | 一种基于深度视频序列的人体行为识别方法 | |
Semmo et al. | Image stylization by oil paint filtering using color palettes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |