CN109598268A - 一种基于单流深度网络的rgb-d显著目标检测方法 - Google Patents
一种基于单流深度网络的rgb-d显著目标检测方法 Download PDFInfo
- Publication number
- CN109598268A CN109598268A CN201811403402.0A CN201811403402A CN109598268A CN 109598268 A CN109598268 A CN 109598268A CN 201811403402 A CN201811403402 A CN 201811403402A CN 109598268 A CN109598268 A CN 109598268A
- Authority
- CN
- China
- Prior art keywords
- network
- rgb
- depth
- well
- single flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 40
- 125000004122 cyclic group Chemical group 0.000 claims abstract description 12
- 238000005457 optimization Methods 0.000 claims abstract description 5
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 33
- 238000000034 method Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 10
- 230000005284 excitation Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 238000004880 explosion Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于单流深度网络的RGB‑D显著目标检测方法,包括以下步骤:S1、将RGB图像和Depth图像作为单流深度网络的四通道输入;S2、将VGG16作为基础网络,利用Conv5_3提取图像的高维特征,对高维特征进行操作,经过卷积、反卷积和卷积得到初始显著图;S3、将初始显著图,以及Depth数据作为DRCNN循环卷积结构的输入;DRCNN通过级联的方式,一步一步优化显著结果,详细描绘显著目标的边缘信息;最后连接一个权值融合层,通过自动学习权值,将显著结果融合得到最终显著图。本发明利用循环卷积神经网络,从低层向高层产生多级别特征,同时,从高层向低层逐步细化目标轮廓,借助RGB‑D图像所特有的Depth深度信息,可解决单靠颜色无法还原的目标轮廓的问题。
Description
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于单流深度网络的RGB-D显著目标检测方法。
背景技术
近年来计算机视觉中的显著目标检测越来越吸引人们的关注。显著目标检测多用在图像分割、目标识别、视频跟踪、图像分类、图像压缩等工作中,属于计算机视觉中的基础研究工作。深度学习是近10年来人工智能领域取得的最重要的突破之一,在语音识别、自然语言处理、计算机视觉、多媒体等诸多领域都取得了巨大成功,其中卷积神经网络因其结构特殊性尤其适用于图像处理领域。研究人员也提出了很多有关显著目标检测的深度学习算法。
2016年Qu等人在论文RGBD Salient Object Detection via Deep Fusion中提出CNN网络。将RGB图与Depth图作为输入,用SLIC超像素分割生成超像素块,计算每个超像素的基于颜色和深度显著特征向量。然后作为CNN网络模型的输入,进行LaplacianPropagation得到最终的显著图。
由于图像的RGB数据提供了外观和纹理信息,对光线变化的敏感性。而Depth数据,即从图像采集器到场景中各点的距离(深度)的像素值图像,具备更多的形状信息,清晰的边缘,且对变化的光照条件具有鲁棒性。图像的RGB数据和Depth数据具备互补性和独立性,在大量具有挑战性的场景中,若显著物体和背景区域外观过于相似以至于无法区分,Depth数据信息能够帮助RGB数据进行处理。如果不能同时考虑到RGB数据和Depth数据的互补性和独立性,Depth信息可能会对显著性检测结果产生干扰。
2017年Chen等人在论文RGB-D Saliency Detection by Multi-stream LateFusion Network中提出双流网络,认为RGB数据和Depth数据具备独立性,应作为两个独立的输入,考虑到其互补性,再将两个网络输出的显著图进行融合得到最终的显著图。但基于低维特征具备较多空间信息,而高维特征具备全局特征,直接将两个网络高层输出结果融合将会产生误差。
据此,目前急需一种显著目标检测准确率高的基于单流深度网络的RGB-D显著目标检测方法。
发明内容
本发明所要解决的技术问题在于提供一种显著目标检测准确率高的基于单流深度网络的RGB-D显著目标检测方法。
本发明采用以下技术方案解决上述技术问题:
一种基于单流深度网络的RGB-D显著目标检测方法,该方法包括以下步骤:
S1、将RGB图像和Depth图像作为单流深度网络的四通道输入;
S2、将VGG16作为基础网络,利用Conv5_3提取图像的高维特征,对高维特征进行操作,经过卷积、反卷积和卷积得到初始显著图;
S3、将初始显著图,以及Depth数据作为DRCNN循环卷积结构的输入;DRCNN通过级联的方式,一步一步优化显著结果,详细描绘显著目标的边缘信息;最后连接一个权值融合层,通过自动学习权值,将显著结果融合得到最终显著图。
作为本发明的优选方式之一,在所述步骤S3中:所述DRCNN的输入有4个,分别为上一个DRCNN的输出结果、本层的特征、初始显著图以及Depth深度信息,其核心是循环卷积层RCL,在RCL的第k个特征图的第(i,j)个单元上,它在步骤t的网络输入zijk(t)表示为:
其中和分别为前一层的前馈输入以及当前层在时间步长为t-1的循环输入,和分别表示为前馈权值和循环权值,为偏置,为第m+1个侧边输出的显著结果,为初始显著图,d表示初始Depth深度图,C表示卷积操作,⊕表示联结操作,函数表示去除重复的输入,用在Conv5_3的侧边输出的DRCNN中,因为这一层的与是相同的,通过该函数去除重复输入;
网络输入的激励函数表示为:
xijk m(t)=g(f(zijk m(t))) (3);
其中f为修正线性单元ReLU,具体定义为:
f(zijk m(t))=max(zijk m(t),0) (4);
其中g为局部响应归一化操作,目的是为了防止状态爆炸,定义为:
其中f(zijk m(t))简写为fijk m(t),K为特征图总数,N为关联归一化的局部邻居特征图的数目,α和β控制归一化的振幅;最终显著图的定义为:
pm=σ(c(g)) (6);
其中σ为激励函数,g为g(fijk m(t))的简写。
作为本发明的优选方式之一,在所述步骤S2中:由损失函数计算损失,调整网络参数,通过多次迭代形成稳定的网络结构。
作为本发明的优选方式之一,所述损失函数为SigmoidCrossEntropyLoss。
作为本发明的优选方式之一,所述网络结构包含五个侧边输出子网络和一个直接输出子网络。
作为本发明的优选方式之一,所述网络结构的具体训练过程为:在训练中,T={(Xn,Yn),n=1,2,...,N}为训练数据集,作为输入,Xn对应的真值图为在实验中,W为基础网络VGG16层的参数,M=6为侧边输出的数量;每一个侧边输出子网络对应一个显著输出结果,对应的权值定义为:
w=(w1,w2,...,wM) (7);
对每一个训练集输入和真值图的所有像素使用交叉熵损失来计算损失函数,对第m阶段的预测,损失函数的定义为:
其中,Pr(yi=1|X;W,wm)为在第m个侧边输出的第i个位置的像素属于前景的概率;对最后的权值融合层的损失函数定义为:
Lfuse(W,w,wf)=-∑i∈YyilogPr(yi=1|X;W,w,wf)+(1-yi)logPr(yi=0|X;W,w,wf)(9);其中,wf为权值融合层过滤器参数;所有预测的联合损失函数定义为:
其中,δf和δm表示为平衡每个损失项的损失权值,计算所有损失函数后,最小化目标损失函数定义为:
(W,w,wf)*=argmin(L(W,w,wf)) (11)。
本发明相比现有技术的优点在于:1、本发明一种基于单流深度网络的RGB-D显著目标检测方法,利用循环卷积神经网络,从低层向高层产生多级别特征,同时,从高层向低层逐步细化目标轮廓,借助RGB-D图像所特有的Depth深度信息,可解决单靠颜色无法还原的目标轮廓的问题;2、本发明一种基于单流深度网络的RGB-D显著目标检测方法,机器人在实现目标定位过程中,利用RGB-D图像先获取显著目标,借助Depth深度信息,去除光照影响,再完成视觉任务,可解决视觉任务受光照、复杂背景干扰的问题,提高目标定位的准确率;3、本发明一种基于单流深度网络的RGB-D显著目标检测方法,通过图像库测试对比证明了其有效性以及在效果上明显的优势。
附图说明
图1是实施例1中基于单流深度网络的RGB-D显著目标检测方法流程图;
图2是实施例1中基于单流深度网络的RGB-D显著目标检测算法流程图;
图3是实施例1中基于单流深度网络的RGB-D显著目标检测方法中优化显著图的DRCNN网络示意图;
图4是实施例1中基于单流深度网络的RGB-D显著目标检测方法与现有方法在数据集NLPR1000上的显著性检测结果PR曲线对比图;
图5是实施例1中基于单流深度网络的RGB-D显著目标检测方法与现有方法在数据集NJU2000上的显著性检测结果PR曲线对比图;
图6是实施例1中基于单流深度网络的RGB-D显著目标检测方法与现有方法在数据集NLPR1000上的显著性检测结果评估指标直方图的对比图;
图7是实施例1中基于单流深度网络的RGB-D显著目标检测方法与现有方法在数据集NJU2000上的显著性检测结果评估指标直方图的对比图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本发明为克服处理RGB数据及Depth数据未恰当考虑两者的独立性和互补性而对显著性目标检测带来的误差问题,提供一种基于单流深度网络的RGB-D显著目标检测方法;所述单流是指一个同时处理RGB数据和Depth数据的网络结构;将VGG16作为基础网络,利用Conv5_3提取图像的高维特征,对高维特征进行操作,经过卷积、反卷积和卷积得到初始显著图,由于初始显著图只能大致定位显著目标的位置,而忽略目标的边缘结构信息,提出一个DRCNN循环卷积结构,通过级联的方式,一步一步优化显著结果,详细描绘显著目标的边缘信息。最后设计了一个权值融合层,通过自动学习权值,将显著结果融合得到最终的显著图。
实施例1
基于以上设计思路与理论,参见图1-2:本实施例的一种基于单流深度网络的RGB-D显著目标检测方法,该方法包括以下步骤:
S1、将RGB图像和Depth图像作为单流深度网络的四通道输入;
S2、将VGG16作为基础网络,利用Conv5_3提取图像的高维特征,对高维特征进行操作,经过卷积、反卷积和卷积得到初始显著图;
S3、将初始显著图,以及Depth数据作为DRCNN循环卷积结构的输入;DRCNN通过级联的方式,一步一步优化显著结果,详细描绘显著目标的边缘信息;最后连接一个权值融合层,通过自动学习权值,将显著结果融合得到最终显著图;其中DRCNN如图3所示;所述DRCNN的输入有4个,分别为上一个DRCNN的输出结果、本层的特征、初始显著图以及Depth深度信息,其核心是循环卷积层RCL,在RCL的第k个特征图的第(i,j)个单元上,它在步骤t的网络输入zijk(t)表示为:
其中和分别为前一层的前馈输入以及当前层在时间步长为t-1的循环输入,和分别表示为前馈权值和循环权值,为偏置,为第m+1个侧边输出的显著结果,为初始显著图,d表示初始Depth深度图,C表示卷积操作,⊕表示联结操作,函数表示去除重复的输入,用在Conv5_3的侧边输出的DRCNN中,因为这一层的与是相同的,通过该函数去除重复输入;
网络输入的激励函数表示为:
xijk m(t)=g(f(zijk m(t))) (3);
其中f为修正线性单元ReLU,具体定义为:
f(zijk m(t))=max(zijk m(t),0) (4);
其中g为局部响应归一化操作,目的是为了防止状态爆炸,定义为:
其中f(zijk m(t))简写为fijk m(t),K为特征图总数,N为关联归一化的局部邻居特征图的数目,α和β控制归一化的振幅;最终显著图的定义为:
pm=σ(c(g)) (6);
其中σ为激励函数,g为g(fijk m(t))的简写;
本实施例一种基于单流深度网络的RGB-D显著目标检测方法,利用循环卷积神经网络,从低层向高层产生多级别特征,同时,从高层向低层逐步细化目标轮廓,借助RGB-D图像所特有的Depth深度信息,可解决单靠颜色无法还原的目标轮廓的问题。
作为本发明的优选方式之一,在所述步骤S2中:由损失函数计算损失,调整网络参数,通过多次迭代形成稳定的网络结构,所述损失函数为SigmoidCrossEntropyLoss。
如图2所示,所述网络结构包含五个侧边输出子网络和一个直接输出子网络,所述网络结构的具体训练过程为:在训练中,T={(Xn,Yn),n=1,2,...,N}为训练数据集,作为输入,Xn对应的真值图为在实验中,W为基础网络VGG16层的参数,M=6为侧边输出的数量;每一个侧边输出子网络对应一个显著输出结果,对应的权值定义为:
w=(w1,w2,...,wM) (7);
对每一个训练集输入和真值图的所有像素使用交叉熵损失来计算损失函数,对第m阶段的预测,损失函数的定义为:
其中,Pr(yi=1|X;W,wm)为在第m个侧边输出的第i个位置的像素属于前景的概率;对最后的权值融合层的损失函数定义为:
Lfuse(W,w,wf)=-∑i∈YyilogPr(yi=1|X;W,w,wf)+(1-yi)logPr(yi=0|X;W,w,wf)(9);其中,wf为权值融合层过滤器参数;所有预测的联合损失函数定义为:
其中,δf和δm表示为平衡每个损失项的损失权值,计算所有损失函数后,最小化目标损失函数定义为:
(W,w,wf)*=argmin(L(W,w,wf)) (11);
本实施例的一种基于单流深度网络的RGB-D显著目标检测方法,机器人在实现目标定位过程中,利用RGB-D图像先获取显著目标,借助Depth深度信息,去除光照影响,再完成视觉任务,可解决视觉任务受光照、复杂背景干扰的问题,提高目标定位的准确率。
本实施例一种基于基于单流深度网络的RGB-D显著目标检测方法,利用循环卷积神经网络,从低层向高层产生多级别特征,同时,从高层向低层逐步细化目标轮廓,借助RGB-D图像所特有的Depth深度信息,提高显著目标检测的准确率。通过在数据集NLPR1000,NJU2000上进行显著性检测,检测结果PR曲线比较如图4,图5所示,评估指标直方图比较如图6,图7所示,取得很好的检测效果,由此可见,本发明一种基于单流深度网络的RGB-D显著目标检测方法,通过图像库测试对比证明了其有效性以及在效果上明显的优势。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于单流深度网络的RGB-D显著目标检测方法,其特征在于,该方法包括以下步骤:
S1、将RGB图像和Depth图像作为单流深度网络的四通道输入;
S2、将VGG16作为基础网络,利用Conv5_3提取图像的高维特征,对高维特征进行操作,经过卷积、反卷积和卷积得到初始显著图;
S3、将初始显著图,以及Depth数据作为DRCNN循环卷积结构的输入;DRCNN通过级联的方式,一步一步优化显著结果,详细描绘显著目标的边缘信息;最后连接一个权值融合层,通过自动学习权值,将显著结果融合得到最终显著图。
2.根据权利要求1所述的基于单流深度网络的RGB-D显著目标检测方法,其特征在于,在所述步骤S3中:所述DRCNN的输入有4个,分别为上一个DRCNN的输出结果、本层的特征、初始显著图以及Depth深度信息,其核心是循环卷积层RCL,在RCL的第k个特征图的第(i,j)个单元上,它在步骤t的网络输入zijk(t)表示为:
其中和分别为前一层的前馈输入以及当前层在时间步长为t-1的循环输入,和分别表示为前馈权值和循环权值,为偏置,为第m+1个侧边输出的显著结果,为初始显著图,d表示初始Depth深度图,C表示卷积操作,表示联结操作,函数表示去除重复的输入,用在Conv5_3的侧边输出的DRCNN中,因为这一层的与是相同的,通过该函数去除重复输入;
网络输入的激励函数表示为:
xijk m(t)=g(f(zijk m(t))) (3);
其中f为修正线性单元ReLU,具体定义为:
f(zijk m(t))=max(zijk m(t),0) (4);
其中g为局部响应归一化操作,目的是为了防止状态爆炸,定义为:
其中f(zijk m(t))简写为fijk m(t),K为特征图总数,N为关联归一化的局部邻居特征图的数目,α和β控制归一化的振幅;最终显著图的定义为:
pm=σ(c(g)) (6);
其中σ为激励函数,g为g(fijk m(t))的简写。
3.根据权利要求1所述的基于单流深度网络的RGB-D显著目标检测方法,其特征在于,在所述步骤S2中:由损失函数计算损失,调整网络参数,通过多次迭代形成稳定的网络结构。
4.根据权利要求3所述的基于单流深度网络的RGB-D显著目标检测方法,其特征在于,所述损失函数为SigmoidCrossEntropyLoss。
5.根据权利要求3所述的基于单流深度网络的RGB-D显著目标检测方法,其特征在于,所述网络结构包含五个侧边输出子网络和一个直接输出子网络。
6.根据权利要求3所述的基于单流深度网络的RGB-D显著目标检测方法,其特征在于,所述网络结构的具体训练过程为:在训练中,T={(Xn,Yn),n=1,2,...,N}为训练数据集,作为输入,Xn对应的真值图为在实验中,W为基础网络VGG16层的参数,M=6为侧边输出的数量;每一个侧边输出子网络对应一个显著输出结果,对应的权值定义为:
w=(w1,w2,...,wM) (7);
对每一个训练集输入和真值图的所有像素使用交叉熵损失来计算损失函数,对第m阶段的预测,损失函数的定义为:
其中,Pr(yi=1|X;W,wm)为在第m个侧边输出的第i个位置的像素属于前景的概率;对最后的权值融合层的损失函数定义为:
Lfuse(W,w,wf)=-∑i∈YyilogPr(yi=1|X;W,w,wf)+(1-yi)logPr(yi=0|X;W,w,wf)(9);其中,wf为权值融合层过滤器参数;所有预测的联合损失函数定义为:
其中,δf和δm表示为平衡每个损失项的损失权值,计算所有损失函数后,最小化目标损失函数定义为:
(W,w,wf)*=argmin(L(W,w,wf)) (11)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811403402.0A CN109598268B (zh) | 2018-11-23 | 2018-11-23 | 一种基于单流深度网络的rgb-d显著目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811403402.0A CN109598268B (zh) | 2018-11-23 | 2018-11-23 | 一种基于单流深度网络的rgb-d显著目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109598268A true CN109598268A (zh) | 2019-04-09 |
CN109598268B CN109598268B (zh) | 2021-08-17 |
Family
ID=65960190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811403402.0A Active CN109598268B (zh) | 2018-11-23 | 2018-11-23 | 一种基于单流深度网络的rgb-d显著目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109598268B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175986A (zh) * | 2019-04-23 | 2019-08-27 | 浙江科技学院 | 一种基于卷积神经网络的立体图像视觉显著性检测方法 |
CN110210492A (zh) * | 2019-04-28 | 2019-09-06 | 浙江科技学院 | 一种基于深度学习的立体图像视觉显著性检测方法 |
CN110210539A (zh) * | 2019-05-22 | 2019-09-06 | 西安电子科技大学 | 多级深度特征融合的rgb-t图像显著性目标检测方法 |
CN110263813A (zh) * | 2019-05-27 | 2019-09-20 | 浙江科技学院 | 一种基于残差网络和深度信息融合的显著性检测方法 |
CN110458797A (zh) * | 2019-06-18 | 2019-11-15 | 南开大学 | 一种基于深度图过滤器的显著性物体检测方法 |
CN110458178A (zh) * | 2019-08-12 | 2019-11-15 | 浙江科技学院 | 多模态多拼接的rgb-d显著性目标检测方法 |
CN111191650A (zh) * | 2019-12-30 | 2020-05-22 | 北京市新技术应用研究所 | 基于rgb-d图像视觉显著性的物品定位方法与系统 |
CN111242238A (zh) * | 2020-01-21 | 2020-06-05 | 北京交通大学 | 一种rgb-d图像显著性目标获取的方法 |
CN111242173A (zh) * | 2019-12-31 | 2020-06-05 | 四川大学 | 一种基于孪生网络的rgbd显著物体检测方法 |
CN111428602A (zh) * | 2020-03-18 | 2020-07-17 | 浙江科技学院 | 卷积神经网络边缘辅助增强的双目显著性图像检测方法 |
CN111832592A (zh) * | 2019-04-20 | 2020-10-27 | 南开大学 | Rgbd显著性检测方法以及相关装置 |
CN111881804A (zh) * | 2020-07-22 | 2020-11-03 | 汇纳科技股份有限公司 | 基于联合训练的姿态估计模型训练方法、系统、介质及终端 |
CN112508812A (zh) * | 2020-12-01 | 2021-03-16 | 厦门美图之家科技有限公司 | 图像色偏校正方法、模型训练方法、装置及设备 |
CN113298154A (zh) * | 2021-05-27 | 2021-08-24 | 安徽大学 | 一种rgb-d图像显著目标检测方法 |
CN113822855A (zh) * | 2021-08-11 | 2021-12-21 | 安徽大学 | 一种独立解码和联合解码相结合的rgb-t图像显著目标检测方法 |
CN114913338A (zh) * | 2022-04-19 | 2022-08-16 | 支付宝(杭州)信息技术有限公司 | 分割模型的训练方法及装置、图像识别方法及装置 |
CN115019022A (zh) * | 2022-05-30 | 2022-09-06 | 电子科技大学 | 一种基于双深度融合网络的轮廓检测方法 |
CN115082553A (zh) * | 2022-08-23 | 2022-09-20 | 青岛云智聚智能科技有限公司 | 一种物流包裹位置检测方法及系统 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020647A (zh) * | 2013-01-08 | 2013-04-03 | 西安电子科技大学 | 基于级联的sift特征和稀疏编码的图像分类方法 |
CN103955718A (zh) * | 2014-05-15 | 2014-07-30 | 厦门美图之家科技有限公司 | 一种图像主体对象的识别方法 |
CN103971116A (zh) * | 2014-04-24 | 2014-08-06 | 西北工业大学 | 基于Kinect的感兴趣区域检测方法 |
CN104408692A (zh) * | 2014-11-25 | 2015-03-11 | 南京信息工程大学 | 一种基于深度学习的图像模糊模型参数分析方法 |
CN104978738A (zh) * | 2014-04-09 | 2015-10-14 | 鹦鹉股份有限公司 | 检测数字图像中的兴趣点的方法 |
CN105224942A (zh) * | 2015-07-09 | 2016-01-06 | 华南农业大学 | 一种rgb-d图像分类方法及系统 |
CN105590319A (zh) * | 2015-12-18 | 2016-05-18 | 华南理工大学 | 一种深度学习的图像显著性区域检测方法 |
CN106599827A (zh) * | 2016-12-09 | 2017-04-26 | 浙江工商大学 | 一种基于深度卷积神经网络的小目标快速检测方法 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN107085848A (zh) * | 2017-04-20 | 2017-08-22 | 安徽大学 | 一种rgb‑d图显著性的检测方法 |
CN107423747A (zh) * | 2017-04-13 | 2017-12-01 | 中国人民解放军国防科学技术大学 | 一种基于深度卷积网络的显著性目标检测方法 |
CN105528638B (zh) * | 2016-01-22 | 2018-04-24 | 沈阳工业大学 | 灰色关联分析法确定卷积神经网络隐层特征图个数的方法 |
US20180150727A1 (en) * | 2016-11-29 | 2018-05-31 | Sap Se | Object Detection in Image Data Using Depth Segmentation |
US20180225527A1 (en) * | 2015-08-03 | 2018-08-09 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, apparatus, storage medium and device for modeling lane line identification, and method, apparatus, storage medium and device for identifying lane line |
CN108596102A (zh) * | 2018-04-26 | 2018-09-28 | 北京航空航天大学青岛研究院 | 基于rgb-d的室内场景物体分割分类器构造方法 |
CN108597009A (zh) * | 2018-04-10 | 2018-09-28 | 上海工程技术大学 | 一种基于方向角信息进行三维目标检测的方法 |
CN108734719A (zh) * | 2017-04-14 | 2018-11-02 | 浙江工商大学 | 一种基于全卷积神经网络的鳞翅目昆虫图像前背景自动分割方法 |
US20180322646A1 (en) * | 2016-01-05 | 2018-11-08 | California Institute Of Technology | Gaussian mixture models for temporal depth fusion |
CN108846416A (zh) * | 2018-05-23 | 2018-11-20 | 北京市新技术应用研究所 | 显著图像的提取处理方法及系统 |
-
2018
- 2018-11-23 CN CN201811403402.0A patent/CN109598268B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020647A (zh) * | 2013-01-08 | 2013-04-03 | 西安电子科技大学 | 基于级联的sift特征和稀疏编码的图像分类方法 |
CN104978738A (zh) * | 2014-04-09 | 2015-10-14 | 鹦鹉股份有限公司 | 检测数字图像中的兴趣点的方法 |
CN103971116A (zh) * | 2014-04-24 | 2014-08-06 | 西北工业大学 | 基于Kinect的感兴趣区域检测方法 |
CN103955718A (zh) * | 2014-05-15 | 2014-07-30 | 厦门美图之家科技有限公司 | 一种图像主体对象的识别方法 |
CN104408692A (zh) * | 2014-11-25 | 2015-03-11 | 南京信息工程大学 | 一种基于深度学习的图像模糊模型参数分析方法 |
CN105224942A (zh) * | 2015-07-09 | 2016-01-06 | 华南农业大学 | 一种rgb-d图像分类方法及系统 |
US20180225527A1 (en) * | 2015-08-03 | 2018-08-09 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, apparatus, storage medium and device for modeling lane line identification, and method, apparatus, storage medium and device for identifying lane line |
CN105590319A (zh) * | 2015-12-18 | 2016-05-18 | 华南理工大学 | 一种深度学习的图像显著性区域检测方法 |
US20180322646A1 (en) * | 2016-01-05 | 2018-11-08 | California Institute Of Technology | Gaussian mixture models for temporal depth fusion |
CN105528638B (zh) * | 2016-01-22 | 2018-04-24 | 沈阳工业大学 | 灰色关联分析法确定卷积神经网络隐层特征图个数的方法 |
US20180150727A1 (en) * | 2016-11-29 | 2018-05-31 | Sap Se | Object Detection in Image Data Using Depth Segmentation |
CN106599827A (zh) * | 2016-12-09 | 2017-04-26 | 浙江工商大学 | 一种基于深度卷积神经网络的小目标快速检测方法 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN107423747A (zh) * | 2017-04-13 | 2017-12-01 | 中国人民解放军国防科学技术大学 | 一种基于深度卷积网络的显著性目标检测方法 |
CN108734719A (zh) * | 2017-04-14 | 2018-11-02 | 浙江工商大学 | 一种基于全卷积神经网络的鳞翅目昆虫图像前背景自动分割方法 |
CN107085848A (zh) * | 2017-04-20 | 2017-08-22 | 安徽大学 | 一种rgb‑d图显著性的检测方法 |
CN108597009A (zh) * | 2018-04-10 | 2018-09-28 | 上海工程技术大学 | 一种基于方向角信息进行三维目标检测的方法 |
CN108596102A (zh) * | 2018-04-26 | 2018-09-28 | 北京航空航天大学青岛研究院 | 基于rgb-d的室内场景物体分割分类器构造方法 |
CN108846416A (zh) * | 2018-05-23 | 2018-11-20 | 北京市新技术应用研究所 | 显著图像的提取处理方法及系统 |
Non-Patent Citations (2)
Title |
---|
DAVID FENG 等: "Local Background Enclosure for RGB-D Salient Object Detection", 《CVPR》 * |
MING LIANG 等: "Recurrent convolutional neural network for object recognition", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111832592A (zh) * | 2019-04-20 | 2020-10-27 | 南开大学 | Rgbd显著性检测方法以及相关装置 |
CN111832592B (zh) * | 2019-04-20 | 2023-10-24 | 南开大学 | Rgbd显著性检测方法以及相关装置 |
CN110175986B (zh) * | 2019-04-23 | 2021-01-08 | 浙江科技学院 | 一种基于卷积神经网络的立体图像视觉显著性检测方法 |
CN110175986A (zh) * | 2019-04-23 | 2019-08-27 | 浙江科技学院 | 一种基于卷积神经网络的立体图像视觉显著性检测方法 |
CN110210492A (zh) * | 2019-04-28 | 2019-09-06 | 浙江科技学院 | 一种基于深度学习的立体图像视觉显著性检测方法 |
CN110210492B (zh) * | 2019-04-28 | 2020-12-01 | 浙江科技学院 | 一种基于深度学习的立体图像视觉显著性检测方法 |
CN110210539A (zh) * | 2019-05-22 | 2019-09-06 | 西安电子科技大学 | 多级深度特征融合的rgb-t图像显著性目标检测方法 |
CN110210539B (zh) * | 2019-05-22 | 2022-12-30 | 西安电子科技大学 | 多级深度特征融合的rgb-t图像显著性目标检测方法 |
CN110263813A (zh) * | 2019-05-27 | 2019-09-20 | 浙江科技学院 | 一种基于残差网络和深度信息融合的显著性检测方法 |
CN110263813B (zh) * | 2019-05-27 | 2020-12-01 | 浙江科技学院 | 一种基于残差网络和深度信息融合的显著性检测方法 |
CN110458797A (zh) * | 2019-06-18 | 2019-11-15 | 南开大学 | 一种基于深度图过滤器的显著性物体检测方法 |
CN110458178B (zh) * | 2019-08-12 | 2023-09-22 | 浙江科技学院 | 多模态多拼接的rgb-d显著性目标检测方法 |
CN110458178A (zh) * | 2019-08-12 | 2019-11-15 | 浙江科技学院 | 多模态多拼接的rgb-d显著性目标检测方法 |
CN111191650A (zh) * | 2019-12-30 | 2020-05-22 | 北京市新技术应用研究所 | 基于rgb-d图像视觉显著性的物品定位方法与系统 |
CN111191650B (zh) * | 2019-12-30 | 2023-07-21 | 北京市新技术应用研究所 | 基于rgb-d图像视觉显著性的物品定位方法与系统 |
CN111242173A (zh) * | 2019-12-31 | 2020-06-05 | 四川大学 | 一种基于孪生网络的rgbd显著物体检测方法 |
CN111242238A (zh) * | 2020-01-21 | 2020-06-05 | 北京交通大学 | 一种rgb-d图像显著性目标获取的方法 |
CN111242238B (zh) * | 2020-01-21 | 2023-12-26 | 北京交通大学 | 一种rgb-d图像显著性目标获取的方法 |
CN111428602A (zh) * | 2020-03-18 | 2020-07-17 | 浙江科技学院 | 卷积神经网络边缘辅助增强的双目显著性图像检测方法 |
CN111881804B (zh) * | 2020-07-22 | 2023-07-28 | 汇纳科技股份有限公司 | 基于联合训练的姿态估计模型训练方法、系统、介质及终端 |
CN111881804A (zh) * | 2020-07-22 | 2020-11-03 | 汇纳科技股份有限公司 | 基于联合训练的姿态估计模型训练方法、系统、介质及终端 |
CN112508812A (zh) * | 2020-12-01 | 2021-03-16 | 厦门美图之家科技有限公司 | 图像色偏校正方法、模型训练方法、装置及设备 |
CN113298154A (zh) * | 2021-05-27 | 2021-08-24 | 安徽大学 | 一种rgb-d图像显著目标检测方法 |
CN113298154B (zh) * | 2021-05-27 | 2022-11-11 | 安徽大学 | 一种rgb-d图像显著目标检测方法 |
CN113822855A (zh) * | 2021-08-11 | 2021-12-21 | 安徽大学 | 一种独立解码和联合解码相结合的rgb-t图像显著目标检测方法 |
CN114913338A (zh) * | 2022-04-19 | 2022-08-16 | 支付宝(杭州)信息技术有限公司 | 分割模型的训练方法及装置、图像识别方法及装置 |
CN114913338B (zh) * | 2022-04-19 | 2024-06-14 | 支付宝(杭州)信息技术有限公司 | 分割模型的训练方法及装置、图像识别方法及装置 |
CN115019022A (zh) * | 2022-05-30 | 2022-09-06 | 电子科技大学 | 一种基于双深度融合网络的轮廓检测方法 |
CN115019022B (zh) * | 2022-05-30 | 2024-04-30 | 电子科技大学 | 一种基于双深度融合网络的轮廓检测方法 |
CN115082553A (zh) * | 2022-08-23 | 2022-09-20 | 青岛云智聚智能科技有限公司 | 一种物流包裹位置检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109598268B (zh) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109598268A (zh) | 一种基于单流深度网络的rgb-d显著目标检测方法 | |
CN110163110B (zh) | 一种基于迁移学习和深度特征融合的行人重识别方法 | |
CN111709311A (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN109063649B (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN112434599B (zh) | 一种基于噪声通道的随机遮挡恢复的行人重识别方法 | |
CN111666843A (zh) | 一种基于全局特征和局部特征拼接的行人重识别方法 | |
CN111460914A (zh) | 一种基于全局和局部细粒度特征的行人重识别方法 | |
CN109002755B (zh) | 基于人脸图像的年龄估计模型构建方法及估计方法 | |
CN110674874A (zh) | 基于目标精细组件检测的细粒度图像识别方法 | |
CN113920472B (zh) | 一种基于注意力机制的无监督目标重识别方法及系统 | |
CN104504395A (zh) | 基于神经网络实现人车分类的方法和系统 | |
CN110909741A (zh) | 一种基于背景分割的车辆再识别方法 | |
CN113763417B (zh) | 一种基于孪生网络和残差结构的目标跟踪方法 | |
CN113159043A (zh) | 基于语义信息的特征点匹配方法及系统 | |
CN114782977B (zh) | 一种基于拓扑信息和亲和度信息引导行人重识别方法 | |
CN112329771B (zh) | 一种基于深度学习的建筑材料样本识别方法 | |
CN106874825A (zh) | 人脸检测的训练方法、检测方法和装置 | |
CN111709317A (zh) | 一种基于显著性模型下多尺度特征的行人重识别方法 | |
CN114495170A (zh) | 一种基于局部抑制自注意力的行人重识别方法及系统 | |
CN111126155B (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 | |
CN115661754A (zh) | 一种基于维度融合注意力的行人重识别方法 | |
CN112347967A (zh) | 一种复杂场景下融合运动信息的行人检测方法 | |
Rao et al. | Roads detection of aerial image with FCN-CRF model | |
CN116824330A (zh) | 一种基于深度学习的小样本跨域目标检测方法 | |
Li et al. | A new algorithm of vehicle license plate location based on convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |