CN109598268A - 一种基于单流深度网络的rgb-d显著目标检测方法 - Google Patents

一种基于单流深度网络的rgb-d显著目标检测方法 Download PDF

Info

Publication number
CN109598268A
CN109598268A CN201811403402.0A CN201811403402A CN109598268A CN 109598268 A CN109598268 A CN 109598268A CN 201811403402 A CN201811403402 A CN 201811403402A CN 109598268 A CN109598268 A CN 109598268A
Authority
CN
China
Prior art keywords
network
rgb
depth
well
single flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811403402.0A
Other languages
English (en)
Other versions
CN109598268B (zh
Inventor
刘政怡
段群涛
石松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN201811403402.0A priority Critical patent/CN109598268B/zh
Publication of CN109598268A publication Critical patent/CN109598268A/zh
Application granted granted Critical
Publication of CN109598268B publication Critical patent/CN109598268B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于单流深度网络的RGB‑D显著目标检测方法,包括以下步骤:S1、将RGB图像和Depth图像作为单流深度网络的四通道输入;S2、将VGG16作为基础网络,利用Conv5_3提取图像的高维特征,对高维特征进行操作,经过卷积、反卷积和卷积得到初始显著图;S3、将初始显著图,以及Depth数据作为DRCNN循环卷积结构的输入;DRCNN通过级联的方式,一步一步优化显著结果,详细描绘显著目标的边缘信息;最后连接一个权值融合层,通过自动学习权值,将显著结果融合得到最终显著图。本发明利用循环卷积神经网络,从低层向高层产生多级别特征,同时,从高层向低层逐步细化目标轮廓,借助RGB‑D图像所特有的Depth深度信息,可解决单靠颜色无法还原的目标轮廓的问题。

Description

一种基于单流深度网络的RGB-D显著目标检测方法
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于单流深度网络的RGB-D显著目标检测方法。
背景技术
近年来计算机视觉中的显著目标检测越来越吸引人们的关注。显著目标检测多用在图像分割、目标识别、视频跟踪、图像分类、图像压缩等工作中,属于计算机视觉中的基础研究工作。深度学习是近10年来人工智能领域取得的最重要的突破之一,在语音识别、自然语言处理、计算机视觉、多媒体等诸多领域都取得了巨大成功,其中卷积神经网络因其结构特殊性尤其适用于图像处理领域。研究人员也提出了很多有关显著目标检测的深度学习算法。
2016年Qu等人在论文RGBD Salient Object Detection via Deep Fusion中提出CNN网络。将RGB图与Depth图作为输入,用SLIC超像素分割生成超像素块,计算每个超像素的基于颜色和深度显著特征向量。然后作为CNN网络模型的输入,进行LaplacianPropagation得到最终的显著图。
由于图像的RGB数据提供了外观和纹理信息,对光线变化的敏感性。而Depth数据,即从图像采集器到场景中各点的距离(深度)的像素值图像,具备更多的形状信息,清晰的边缘,且对变化的光照条件具有鲁棒性。图像的RGB数据和Depth数据具备互补性和独立性,在大量具有挑战性的场景中,若显著物体和背景区域外观过于相似以至于无法区分,Depth数据信息能够帮助RGB数据进行处理。如果不能同时考虑到RGB数据和Depth数据的互补性和独立性,Depth信息可能会对显著性检测结果产生干扰。
2017年Chen等人在论文RGB-D Saliency Detection by Multi-stream LateFusion Network中提出双流网络,认为RGB数据和Depth数据具备独立性,应作为两个独立的输入,考虑到其互补性,再将两个网络输出的显著图进行融合得到最终的显著图。但基于低维特征具备较多空间信息,而高维特征具备全局特征,直接将两个网络高层输出结果融合将会产生误差。
据此,目前急需一种显著目标检测准确率高的基于单流深度网络的RGB-D显著目标检测方法。
发明内容
本发明所要解决的技术问题在于提供一种显著目标检测准确率高的基于单流深度网络的RGB-D显著目标检测方法。
本发明采用以下技术方案解决上述技术问题:
一种基于单流深度网络的RGB-D显著目标检测方法,该方法包括以下步骤:
S1、将RGB图像和Depth图像作为单流深度网络的四通道输入;
S2、将VGG16作为基础网络,利用Conv5_3提取图像的高维特征,对高维特征进行操作,经过卷积、反卷积和卷积得到初始显著图;
S3、将初始显著图,以及Depth数据作为DRCNN循环卷积结构的输入;DRCNN通过级联的方式,一步一步优化显著结果,详细描绘显著目标的边缘信息;最后连接一个权值融合层,通过自动学习权值,将显著结果融合得到最终显著图。
作为本发明的优选方式之一,在所述步骤S3中:所述DRCNN的输入有4个,分别为上一个DRCNN的输出结果、本层的特征、初始显著图以及Depth深度信息,其核心是循环卷积层RCL,在RCL的第k个特征图的第(i,j)个单元上,它在步骤t的网络输入zijk(t)表示为:
其中分别为前一层的前馈输入以及当前层在时间步长为t-1的循环输入,分别表示为前馈权值和循环权值,为偏置,为第m+1个侧边输出的显著结果,为初始显著图,d表示初始Depth深度图,C表示卷积操作,⊕表示联结操作,函数表示去除重复的输入,用在Conv5_3的侧边输出的DRCNN中,因为这一层的是相同的,通过该函数去除重复输入;
网络输入的激励函数表示为:
xijk m(t)=g(f(zijk m(t))) (3);
其中f为修正线性单元ReLU,具体定义为:
f(zijk m(t))=max(zijk m(t),0) (4);
其中g为局部响应归一化操作,目的是为了防止状态爆炸,定义为:
其中f(zijk m(t))简写为fijk m(t),K为特征图总数,N为关联归一化的局部邻居特征图的数目,α和β控制归一化的振幅;最终显著图的定义为:
pm=σ(c(g)) (6);
其中σ为激励函数,g为g(fijk m(t))的简写。
作为本发明的优选方式之一,在所述步骤S2中:由损失函数计算损失,调整网络参数,通过多次迭代形成稳定的网络结构。
作为本发明的优选方式之一,所述损失函数为SigmoidCrossEntropyLoss。
作为本发明的优选方式之一,所述网络结构包含五个侧边输出子网络和一个直接输出子网络。
作为本发明的优选方式之一,所述网络结构的具体训练过程为:在训练中,T={(Xn,Yn),n=1,2,...,N}为训练数据集,作为输入,Xn对应的真值图为在实验中,W为基础网络VGG16层的参数,M=6为侧边输出的数量;每一个侧边输出子网络对应一个显著输出结果,对应的权值定义为:
w=(w1,w2,...,wM) (7);
对每一个训练集输入和真值图的所有像素使用交叉熵损失来计算损失函数,对第m阶段的预测,损失函数的定义为:
其中,Pr(yi=1|X;W,wm)为在第m个侧边输出的第i个位置的像素属于前景的概率;对最后的权值融合层的损失函数定义为:
Lfuse(W,w,wf)=-∑i∈YyilogPr(yi=1|X;W,w,wf)+(1-yi)logPr(yi=0|X;W,w,wf)(9);其中,wf为权值融合层过滤器参数;所有预测的联合损失函数定义为:
其中,δf和δm表示为平衡每个损失项的损失权值,计算所有损失函数后,最小化目标损失函数定义为:
(W,w,wf)*=argmin(L(W,w,wf)) (11)。
本发明相比现有技术的优点在于:1、本发明一种基于单流深度网络的RGB-D显著目标检测方法,利用循环卷积神经网络,从低层向高层产生多级别特征,同时,从高层向低层逐步细化目标轮廓,借助RGB-D图像所特有的Depth深度信息,可解决单靠颜色无法还原的目标轮廓的问题;2、本发明一种基于单流深度网络的RGB-D显著目标检测方法,机器人在实现目标定位过程中,利用RGB-D图像先获取显著目标,借助Depth深度信息,去除光照影响,再完成视觉任务,可解决视觉任务受光照、复杂背景干扰的问题,提高目标定位的准确率;3、本发明一种基于单流深度网络的RGB-D显著目标检测方法,通过图像库测试对比证明了其有效性以及在效果上明显的优势。
附图说明
图1是实施例1中基于单流深度网络的RGB-D显著目标检测方法流程图;
图2是实施例1中基于单流深度网络的RGB-D显著目标检测算法流程图;
图3是实施例1中基于单流深度网络的RGB-D显著目标检测方法中优化显著图的DRCNN网络示意图;
图4是实施例1中基于单流深度网络的RGB-D显著目标检测方法与现有方法在数据集NLPR1000上的显著性检测结果PR曲线对比图;
图5是实施例1中基于单流深度网络的RGB-D显著目标检测方法与现有方法在数据集NJU2000上的显著性检测结果PR曲线对比图;
图6是实施例1中基于单流深度网络的RGB-D显著目标检测方法与现有方法在数据集NLPR1000上的显著性检测结果评估指标直方图的对比图;
图7是实施例1中基于单流深度网络的RGB-D显著目标检测方法与现有方法在数据集NJU2000上的显著性检测结果评估指标直方图的对比图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本发明为克服处理RGB数据及Depth数据未恰当考虑两者的独立性和互补性而对显著性目标检测带来的误差问题,提供一种基于单流深度网络的RGB-D显著目标检测方法;所述单流是指一个同时处理RGB数据和Depth数据的网络结构;将VGG16作为基础网络,利用Conv5_3提取图像的高维特征,对高维特征进行操作,经过卷积、反卷积和卷积得到初始显著图,由于初始显著图只能大致定位显著目标的位置,而忽略目标的边缘结构信息,提出一个DRCNN循环卷积结构,通过级联的方式,一步一步优化显著结果,详细描绘显著目标的边缘信息。最后设计了一个权值融合层,通过自动学习权值,将显著结果融合得到最终的显著图。
实施例1
基于以上设计思路与理论,参见图1-2:本实施例的一种基于单流深度网络的RGB-D显著目标检测方法,该方法包括以下步骤:
S1、将RGB图像和Depth图像作为单流深度网络的四通道输入;
S2、将VGG16作为基础网络,利用Conv5_3提取图像的高维特征,对高维特征进行操作,经过卷积、反卷积和卷积得到初始显著图;
S3、将初始显著图,以及Depth数据作为DRCNN循环卷积结构的输入;DRCNN通过级联的方式,一步一步优化显著结果,详细描绘显著目标的边缘信息;最后连接一个权值融合层,通过自动学习权值,将显著结果融合得到最终显著图;其中DRCNN如图3所示;所述DRCNN的输入有4个,分别为上一个DRCNN的输出结果、本层的特征、初始显著图以及Depth深度信息,其核心是循环卷积层RCL,在RCL的第k个特征图的第(i,j)个单元上,它在步骤t的网络输入zijk(t)表示为:
其中分别为前一层的前馈输入以及当前层在时间步长为t-1的循环输入,分别表示为前馈权值和循环权值,为偏置,为第m+1个侧边输出的显著结果,为初始显著图,d表示初始Depth深度图,C表示卷积操作,⊕表示联结操作,函数表示去除重复的输入,用在Conv5_3的侧边输出的DRCNN中,因为这一层的是相同的,通过该函数去除重复输入;
网络输入的激励函数表示为:
xijk m(t)=g(f(zijk m(t))) (3);
其中f为修正线性单元ReLU,具体定义为:
f(zijk m(t))=max(zijk m(t),0) (4);
其中g为局部响应归一化操作,目的是为了防止状态爆炸,定义为:
其中f(zijk m(t))简写为fijk m(t),K为特征图总数,N为关联归一化的局部邻居特征图的数目,α和β控制归一化的振幅;最终显著图的定义为:
pm=σ(c(g)) (6);
其中σ为激励函数,g为g(fijk m(t))的简写;
本实施例一种基于单流深度网络的RGB-D显著目标检测方法,利用循环卷积神经网络,从低层向高层产生多级别特征,同时,从高层向低层逐步细化目标轮廓,借助RGB-D图像所特有的Depth深度信息,可解决单靠颜色无法还原的目标轮廓的问题。
作为本发明的优选方式之一,在所述步骤S2中:由损失函数计算损失,调整网络参数,通过多次迭代形成稳定的网络结构,所述损失函数为SigmoidCrossEntropyLoss。
如图2所示,所述网络结构包含五个侧边输出子网络和一个直接输出子网络,所述网络结构的具体训练过程为:在训练中,T={(Xn,Yn),n=1,2,...,N}为训练数据集,作为输入,Xn对应的真值图为在实验中,W为基础网络VGG16层的参数,M=6为侧边输出的数量;每一个侧边输出子网络对应一个显著输出结果,对应的权值定义为:
w=(w1,w2,...,wM) (7);
对每一个训练集输入和真值图的所有像素使用交叉熵损失来计算损失函数,对第m阶段的预测,损失函数的定义为:
其中,Pr(yi=1|X;W,wm)为在第m个侧边输出的第i个位置的像素属于前景的概率;对最后的权值融合层的损失函数定义为:
Lfuse(W,w,wf)=-∑i∈YyilogPr(yi=1|X;W,w,wf)+(1-yi)logPr(yi=0|X;W,w,wf)(9);其中,wf为权值融合层过滤器参数;所有预测的联合损失函数定义为:
其中,δf和δm表示为平衡每个损失项的损失权值,计算所有损失函数后,最小化目标损失函数定义为:
(W,w,wf)*=argmin(L(W,w,wf)) (11);
本实施例的一种基于单流深度网络的RGB-D显著目标检测方法,机器人在实现目标定位过程中,利用RGB-D图像先获取显著目标,借助Depth深度信息,去除光照影响,再完成视觉任务,可解决视觉任务受光照、复杂背景干扰的问题,提高目标定位的准确率。
本实施例一种基于基于单流深度网络的RGB-D显著目标检测方法,利用循环卷积神经网络,从低层向高层产生多级别特征,同时,从高层向低层逐步细化目标轮廓,借助RGB-D图像所特有的Depth深度信息,提高显著目标检测的准确率。通过在数据集NLPR1000,NJU2000上进行显著性检测,检测结果PR曲线比较如图4,图5所示,评估指标直方图比较如图6,图7所示,取得很好的检测效果,由此可见,本发明一种基于单流深度网络的RGB-D显著目标检测方法,通过图像库测试对比证明了其有效性以及在效果上明显的优势。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于单流深度网络的RGB-D显著目标检测方法,其特征在于,该方法包括以下步骤:
S1、将RGB图像和Depth图像作为单流深度网络的四通道输入;
S2、将VGG16作为基础网络,利用Conv5_3提取图像的高维特征,对高维特征进行操作,经过卷积、反卷积和卷积得到初始显著图;
S3、将初始显著图,以及Depth数据作为DRCNN循环卷积结构的输入;DRCNN通过级联的方式,一步一步优化显著结果,详细描绘显著目标的边缘信息;最后连接一个权值融合层,通过自动学习权值,将显著结果融合得到最终显著图。
2.根据权利要求1所述的基于单流深度网络的RGB-D显著目标检测方法,其特征在于,在所述步骤S3中:所述DRCNN的输入有4个,分别为上一个DRCNN的输出结果、本层的特征、初始显著图以及Depth深度信息,其核心是循环卷积层RCL,在RCL的第k个特征图的第(i,j)个单元上,它在步骤t的网络输入zijk(t)表示为:
其中分别为前一层的前馈输入以及当前层在时间步长为t-1的循环输入,分别表示为前馈权值和循环权值,为偏置,为第m+1个侧边输出的显著结果,为初始显著图,d表示初始Depth深度图,C表示卷积操作,表示联结操作,函数表示去除重复的输入,用在Conv5_3的侧边输出的DRCNN中,因为这一层的是相同的,通过该函数去除重复输入;
网络输入的激励函数表示为:
xijk m(t)=g(f(zijk m(t))) (3);
其中f为修正线性单元ReLU,具体定义为:
f(zijk m(t))=max(zijk m(t),0) (4);
其中g为局部响应归一化操作,目的是为了防止状态爆炸,定义为:
其中f(zijk m(t))简写为fijk m(t),K为特征图总数,N为关联归一化的局部邻居特征图的数目,α和β控制归一化的振幅;最终显著图的定义为:
pm=σ(c(g)) (6);
其中σ为激励函数,g为g(fijk m(t))的简写。
3.根据权利要求1所述的基于单流深度网络的RGB-D显著目标检测方法,其特征在于,在所述步骤S2中:由损失函数计算损失,调整网络参数,通过多次迭代形成稳定的网络结构。
4.根据权利要求3所述的基于单流深度网络的RGB-D显著目标检测方法,其特征在于,所述损失函数为SigmoidCrossEntropyLoss。
5.根据权利要求3所述的基于单流深度网络的RGB-D显著目标检测方法,其特征在于,所述网络结构包含五个侧边输出子网络和一个直接输出子网络。
6.根据权利要求3所述的基于单流深度网络的RGB-D显著目标检测方法,其特征在于,所述网络结构的具体训练过程为:在训练中,T={(Xn,Yn),n=1,2,...,N}为训练数据集,作为输入,Xn对应的真值图为在实验中,W为基础网络VGG16层的参数,M=6为侧边输出的数量;每一个侧边输出子网络对应一个显著输出结果,对应的权值定义为:
w=(w1,w2,...,wM) (7);
对每一个训练集输入和真值图的所有像素使用交叉熵损失来计算损失函数,对第m阶段的预测,损失函数的定义为:
其中,Pr(yi=1|X;W,wm)为在第m个侧边输出的第i个位置的像素属于前景的概率;对最后的权值融合层的损失函数定义为:
Lfuse(W,w,wf)=-∑i∈YyilogPr(yi=1|X;W,w,wf)+(1-yi)logPr(yi=0|X;W,w,wf)(9);其中,wf为权值融合层过滤器参数;所有预测的联合损失函数定义为:
其中,δf和δm表示为平衡每个损失项的损失权值,计算所有损失函数后,最小化目标损失函数定义为:
(W,w,wf)*=argmin(L(W,w,wf)) (11)。
CN201811403402.0A 2018-11-23 2018-11-23 一种基于单流深度网络的rgb-d显著目标检测方法 Active CN109598268B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811403402.0A CN109598268B (zh) 2018-11-23 2018-11-23 一种基于单流深度网络的rgb-d显著目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811403402.0A CN109598268B (zh) 2018-11-23 2018-11-23 一种基于单流深度网络的rgb-d显著目标检测方法

Publications (2)

Publication Number Publication Date
CN109598268A true CN109598268A (zh) 2019-04-09
CN109598268B CN109598268B (zh) 2021-08-17

Family

ID=65960190

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811403402.0A Active CN109598268B (zh) 2018-11-23 2018-11-23 一种基于单流深度网络的rgb-d显著目标检测方法

Country Status (1)

Country Link
CN (1) CN109598268B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110175986A (zh) * 2019-04-23 2019-08-27 浙江科技学院 一种基于卷积神经网络的立体图像视觉显著性检测方法
CN110210492A (zh) * 2019-04-28 2019-09-06 浙江科技学院 一种基于深度学习的立体图像视觉显著性检测方法
CN110210539A (zh) * 2019-05-22 2019-09-06 西安电子科技大学 多级深度特征融合的rgb-t图像显著性目标检测方法
CN110263813A (zh) * 2019-05-27 2019-09-20 浙江科技学院 一种基于残差网络和深度信息融合的显著性检测方法
CN110458797A (zh) * 2019-06-18 2019-11-15 南开大学 一种基于深度图过滤器的显著性物体检测方法
CN110458178A (zh) * 2019-08-12 2019-11-15 浙江科技学院 多模态多拼接的rgb-d显著性目标检测方法
CN111191650A (zh) * 2019-12-30 2020-05-22 北京市新技术应用研究所 基于rgb-d图像视觉显著性的物品定位方法与系统
CN111242238A (zh) * 2020-01-21 2020-06-05 北京交通大学 一种rgb-d图像显著性目标获取的方法
CN111242173A (zh) * 2019-12-31 2020-06-05 四川大学 一种基于孪生网络的rgbd显著物体检测方法
CN111428602A (zh) * 2020-03-18 2020-07-17 浙江科技学院 卷积神经网络边缘辅助增强的双目显著性图像检测方法
CN111832592A (zh) * 2019-04-20 2020-10-27 南开大学 Rgbd显著性检测方法以及相关装置
CN111881804A (zh) * 2020-07-22 2020-11-03 汇纳科技股份有限公司 基于联合训练的姿态估计模型训练方法、系统、介质及终端
CN112508812A (zh) * 2020-12-01 2021-03-16 厦门美图之家科技有限公司 图像色偏校正方法、模型训练方法、装置及设备
CN113298154A (zh) * 2021-05-27 2021-08-24 安徽大学 一种rgb-d图像显著目标检测方法
CN113822855A (zh) * 2021-08-11 2021-12-21 安徽大学 一种独立解码和联合解码相结合的rgb-t图像显著目标检测方法
CN114913338A (zh) * 2022-04-19 2022-08-16 支付宝(杭州)信息技术有限公司 分割模型的训练方法及装置、图像识别方法及装置
CN115019022A (zh) * 2022-05-30 2022-09-06 电子科技大学 一种基于双深度融合网络的轮廓检测方法
CN115082553A (zh) * 2022-08-23 2022-09-20 青岛云智聚智能科技有限公司 一种物流包裹位置检测方法及系统

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020647A (zh) * 2013-01-08 2013-04-03 西安电子科技大学 基于级联的sift特征和稀疏编码的图像分类方法
CN103955718A (zh) * 2014-05-15 2014-07-30 厦门美图之家科技有限公司 一种图像主体对象的识别方法
CN103971116A (zh) * 2014-04-24 2014-08-06 西北工业大学 基于Kinect的感兴趣区域检测方法
CN104408692A (zh) * 2014-11-25 2015-03-11 南京信息工程大学 一种基于深度学习的图像模糊模型参数分析方法
CN104978738A (zh) * 2014-04-09 2015-10-14 鹦鹉股份有限公司 检测数字图像中的兴趣点的方法
CN105224942A (zh) * 2015-07-09 2016-01-06 华南农业大学 一种rgb-d图像分类方法及系统
CN105590319A (zh) * 2015-12-18 2016-05-18 华南理工大学 一种深度学习的图像显著性区域检测方法
CN106599827A (zh) * 2016-12-09 2017-04-26 浙江工商大学 一种基于深度卷积神经网络的小目标快速检测方法
CN106709568A (zh) * 2016-12-16 2017-05-24 北京工业大学 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法
CN107085848A (zh) * 2017-04-20 2017-08-22 安徽大学 一种rgb‑d图显著性的检测方法
CN107423747A (zh) * 2017-04-13 2017-12-01 中国人民解放军国防科学技术大学 一种基于深度卷积网络的显著性目标检测方法
CN105528638B (zh) * 2016-01-22 2018-04-24 沈阳工业大学 灰色关联分析法确定卷积神经网络隐层特征图个数的方法
US20180150727A1 (en) * 2016-11-29 2018-05-31 Sap Se Object Detection in Image Data Using Depth Segmentation
US20180225527A1 (en) * 2015-08-03 2018-08-09 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus, storage medium and device for modeling lane line identification, and method, apparatus, storage medium and device for identifying lane line
CN108596102A (zh) * 2018-04-26 2018-09-28 北京航空航天大学青岛研究院 基于rgb-d的室内场景物体分割分类器构造方法
CN108597009A (zh) * 2018-04-10 2018-09-28 上海工程技术大学 一种基于方向角信息进行三维目标检测的方法
CN108734719A (zh) * 2017-04-14 2018-11-02 浙江工商大学 一种基于全卷积神经网络的鳞翅目昆虫图像前背景自动分割方法
US20180322646A1 (en) * 2016-01-05 2018-11-08 California Institute Of Technology Gaussian mixture models for temporal depth fusion
CN108846416A (zh) * 2018-05-23 2018-11-20 北京市新技术应用研究所 显著图像的提取处理方法及系统

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020647A (zh) * 2013-01-08 2013-04-03 西安电子科技大学 基于级联的sift特征和稀疏编码的图像分类方法
CN104978738A (zh) * 2014-04-09 2015-10-14 鹦鹉股份有限公司 检测数字图像中的兴趣点的方法
CN103971116A (zh) * 2014-04-24 2014-08-06 西北工业大学 基于Kinect的感兴趣区域检测方法
CN103955718A (zh) * 2014-05-15 2014-07-30 厦门美图之家科技有限公司 一种图像主体对象的识别方法
CN104408692A (zh) * 2014-11-25 2015-03-11 南京信息工程大学 一种基于深度学习的图像模糊模型参数分析方法
CN105224942A (zh) * 2015-07-09 2016-01-06 华南农业大学 一种rgb-d图像分类方法及系统
US20180225527A1 (en) * 2015-08-03 2018-08-09 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus, storage medium and device for modeling lane line identification, and method, apparatus, storage medium and device for identifying lane line
CN105590319A (zh) * 2015-12-18 2016-05-18 华南理工大学 一种深度学习的图像显著性区域检测方法
US20180322646A1 (en) * 2016-01-05 2018-11-08 California Institute Of Technology Gaussian mixture models for temporal depth fusion
CN105528638B (zh) * 2016-01-22 2018-04-24 沈阳工业大学 灰色关联分析法确定卷积神经网络隐层特征图个数的方法
US20180150727A1 (en) * 2016-11-29 2018-05-31 Sap Se Object Detection in Image Data Using Depth Segmentation
CN106599827A (zh) * 2016-12-09 2017-04-26 浙江工商大学 一种基于深度卷积神经网络的小目标快速检测方法
CN106709568A (zh) * 2016-12-16 2017-05-24 北京工业大学 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法
CN107423747A (zh) * 2017-04-13 2017-12-01 中国人民解放军国防科学技术大学 一种基于深度卷积网络的显著性目标检测方法
CN108734719A (zh) * 2017-04-14 2018-11-02 浙江工商大学 一种基于全卷积神经网络的鳞翅目昆虫图像前背景自动分割方法
CN107085848A (zh) * 2017-04-20 2017-08-22 安徽大学 一种rgb‑d图显著性的检测方法
CN108597009A (zh) * 2018-04-10 2018-09-28 上海工程技术大学 一种基于方向角信息进行三维目标检测的方法
CN108596102A (zh) * 2018-04-26 2018-09-28 北京航空航天大学青岛研究院 基于rgb-d的室内场景物体分割分类器构造方法
CN108846416A (zh) * 2018-05-23 2018-11-20 北京市新技术应用研究所 显著图像的提取处理方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DAVID FENG 等: "Local Background Enclosure for RGB-D Salient Object Detection", 《CVPR》 *
MING LIANG 等: "Recurrent convolutional neural network for object recognition", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111832592A (zh) * 2019-04-20 2020-10-27 南开大学 Rgbd显著性检测方法以及相关装置
CN111832592B (zh) * 2019-04-20 2023-10-24 南开大学 Rgbd显著性检测方法以及相关装置
CN110175986B (zh) * 2019-04-23 2021-01-08 浙江科技学院 一种基于卷积神经网络的立体图像视觉显著性检测方法
CN110175986A (zh) * 2019-04-23 2019-08-27 浙江科技学院 一种基于卷积神经网络的立体图像视觉显著性检测方法
CN110210492A (zh) * 2019-04-28 2019-09-06 浙江科技学院 一种基于深度学习的立体图像视觉显著性检测方法
CN110210492B (zh) * 2019-04-28 2020-12-01 浙江科技学院 一种基于深度学习的立体图像视觉显著性检测方法
CN110210539A (zh) * 2019-05-22 2019-09-06 西安电子科技大学 多级深度特征融合的rgb-t图像显著性目标检测方法
CN110210539B (zh) * 2019-05-22 2022-12-30 西安电子科技大学 多级深度特征融合的rgb-t图像显著性目标检测方法
CN110263813A (zh) * 2019-05-27 2019-09-20 浙江科技学院 一种基于残差网络和深度信息融合的显著性检测方法
CN110263813B (zh) * 2019-05-27 2020-12-01 浙江科技学院 一种基于残差网络和深度信息融合的显著性检测方法
CN110458797A (zh) * 2019-06-18 2019-11-15 南开大学 一种基于深度图过滤器的显著性物体检测方法
CN110458178B (zh) * 2019-08-12 2023-09-22 浙江科技学院 多模态多拼接的rgb-d显著性目标检测方法
CN110458178A (zh) * 2019-08-12 2019-11-15 浙江科技学院 多模态多拼接的rgb-d显著性目标检测方法
CN111191650A (zh) * 2019-12-30 2020-05-22 北京市新技术应用研究所 基于rgb-d图像视觉显著性的物品定位方法与系统
CN111191650B (zh) * 2019-12-30 2023-07-21 北京市新技术应用研究所 基于rgb-d图像视觉显著性的物品定位方法与系统
CN111242173A (zh) * 2019-12-31 2020-06-05 四川大学 一种基于孪生网络的rgbd显著物体检测方法
CN111242238A (zh) * 2020-01-21 2020-06-05 北京交通大学 一种rgb-d图像显著性目标获取的方法
CN111242238B (zh) * 2020-01-21 2023-12-26 北京交通大学 一种rgb-d图像显著性目标获取的方法
CN111428602A (zh) * 2020-03-18 2020-07-17 浙江科技学院 卷积神经网络边缘辅助增强的双目显著性图像检测方法
CN111881804B (zh) * 2020-07-22 2023-07-28 汇纳科技股份有限公司 基于联合训练的姿态估计模型训练方法、系统、介质及终端
CN111881804A (zh) * 2020-07-22 2020-11-03 汇纳科技股份有限公司 基于联合训练的姿态估计模型训练方法、系统、介质及终端
CN112508812A (zh) * 2020-12-01 2021-03-16 厦门美图之家科技有限公司 图像色偏校正方法、模型训练方法、装置及设备
CN113298154A (zh) * 2021-05-27 2021-08-24 安徽大学 一种rgb-d图像显著目标检测方法
CN113298154B (zh) * 2021-05-27 2022-11-11 安徽大学 一种rgb-d图像显著目标检测方法
CN113822855A (zh) * 2021-08-11 2021-12-21 安徽大学 一种独立解码和联合解码相结合的rgb-t图像显著目标检测方法
CN114913338A (zh) * 2022-04-19 2022-08-16 支付宝(杭州)信息技术有限公司 分割模型的训练方法及装置、图像识别方法及装置
CN114913338B (zh) * 2022-04-19 2024-06-14 支付宝(杭州)信息技术有限公司 分割模型的训练方法及装置、图像识别方法及装置
CN115019022A (zh) * 2022-05-30 2022-09-06 电子科技大学 一种基于双深度融合网络的轮廓检测方法
CN115019022B (zh) * 2022-05-30 2024-04-30 电子科技大学 一种基于双深度融合网络的轮廓检测方法
CN115082553A (zh) * 2022-08-23 2022-09-20 青岛云智聚智能科技有限公司 一种物流包裹位置检测方法及系统

Also Published As

Publication number Publication date
CN109598268B (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
CN109598268A (zh) 一种基于单流深度网络的rgb-d显著目标检测方法
CN110163110B (zh) 一种基于迁移学习和深度特征融合的行人重识别方法
CN111709311A (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN109063649B (zh) 基于孪生行人对齐残差网络的行人重识别方法
CN112434599B (zh) 一种基于噪声通道的随机遮挡恢复的行人重识别方法
CN111666843A (zh) 一种基于全局特征和局部特征拼接的行人重识别方法
CN111460914A (zh) 一种基于全局和局部细粒度特征的行人重识别方法
CN109002755B (zh) 基于人脸图像的年龄估计模型构建方法及估计方法
CN110674874A (zh) 基于目标精细组件检测的细粒度图像识别方法
CN113920472B (zh) 一种基于注意力机制的无监督目标重识别方法及系统
CN104504395A (zh) 基于神经网络实现人车分类的方法和系统
CN110909741A (zh) 一种基于背景分割的车辆再识别方法
CN113763417B (zh) 一种基于孪生网络和残差结构的目标跟踪方法
CN113159043A (zh) 基于语义信息的特征点匹配方法及系统
CN114782977B (zh) 一种基于拓扑信息和亲和度信息引导行人重识别方法
CN112329771B (zh) 一种基于深度学习的建筑材料样本识别方法
CN106874825A (zh) 人脸检测的训练方法、检测方法和装置
CN111709317A (zh) 一种基于显著性模型下多尺度特征的行人重识别方法
CN114495170A (zh) 一种基于局部抑制自注意力的行人重识别方法及系统
CN111126155B (zh) 一种基于语义约束生成对抗网络的行人再识别方法
CN115661754A (zh) 一种基于维度融合注意力的行人重识别方法
CN112347967A (zh) 一种复杂场景下融合运动信息的行人检测方法
Rao et al. Roads detection of aerial image with FCN-CRF model
CN116824330A (zh) 一种基于深度学习的小样本跨域目标检测方法
Li et al. A new algorithm of vehicle license plate location based on convolutional neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant