CN104732559A - 一种基于rgb-d数据的多目标检测与跟踪方法 - Google Patents
一种基于rgb-d数据的多目标检测与跟踪方法 Download PDFInfo
- Publication number
- CN104732559A CN104732559A CN201510054639.2A CN201510054639A CN104732559A CN 104732559 A CN104732559 A CN 104732559A CN 201510054639 A CN201510054639 A CN 201510054639A CN 104732559 A CN104732559 A CN 104732559A
- Authority
- CN
- China
- Prior art keywords
- target
- represent
- suggestion
- distributed
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于RGB-D数据的多目标检测与跟踪方法,其内容是:有效的融合彩色图像信息和深度信息对运动目标进行检测;将多目标检测的结果带入到RJMCMC粒子滤波算法的观测似然模型中,同时,构建合理的状态转移模型;通过定义合理的可逆跳动作和相应的建议分布,来实现对多目标的跟踪。本发明通过融合RGB图像和深度图像的信息来对多目标进行检测,降低漏检率和误检率.利用RJMCMC粒子滤波算法实现多目标跟踪,通过设定合理的可逆跳动作,选择相应的建议分布,不但可以解决多目标之间的遮挡和交互,还可以处理多目标数目发生变化的问题。
Description
技术领域
本发明涉及一种多目标检测与跟踪技术方法,特别涉及一种基于RGB-D数据的多目标检测与跟踪方法。
背景技术
多目标检测是多目标跟踪的基础,如果单独在彩色图像中检测多个运动目标,很容易造成漏检和误检,比如:当目标与背景的颜色十分相近时,会造成漏检;当多个目标前后遮挡时,会被误检成一个目标。如果可以融合深度信息中的多目标检测结果,就可以在很大程度上提高目标检测的准确率,为多目标跟踪提供更有利的前提条件。
在复杂的视频监控环境中,运动目标之间会发生遮挡、碰撞等,运动目标的数目也会不断变化。一些传统的多目标跟踪方法不能很好的解决这些问题,如:多假设跟踪(Multiple Hypothesis Tracking,MHT)和联合概率分布滤波器(Joint Probabilistic DataAssociation Filter,JPDAF),无法解决多目标之间的交互问题。马尔科夫链蒙特卡洛(Markov Chain Monte Carlo,MCMC)粒子滤波算法虽然可以很好的解决多目标之间的交互问题,但是只能跟踪固定数目的目标。
多目标检测与跟踪技术是计算机视觉领域的关键问题之一,在视频监控,机器人导航,智能交通、驾驶员辅助系统等领域都有着广泛的应用。随着RGB-D摄像机技术的发展,尤其是Kinect传感器的推出,使得同时获得高质量的彩色图像和深度图像成为现实。深度信息可以改善多目标检测与跟踪的性能,但如何有效地融合彩色图像信息和深度信息进行多目标检测,并且在检测的基础上实现多目标跟踪仍然是一项具有挑战性的研究课题。
发明内容
本发明克服了现有技术中的缺点,提供一种基于RGB-D数据的多目标检测与跟踪方法。
为了解决上述存在的技术问题,本发明是通过以下技术方案实现的:
一种基于RGB-D数据的多目标检测与跟踪方法,其内容包括如下步骤:
一、有效的融合彩色图像信息和深度信息对运动目标进行检测;选取RGB图像和深度图像的HOG直方图作为检测目标的特征,分类器选用支持向量机(Support Vector Machine,SVM),检测策略选用滑动窗口搜索;
将基于RGB图像的检测结果和基于深度图像的检测结果有效的融合起来,构建鲁棒性更强的多目标检测算法:
令矩阵表示RGB-D数据中的任意一帧,其中,表示RGB图像,表示深度图像;表示基于RGB图像做目标检测时分类器的输出,hD(It)表示基于深度图像做目标检测时分类器的输出;将分类器的输出hR(It)和hD(It)映射为概率p(Yt|Xt,θR)和p(Yt|Xt,θD):
其中,fR和fD分别表示基于RGB图像和深度图像的映射函数,θR和θD分别表示分类器的参数,表示t时刻多目标的隐藏状态变量,表示第i个目标在3维空间中的位置和速度,Yt={Y1,Y2,…,Yt}表示t时刻得到的一系列多目标的观测值;
将融合RGB图像和深度信息的多目标检测结果表示为概率:
p(Yt|Xt,θ)=kR(It)p(Yt|Xt,qR)+kD(It)p(Yt|Xt,θD)
式中:kR(It)=1-kD(It),kR(It)和kD(It)分别表示给基于RGB图像和深度图像的检测赋于的权重;当深度信息中的无效点数越多,kD(It)越小,kR(It)越大;
由贝叶斯理论可知:
p(Xt|Yt)∝p(Yt|Xt)∫p(Xt|Xt-1)p(Xt-1|Yt-1)dXt-1
其中:p(Yt|Xt)表示观测似然模型,p(Xt|Xt-1)表示连续两帧的状态转移模型;第t帧目标的最佳状态值可以通过最大后验概率估计得到,即:
二、将多目标检测的结果带入到RJMCMC粒子滤波算法的观测似然模型中,同时,构建合理的状态转移模型;
1、观测似然模型
为了更好的衡量目标的有效性,将RGB图像和深度图像的目标检测结果有效的结合起来构建观测似然方程;
2、状态转移模型
状态转移模型的构建考虑两个方面的影响因素:t时刻目标的存在概率pExist(Xt|Xt-1);运动的平滑性pMotion(Xt|Xt-1):将状态转移模型定义为:
p(Xt|Xt-1)=pExist(Xt|Xt-1)pMotion(Xt|Xt-1)
式中:i表示第i个目标;
运动先验pMotion(Xt|Xt-1)能够描述为:
这里假设服从高斯分布,
即:
式中,Ψ是一个对角矩阵;
三、通过定义合理的可逆跳动作和相应的建议分布,来实现对多目标的跟踪;
1、RJMCMC粒子滤波算法
RJMCMC通过定义多种可以互逆的运动类型来实现马尔科夫链中抽样维数的变化也是可逆的;
在贝叶斯框架中,目标跟踪的问题被归结为最大后验概率估计问题,用RJMCMC粒子滤波算法估计后验概率p(Xt|Yt),t时刻的后验概率可以用一系列马尔科夫链离散抽样来近似表示:
式中N为抽样总数,为第j个抽样;如果给定t-1时刻的一系列采样,t时刻的后验概率可以估计为:
2、建议分布
在RJMCMC粒子滤波算法中,通过定义可逆跳的运动模式,在每次抽样前,选择一种运动模式,按照每种运动模式的建议分布产生一个候选状态进行迭代;这里定义5种运动模式,它们分别为:Leave和Stay,Add和Delete,Update;每种运动模式对应的建议分布其中,为根据建议分布产生的新抽样;
5种运动模式的建议分布为:
Leave:如果一个目标离开监控场景,则建议把该目标从目标集合中去除;假设有NL个在前一帧中出现而在本帧中未出现的目标,则以均匀概率随机选择一个目标L,将其去除;如果NL=0,则建议分布为0,即:Leave动作的建议分布为:
Stay:是Leave的可逆动作,假设有NS个未在本帧中出现且已经从Xt中删除的目标集合中以均匀分布的概率随机选择一个目标S,重新加入到目标集合中;根据状态转移模型和观测似然模型的混合模型来构建建议分布,这样会提高采样过程的鲁棒性;Stay动作的建议分布为:
Add:当检测到一个新的目标时,则建议加入到目标集合;假设有NA个检测到的新目标,则根据均匀分布选择一个目标A加入到目标集合;Add动作的建议分布为:
Delete:是Add的可逆动作,从ND个已经检测到的并且已经在目标集合中的目标以概率随机选择一个去除;Delete动作的建议分布为:
Update:Update动作是根据建议分布给目标分配一个新的位置,一个Update动作可以和另外一个Update动作互为可逆动作Update动作的建议分布为:
式中,表示目标i更新的状态,wU表示随机噪声,N(·)表示高斯分布函数;
根据Metropolis-Hastings算法,一个新的抽样的接受率为:
由于采用上述技术方案,本发明提供的一种基于RGB-D数据的多目标检测与跟踪方法与现有技术相比,具有这样的有益效果:
本发明通过分析现有的多目标检测与跟踪技术存在的问题,提出了一种基于RGB-D数据的多目标检测与跟踪方法,通过融合RGB图像和深度图像的信息来对多目标进行检测,降低漏检率和误检率。利用RJMCMC粒子滤波算法实现多目标跟踪,通过设定合理的可逆跳动作,选择相应的建议分布,不但可以解决多目标之间的遮挡和交互,还可以处理多目标数目发生变化的问题。实验结果表明:本发明提出的基于RGB-D数据的多目标检测与跟踪方法,在多目标之间发生遮挡、光照变化、数目变化时,能够稳定地跟踪多目标,具有较高的准确性和较强的鲁棒性,降低了丢失率和误判率。
附图说明
图1是本发明的流程图;
图2是表示测试视频1的多目标跟踪结果组图;
图3是表示测试视频1中目标3对应的RGB图像、深度图像、RGB图像的HOG直方图、深度图像的HOG直方图;
图4是表示测试视频2的多目标跟踪结果组图;
图5是表示测试视频2中目标5对应的RGB图像、深度图像、RGB图像的HOG直方图、深度图像的HOG直方图;
图6是表示测试视频3的多目标跟踪结果组图;
图7是表示测试视频3中目标4对应的RGB图像、深度图像、RGB图像的HOG直方图、深度图像的HOG直方图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明实施例的实现基于windows 8.1操作系统,采用VisualStudio 2013和OpenCV 3.0作为软件平台,计算机配置为Intel(R)Core(TM)i7-4712MQ CPU@2.30GHz,8.00GB内存,64位操作系 统。
本发明的一种基于RGB-D数据的多目标检测与跟踪方法,其流程图如图1所示,首先,有效的融合彩色图像信息和深度信息对运动目标进行检测;然后,将多目标检测的结果带入到RJMCMC粒子滤波算法的观测似然模型中,同时,构建合理的状态转移模型;最后,通过定义合理的可逆跳动作和相应的建议分布,来实现对多目标的跟踪。实验结果表明,本发明提出的方法在多目标之间发生遮挡、光照变化、数目变化时,能够稳定地跟踪多目标,具有较高的准确性和较强的鲁棒性。
本发明方法具体步骤如下:
1.基于RGB图像和深度信息融合的多目标检测算法
一般来说,目标检测包括三个关键问题:特征,分类器和检测策略,颜色、形状、纹理、梯度等是较常用的特征,本发明选取RGB图像和深度图像的HOG直方图作为检测目标的特征。分类器选用支持向量机(Support Vector Machine,SVM);检测策略选用滑动窗口搜索。针对测试视频1的如图3(a)所示的RGB图像和如图3(b)所示的深度图像的HOG直方图如图3(c)和(d)所示,针对测试视频2的如图5(a)所示的RGB图像和如图5(b)所示的深度图像的HOG直方图如图5(c)和(d),针对测试视频3的如图7(a)所示的RGB图像和如图7(b)所示的深度图像的HOG直方图如图图7(c)和(d)所示。
由于RGB图像中会时常因为目标和背景颜色接近等原因造成对目标的漏检,Kinect产生的深度图像中也会有一些无效区域,如果仅是分别在RGB图像和深度图像中独立的检测目标,必然会影响目标检测结果的准确性;受到混合专家(Mixture of Experts,ME)结构的启发,我们将基于RGB图像的检测结果和基于深度图像的检测结果有效的融合起来,构建鲁棒性更强的多目标检测算法。
令矩阵表示RGB-D数据中的任意一帧,其中,表示RGB图像,表示深度图像;hR(It)表示基于RGB图像做目标检测时分类器的输出,hD(It)表示基于深度图像做目标检测时分类器的输出;为了不失一般性,将分类器的输出hR(It)和hD(It)映射为概率p(Yt|Xt,θR)和p(Yt|Xt,θD):
其中,fR和fD分别表示基于RGB图像和深度图像的映射函数,θR和θD分别表示分类器的参数,表示t时刻多目标的隐藏状态变量,表示第i个目标在3维空间中的位置和速度;Yt={Y1,Y2,…,Yt}表示t时刻得到的一系列多目标的观测值;
我们可以将融合RGB图像和深度信息的多目标检测结果表示为概率:
p(Yt|Xt,θ)=kR(It)p(Yt|Xt,θR)+kD(It)p(Yt|Xt,θD) (3)
式(3)中,kR(It)=1-kD(It),kR(It)和kD(It)分别表示给基于RGB图像和深度图像的检测赋于的权重;当深度信息中的无效点数越多,kD(It)越小,kR(It)越大;
2.贝叶斯最大后验概率估计
多目标跟踪问题可以看作是隐马尔科夫模型中隐藏状态变量的贝叶斯最大后验概率估计问题;即:在第t帧得到一系列的观测图像Yt={Y1,Y2,…,Yt},利用贝叶斯最大后验概率理论估计隐藏状态变量Xt;
由贝叶斯理论可知:
p(Xt|Yt)∝p(Yt|Xt)∫p(Xt|Xt-1)p(Xt-1|Yt-1)dXt-1 (4)
其中,p(Yt|Xt)表示观测似然模型,p(Xt|Xt-1)表示连续两帧的状态转移模型;第t帧目标的最佳状态值可以通过最大后验概率估计得到,即:
2.1观测似然模型
为了更好的衡量目标的有效性,将RGB图像和深度图像的目标检测结果有效的结合起来构建观测似然方程,具体方法如公式(3)所示;
2.2状态转移模型
状态转移模型的构建考虑两个方面的影响因素:
1.t时刻目标的存在概率pExist(Xt|Xt-1);
2.运动的平滑性pMotion(Xt|Xt-1);状态转移模型定义为:
p(Xt|Xt-1)=pExist(Xt|Xt-1)pMotion(Xt|Xt-1) (6)
式中,i表示第i个目标;
运动先验pMotion(Xt|Xt-1)可以描述为:
本文假设服从高斯分布,
即:
式中,Ψ是一个对角矩阵;
3基于RJMCMC的多目标跟踪算法
3.1RJMCMC粒子滤波算法
在多目标跟踪的问题当中,目标会随机的进入和离开,当目标的数目发生变化时,传统的MCMC算法就变得无能为力了;RJMCMC粒子滤波算法是MCMC算法的改进算法,能够解决状态空间维数可变的问题;RJMCMC通过定义多种可以互逆的运动类型来实现马尔科夫链中抽样维数的变化也是可逆的;
在贝叶斯框架中,目标跟踪的问题被归结为最大后验概率估计问题,我们用RJMCMC粒子滤波算法估计后验概率p(Xt|Yt),t时刻的后验概率可以用一系列马尔科夫链离散抽样来近似表示:
式中N为抽样总数,为第j个抽样;如果给定t-1时刻的一系列采样,t时刻的后验概率可以估计为:
3.2建议分布
在RJMCMC粒子滤波算法中,Metropolis-Hastings原则已经不能直接应用了,可以通过定义可逆跳的运动模式,在每次抽样前,选择一种运动模式,按照每种运动模式的建议分布产生一个候选状态,进行迭代;
本发明定义5种运动模式,分别为:Leave和Stay,Add和Delete,Update;下面具体阐述每种运动模式对应的建议分布其中,为根据建议分布产生的新抽样;下面分别介绍5种运动模式的建议分布为:
Leave:如果一个目标离开监控场景,则建议把该目标从目标集合中去除;假设有NL个在前一帧中出现而在本帧中未出现的目标,则以均匀概率随机选择一个目标L,将其去除;如果NL=0,则建议分布为0,即:Leave动作的建议分布为:
Stay:是Leave的可逆动作,假设有NS个未在本帧中出现且已经从Xt中删除的目标集合中以均匀分布的概率随机选择一个目标S,重新加入到目标集合中;本发明;是根据状态转移模型和观测似然模型的混合模型来构建建议分布,这样会提高采样过程的鲁棒性;Stay动作的建议分布为:
Add:当检测到一个新的目标时,则建议加入到目标集合;假设有NA个检测到的新目标,则根据均匀分布选择一个目标A加入到目标集合;Add动作的建议分布为:
Delete:是Add的可逆动作,从ND个已经检测到的并且已经在目标集合中的目标以概率随机选择一个去除;Delete动作的建议分布为:
Update:Update动作是根据建议分布给目标分配一个新的位置,一个Update动作可以和另外一个Update动作互为可逆动作;Update动作的建议分布为:
式中,表示目标i更新的状态,ωU表示随机噪声,N(·)表示高斯分布函数;
根据Metropolis-Hastings算法,一个新的抽样的接受率为:
为了说明本文提出的基于RGB-D数据的多目标检测与跟踪算法的准确性和鲁棒性,我们采用Kinect在不同环境下拍摄的多组公共测试视频数据集进行实验,这里只列举其中3组测试视频的多目标跟踪结果,用不同颜色的矩形跟踪框来表示对不同目标的跟踪,分别如图2,图4和图6所示。其中测试视频1中的多目标数目发生变化,测试视频2中的多目标之间发生遮挡,测试视频3中的目标数目多,运动模式复杂,同时也发生遮挡。从实验结果可以看出本发明方法具有良好的鲁棒性和较高的准确率。评价多目标跟踪的性能一般采用以下4个指标:多目标跟踪准确率MOTA(Multiple Object TrackingAccuracy),多目标跟踪精确度MOTP(multiple object trackingprecision),缺失率FNR(False Negative Ratio),误判率FPR(FalsePositive Ratio)。为了说明本文算法的优势,选用与Spinello L,Arras K.O.People Detection in RGB-D Data[C].(IEEE International Conferenceon Intelligent Robots and Systems,Germany,2011,3838-3843)中的算法做对比,测试数据采用RGB-D People Dataset,对比结果见表1.
表1本文算法与文献[2]算法性能指标对比
算法 | MOTA | MOTP | FNR | FPR |
本文算法 | 91.9% | 92.4% | 9.4% | 4.3% |
文献[2] | 71.8% | 73.7% | 20.0% | 7.7% |
Claims (1)
1.一种基于RGB-D数据的多目标检测与跟踪方法,其特征在于该方法内容包括如下步骤:
一、有效的融合彩色图像信息和深度信息对运动目标进行检测;选取RGB图像和深度图像的HOG直方图作为检测目标的特征,分类器选用支持向量机,检测策略选用滑动窗口搜索;
将基于RGB图像的检测结果和基于深度图像的检测结果有效的融合起来,构建鲁棒性更强的多目标检测算法:
令矩阵表示RGB-D数据中的任意一帧,其中,表示RGB图像,表示深度图像;hR(It)表示基于RGB图像做目标检测时分类器的输出,hD(It)表示基于深度图像做目标检测时分类器的输出;将分类器的输出hR(It)和hD(It)映射为概率p(Yt|Xt,θR)和p(Yt|Xt,θD):
其中,fR和fD分别表示基于RGB图像和深度图像的映射函数,θR和θD分别表示分类器的参数,表示t时刻多目标的隐藏状态变量,表示第i个目标在3维空间中的位置和速度,Yt={Y1,Y2,…,Yt}表示t时刻得到的一系列多目标的观测值;
将融合RGB图像和深度信息的多目标检测结果表示为概率:
p(Yt|Xt,θ)=kR(It)p(Yt|Xt,θR)+kD(It)p(Yt|Xt,θD)
式中:kR(It)=1-kD(It),kR(It)和kD(It)分别表示给基于RGB图像和深度图像的检测赋于的权重;当深度信息中的无效点数越多,kD(It)越小,kR(It)越大;
由贝叶斯理论可知:
p(Xt|Yt)∝p(Yt|Xt)∫p(Xt|Xt-1)p(Xt-1|Yt-1)dXt-1
其中:p(Yt|Xt)表示观测似然模型,p(Xt|Xt-1)表示连续两帧的状态转移模型;第t帧目标的最佳状态值可以通过最大后验概率估计得到,即:
二、将多目标检测的结果带入到RJMCMC粒子滤波算法的观测似然模型中,同时,构建合理的状态转移模型;
1、观测似然模型
为了更好的衡量目标的有效性,将RGB图像和深度图像的目标检测结果有效的结合起来构建观测似然方程;
2、状态转移模型
状态转移模型的构建考虑两个方面的影响因素:t时刻目标的存在概率pExist(Xt|Xt-1);运动的平滑性pMotion(Xt|Xt-1):将状态转移模型定义为:
p(Xt|Xt-1)=pExist(Xt|Xt-1)pMotion(Xt|Xt-1)
式中:i表示第i个目标;
运动先验pMotion(Xt|Xt-1)能够描述为:
这里假设服从高斯分布,
即:
式中,Ψ是一个对角矩阵;
三、通过定义合理的可逆跳动作和相应的建议分布,来实现对多目标的跟踪;
1、RJMCMC粒子滤波算法
RJMCMC通过定义多种可以互逆的运动类型来实现马尔科夫链中抽样维数的变化也是可逆的;
在贝叶斯框架中,目标跟踪的问题被归结为最大后验概率估计问题,用RJMCMC粒子滤波算法估计后验概率p(Xt|Yt),t时刻的后验概率可以用一系列马尔科夫链离散抽样来近似表示:
式中N为抽样总数,为第j个抽样;如果给定t-1时刻的一系列采样,t时刻的后验概率可以估计为:
2、建议分布
在RJMCMC粒子滤波算法中,通过定义可逆跳的运动模式,在每次抽样前,选择一种运动模式,按照每种运动模式的建议分布产生一个候选状态进行迭代;这里定义5种运动模式,它们分别为:Leave和Stay,Add和Delete,Update;每种运动模式对应的建议分布其中,为根据建议分布产生的新抽样;
5种运动模式的建议分布为:
Leave:如果一个目标离开监控场景,则建议把该目标从目标集合中去除;假设有NL个在前一帧中出现而在本帧中未出现的目标,则以均匀概率随机选择一个目标L,将其去除;如果NL=0,则建议分布为0,即:Leave动作的建议分布为:
Stay:是Leave的可逆动作,假设有NS个未在本帧中出现且已经从Xt中删除的目标集合中以均匀分布的概率随机选择一个目标S,重新加入到目标集合中;根据状态转移模型和观测似然模型的混合模型来构建建议分布,这样会提高采样过程的鲁棒性;Stay动作的建议分布为:
Add:当检测到一个新的目标时,则建议加入到目标集合;假设有NA个检测到的新目标,则根据均匀分布选择一个目标A加入到目标集合;Add动作的建议分布为:
Delete:是Add的可逆动作,从ND个已经检测到的并且已经在目标集合中的目标以概率随机选择一个去除;Delete动作的建议分布为:
Update:Update动作是根据建议分布给目标分配一个新的位置,一个Update动作可以和另外一个Update动作互为可逆动作Update动作的建议分布为:
式中,表示目标i更新的状态,ωU表示随机噪声,N(·)表示高斯分布函数;
根据Metropolis-Hastings算法,一个新的抽样的接受率为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510054639.2A CN104732559B (zh) | 2015-02-02 | 2015-02-02 | 一种基于rgb‑d数据的多目标检测与跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510054639.2A CN104732559B (zh) | 2015-02-02 | 2015-02-02 | 一种基于rgb‑d数据的多目标检测与跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104732559A true CN104732559A (zh) | 2015-06-24 |
CN104732559B CN104732559B (zh) | 2017-08-01 |
Family
ID=53456427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510054639.2A Expired - Fee Related CN104732559B (zh) | 2015-02-02 | 2015-02-02 | 一种基于rgb‑d数据的多目标检测与跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104732559B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105665970A (zh) * | 2016-03-01 | 2016-06-15 | 中国科学院自动化研究所 | 用于焊接机器人的路径点自动生成系统和方法 |
CN106504289A (zh) * | 2016-11-02 | 2017-03-15 | 深圳乐行天下科技有限公司 | 一种室内目标检测方法及装置 |
CN106952294A (zh) * | 2017-02-15 | 2017-07-14 | 北京工业大学 | 一种基于rgb‑d数据的视频跟踪方法 |
CN107505951A (zh) * | 2017-08-29 | 2017-12-22 | 深圳市道通智能航空技术有限公司 | 一种目标跟踪方法、无人机和计算机可读存储介质 |
CN107680136A (zh) * | 2017-09-25 | 2018-02-09 | 西北工业大学 | 一种辅助遥操作执行空间任务的三维目标跟踪方法 |
CN110363793A (zh) * | 2019-07-24 | 2019-10-22 | 北京华捷艾米科技有限公司 | 一种对象的跟踪方法及装置 |
CN111340845A (zh) * | 2020-02-25 | 2020-06-26 | 上海黑眸智能科技有限责任公司 | 基于深度视觉传感器的自动跟踪方法、系统、终端以及介质 |
CN112927264A (zh) * | 2021-02-25 | 2021-06-08 | 华南理工大学 | 一种无人机跟踪拍摄系统及其rgbd跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101975575A (zh) * | 2010-10-15 | 2011-02-16 | 西安电子科技大学 | 基于粒子滤波的被动传感器多目标跟踪方法 |
CN103024349A (zh) * | 2012-11-13 | 2013-04-03 | 大连民族学院 | 一种基于稀疏限制的mle视频目标跟踪方法 |
CN103735269A (zh) * | 2013-11-14 | 2014-04-23 | 大连民族学院 | 一种基于视频多目标跟踪的高度测量方法 |
CN104050685A (zh) * | 2014-06-10 | 2014-09-17 | 西安理工大学 | 基于粒子滤波视觉注意力模型的运动目标检测方法 |
CN104077595A (zh) * | 2014-06-15 | 2014-10-01 | 北京工业大学 | 基于贝叶斯正则化的深度学习网络图像识别方法 |
-
2015
- 2015-02-02 CN CN201510054639.2A patent/CN104732559B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101975575A (zh) * | 2010-10-15 | 2011-02-16 | 西安电子科技大学 | 基于粒子滤波的被动传感器多目标跟踪方法 |
CN103024349A (zh) * | 2012-11-13 | 2013-04-03 | 大连民族学院 | 一种基于稀疏限制的mle视频目标跟踪方法 |
CN103735269A (zh) * | 2013-11-14 | 2014-04-23 | 大连民族学院 | 一种基于视频多目标跟踪的高度测量方法 |
CN104050685A (zh) * | 2014-06-10 | 2014-09-17 | 西安理工大学 | 基于粒子滤波视觉注意力模型的运动目标检测方法 |
CN104077595A (zh) * | 2014-06-15 | 2014-10-01 | 北京工业大学 | 基于贝叶斯正则化的深度学习网络图像识别方法 |
Non-Patent Citations (6)
Title |
---|
LUCIANO SPINELLO,KAI O. ARRAS: "People Detection in RGB-D Data", 《INTELLIGENT ROBOTS AND SYSTEMS》 * |
ZIA KHAN 等: "MCMC-Based Particle Filtering for Tracking a Variable Number of Interacting Targets", 《PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
姜明新 等: "基于多相机的多目标跟踪算法", 《自动化学报》 * |
姜明新 等: "基于目标检测和图割的多目标跟踪算法", 《大连理工大学学报》 * |
江晓莲 等: "基于视觉显著性的两阶段采样突变目标跟踪算法", 《自动化学报》 * |
龙云利 等: "一种基于IS-MCMC的多目标跟踪算法", 《宇航学报》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105665970A (zh) * | 2016-03-01 | 2016-06-15 | 中国科学院自动化研究所 | 用于焊接机器人的路径点自动生成系统和方法 |
CN106504289A (zh) * | 2016-11-02 | 2017-03-15 | 深圳乐行天下科技有限公司 | 一种室内目标检测方法及装置 |
CN106504289B (zh) * | 2016-11-02 | 2019-12-17 | 深圳乐动机器人有限公司 | 一种室内目标检测方法及装置 |
CN106952294B (zh) * | 2017-02-15 | 2019-10-08 | 北京工业大学 | 一种基于rgb-d数据的视频跟踪方法 |
CN106952294A (zh) * | 2017-02-15 | 2017-07-14 | 北京工业大学 | 一种基于rgb‑d数据的视频跟踪方法 |
CN107505951B (zh) * | 2017-08-29 | 2020-08-21 | 深圳市道通智能航空技术有限公司 | 一种目标跟踪方法、无人机和计算机可读存储介质 |
CN107505951A (zh) * | 2017-08-29 | 2017-12-22 | 深圳市道通智能航空技术有限公司 | 一种目标跟踪方法、无人机和计算机可读存储介质 |
CN107680136A (zh) * | 2017-09-25 | 2018-02-09 | 西北工业大学 | 一种辅助遥操作执行空间任务的三维目标跟踪方法 |
CN110363793A (zh) * | 2019-07-24 | 2019-10-22 | 北京华捷艾米科技有限公司 | 一种对象的跟踪方法及装置 |
CN110363793B (zh) * | 2019-07-24 | 2021-09-21 | 北京华捷艾米科技有限公司 | 一种对象的跟踪方法及装置 |
CN111340845A (zh) * | 2020-02-25 | 2020-06-26 | 上海黑眸智能科技有限责任公司 | 基于深度视觉传感器的自动跟踪方法、系统、终端以及介质 |
CN112927264A (zh) * | 2021-02-25 | 2021-06-08 | 华南理工大学 | 一种无人机跟踪拍摄系统及其rgbd跟踪方法 |
CN112927264B (zh) * | 2021-02-25 | 2022-12-16 | 华南理工大学 | 一种无人机跟踪拍摄系统及其rgbd跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104732559B (zh) | 2017-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104732559A (zh) | 一种基于rgb-d数据的多目标检测与跟踪方法 | |
CN107767405B (zh) | 一种融合卷积神经网络的核相关滤波目标跟踪方法 | |
Dong et al. | A lightweight vehicles detection network model based on YOLOv5 | |
Dai et al. | Multi-task faster R-CNN for nighttime pedestrian detection and distance estimation | |
Tan et al. | YOLOv4_Drone: UAV image target detection based on an improved YOLOv4 algorithm | |
Wang et al. | YOLOv3-MT: A YOLOv3 using multi-target tracking for vehicle visual detection | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN108171112A (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
CN108596053A (zh) | 一种基于ssd和车辆姿态分类的车辆检测方法和系统 | |
CN109727273B (zh) | 一种基于车载鱼眼相机的移动目标检测方法 | |
CN103150740A (zh) | 一种基于视频的运动目标跟踪方法和系统 | |
CN103106667A (zh) | 一种面向遮挡和场景变换的运动对象追踪方法 | |
CN103745216B (zh) | 一种基于空域特性的雷达图像杂波抑制方法 | |
CN113326735B (zh) | 一种基于YOLOv5的多模态小目标检测方法 | |
Liu et al. | Dynamic RGB-D SLAM based on static probability and observation number | |
CN104050685A (zh) | 基于粒子滤波视觉注意力模型的运动目标检测方法 | |
Hu et al. | Vehicle trajectory prediction considering aleatoric uncertainty | |
Tian et al. | Vehicle detection grammars with partial occlusion handling for traffic surveillance | |
CN111027586A (zh) | 一种基于新型响应图融合的目标跟踪方法 | |
Wei et al. | A robust approach for multiple vehicles tracking using layered particle filter | |
Liang et al. | Car detection and classification using cascade model | |
Qing et al. | A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation | |
CN105224914A (zh) | 一种基于图的无约束视频中显著物体检测方法 | |
CN104392466A (zh) | 一种基于视觉显著原始目标的检测跟踪方法 | |
Zhang et al. | Quality-guided lane detection by deeply modeling sophisticated traffic context |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170801 Termination date: 20180202 |
|
CF01 | Termination of patent right due to non-payment of annual fee |