CN105335986A - 基于特征匹配和MeanShift算法的目标跟踪方法 - Google Patents
基于特征匹配和MeanShift算法的目标跟踪方法 Download PDFInfo
- Publication number
- CN105335986A CN105335986A CN201510573979.6A CN201510573979A CN105335986A CN 105335986 A CN105335986 A CN 105335986A CN 201510573979 A CN201510573979 A CN 201510573979A CN 105335986 A CN105335986 A CN 105335986A
- Authority
- CN
- China
- Prior art keywords
- target
- feature
- point
- target area
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Abstract
基于特征匹配和Mean?Shift算法的目标跟踪方法,步骤如下:输入图像序列,对图像序列进行背景重构,获得初始时刻的目标区域,并采用MeanShift算法进行建模;对初始时刻的目标区域模型进行SIFT特征提取,将初始时刻的目标区域模型的SIFT特征点作为特征库的初始特征点;通过SIFT特征匹配计算当前帧目标的初始位置、尺度参数和旋转参数;采用Mean?Shift算法对目标进行精确定位;计算目标的遮挡因子,判断目标的遮挡程度,确定目标的跟踪模式;图像序列中的所有图像跟踪完毕,结束目标跟踪。本发明将Mean?Shift算法和SIFT特征匹配算法结合起来,充分发挥二者的优势,实现目标的稳定跟踪。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及一种基于SIFT特征匹配和MeanShift算法相结合的目标跟踪方法。
背景技术
目标跟踪是计算机视觉领域的一个重要分支,它在视频监控、智能交通、人机交互、军事领域以及机器人视觉导航等中有着广泛的应用。其目的是通过一定的相似性度量和匹配搜索算法实现目标跟踪和定位。
迄今为止,视频序列的目标跟踪技术相对比较完善。针对不同的应用场合及需求,研究人员已经设计研发了多种目标跟踪方法。通常情况下目标跟踪方法大致可以分为:基于区域的目标跟踪方法、基于主动轮廓的目标跟踪方法、基于模型的目标跟踪方法和基于特征的目标跟踪方法等。基于区域的目标跟踪算法通常是把感兴趣的运动目标区域作为待匹配的模板,按照某种相似性度量准则,通过相关匹配技术在下一帧图像中寻找与目标模板的最优匹配位置,但是该算法在目标发生局部遮挡和目标发生几何变形时往往效果不好;基于主动轮廓的目标跟踪算法是利用封闭曲线的演化来表达目标轮廓,该方法通过建立合适的能量函数来自动演化目标轮廓,而且如果能够对目标实现较好的初始化轮廓,并且各个目标之间能够分开的话,则在发生局部遮挡的情况下也能够较好的跟踪目标,但初始化轮廓通常是很困难的;基于模型的目标跟踪算法通常是根据先验信息建立目标的模型,然后通过模型的匹配来寻找各帧图像中目标的位置;基于特征的目标跟踪算法通常是利用目标的某些局部特征标识目标,并通过特征匹配在图像序列中跟踪目标,该算法对目标局部遮挡具有较好的鲁棒性,但是当目标被严重遮挡甚至是全部遮挡时该算法容易出现目标跟踪误差大,甚至无法跟踪目标的问题
在众多跟踪方法中,MeanShift算法是基于跟踪目标的空间色彩直方图特征来实现目标的识别与跟踪,因其具有运算简单、实时性好的优点而被广泛使用。但当跟踪目标出现明显尺度变化、旋转、遮挡以及目标运动速度较快等情况下,它容易出现目标跟踪误差大,甚至无法跟踪目标的问题。
为了解决MeanShift算法在跟踪过程中所面临的问题,西安电子科技大学提出的公告号为CN102999920B的发明专利“基于最近邻分类器和均值漂移的目标跟踪方法”公开了一种基于最近邻分类器和均值漂移的目标跟踪方法。该方法对通过目标模型与目标搜索区域中相匹配的SIFT特征点的位置区域和利用MeanShift算法所获得的跟踪目标区域进行决策级融合来获得最终的目标跟踪结果,该方法虽然在目标快速运动甚至出现运动模糊时有较好的跟踪效果,但是当目标出现尺度变化或者严重遮挡甚至是全部遮挡时,该方法容易出现跟踪误差大甚至无法跟踪目标的问题。
天津工业大学提出的公开号为CN104331638A的专利申请“基于Meanshift算法的小型载体视觉导航方法”公开了一种基于Meanshift算法的小型载体视觉导航方法。该方法利用Meanshift算法实现自然路标的特征提取与跟踪,然后利用图像序列中的自然路标位置信息确定小型载体的位置,从而获得精确的导航坐标,该方法虽然对正常运动情况下的小型载体有较好的定位效果,但是当小型载体快速运动或者自然路标被遮挡时,该方法就会产生较大的定位误差甚至无法定位。
南京大学提出的公开号为CN102117487A的专利申请“一种针对视频运动目标的尺度方向自适应Mean-shift跟踪方法”公开了一种针对视频运动目标的尺度方向自适应Mean-shift跟踪方法。该方法首先通过MeanShift算法预测目标的位置,然后通过预测的目标区域的SIFT特征点的尺度和方向信息来计算目标的尺度和旋转参数。该方法虽然对目标出现尺度变化和旋转时有较好的跟踪效果,但是当目标出现快速运动或者遮挡时,该方法就会产生较大的跟踪误差甚至跟丢目标。
哈尔滨工程大学提出的公开号为CN104036524A的专利申请“一种改进的SIFT算法的快速目标跟踪方法”公开了一种针对视频运动目标的尺度方向自适应Mean-shift跟踪方法。该方法通过SIFT算法获得初始时刻目标的位置,然后在后续每帧视频序列该位置处仅采用MeanShift算法对目标进行定位。该方法虽然在正常运动情况下能够跟踪目标,但是当目标出现较大尺度变化或者遮挡时,会出现跟踪误差大甚至跟踪失败的问题。
发明内容
针对现有技术存在的不足,本发明的目的是提供一种可以避免目标跟踪过程中遇到尺度变化、遮挡、旋转和快速运动等复杂情况导致跟踪性能变差,实现目标的稳定跟踪的目标跟踪方法。
为了实现上述目的,本发明采取如下的技术解决方案:
基于特征匹配和MeanShift算法的目标跟踪方法,包括以下步骤:输入图像序列,
步骤1、采用基于RGB颜色模型的方法对图像序列进行背景重构,然后采用背景差分法获得初始时刻的目标区域,并对初始时刻的目标区域采用MeanShift算法进行建模,得到初始时刻的目标区域模型;
步骤2、对初始时刻的目标区域模型进行SIFT特征提取,将初始时刻的目标区域模型的SIFT特征点作为特征库的初始特征点;
步骤3、从图像序列中输入单帧图像,通过SIFT特征匹配计算当前帧目标的初始位置、尺度参数和旋转参数,步骤如下:
步骤3-1、在当前帧的候选目标搜索区域提取SIFT特征点;
步骤3-2、将SIFT特征点与特征库中的特征点进行匹配,并消除误匹配对,获得正确匹配对;
步骤3-3、采用仿射变换模型,通过正确匹配对计算当前帧的候选目标搜索区域与前一帧初始时刻的目标区域模型之间的变换参数;
仿射变换矩阵
目标区域与候选目标搜索区域间的点坐标变换关系
其中,[x,y]T和分别表示前一帧和当前帧匹配的点的坐标,H2和H5为前一帧初始时刻的目标区域模型相对当前帧候选目标搜索区域的平移量,H0、H1、H3、H4为尺度参数和旋转参数;
步骤3-4、利用目标区域和候选目标搜索区域间的点坐标关系计算当前帧目标的初始位置以及相对于前一帧目标的尺度参数和旋转参数,进行目标初步定位;
步骤4、对当前帧目标进行精确定位;
步骤4-1、在步骤3-4获得的当前帧目标的初始位置处采用MeanShift算法建立候选目标模型;
步骤4-2、计算初始时刻的目标区域模型与候选目标模型的相似性系数ρ(xcen,ycen):
其中,p(xcen,ycen,)为候选目标模型的颜色特征概率密度分布,q为目标模型的颜色特征概率密度分布,pu(xcen,,ycen,)为候选目标模型在颜色特征值为u时的概率密度,qu表示目标模型在颜色特征值为u时的概率密度,p(x0,y0)为中心坐标在点(x0,y0)处的目标模型的颜色特征概率密度分布,Ch为候选目标模型在颜色特征值为u时的概率密度中的归一化常数,wi是权值系数,u为颜色直方图的颜色索引,(xcen,,ycen,)为候选目标模型的中心坐标,(xi′,yi′)为候选目标模型中第i个像素的坐标,(x0,y0)为初始时刻的目标区域模型的中心坐标,nh为候选目标模型的总像素点数;
步骤4-3、采用MeanShift算法对目标进行精确定位;
步骤5、计算当前帧目标的遮挡因子,判断目标的遮挡程度,确定目标的跟踪模式;
步骤5-1、计算目标的遮挡因子其中,λ为遮挡程度参量;
步骤5-2、根据目标的遮挡因子occ判断目标的遮挡程度,当occ<阈值th1时执行步骤5-2-1,否则执行步骤5-2-2;
步骤5-2-1、当occ<阈值th1时,认为目标没有被遮挡,对特征库和目标模板进行更新;更新后,如果图像序列中还有图像要继续跟踪,则读入下一帧图像,返回执行步骤3;
步骤5-2-2、当occ>阈值th1时,认为目标被遮挡,进入遮挡跟踪模式,当跳出遮挡跟踪模式时,对特征库和目标模板进行更新;更新后,如果图像序列中还有图像要继续跟踪,读入下一帧图像,返回执行步骤3;
步骤6、图像序列中的所有图像跟踪完毕,结束目标跟踪。
进一步的,步骤1中基于RGB颜色模型进行背景重构的方法如下:从连续的M帧图像序列中抽取N帧图像构成图像子序列,N≤M;分别对图像子序列的每帧图像在每个点(x,y)处的RGB分量按照递增的顺序进行排序,形成数列RIR(x,y)、RIG(x,y)及RIB(x,y);分别取数列RIR(x,y)、RIG(x,y)、RIB(x,y)的中间值作为背景图像的RGB分量在该点的像素值。
进一步的,步骤1中采用背景差分法获得初始时刻的目标区域的步骤如下:对背景重构后的图像中每个像素点的R、G、B分量分别进行处理,得到三个通道的差分图像:
DR(x,y)=|fR(x,y)-BR(x,y)|
DG(x,y)=|fG(x,y)-BG(x,y)|;
DB(x,y)=|fB(x,y)-BB(x,y)|
其中,fR(x,y)、fG(x,y)、fB(x,y)为图像f(x,y)的RGB分量,(x,y)为像素点的空间坐标;
对差分图像进行阈值化处理得到初始时刻的目标区域:
RGB三个通道的平均差分图像
阈值化处理结果图像
其中,TH为目标检测阈值。
进一步的,步骤1中采用MeanShift算法进行目标建模的步骤如下:将初始时刻的目标区域的颜色直方图划分为m个子区间,计算目标模型的颜色特征概率密度分布,进行初始时刻的目标区域建模;
目标模型的颜色特征概率密度分布q={qu}u=1…m,
其中,u为颜色直方图的颜色索引,qu表示目标模型在颜色特征值为u时的概率密度。
进一步的,步骤3-1中用Kalman滤波法预测出当前帧的目标区域,以该目标区域中心为中心、长宽按比例扩大后得到的矩形区域作为当前帧的候选目标搜索区域。
进一步的,步骤3-2中采用随机抽样一致算法消除误匹配对。
进一步的,步骤5-2-1中更新特征库的步骤如下:
将初始时刻的目标区域模型的SIFT特征点作为特征库的初始特征点,对特征库中每个特征点的可信度赋予一个初始值;
若当前帧的候选目标搜索区域提取的SIFT特征点在特征库中能找到正确匹配点,则用当前帧中相应的特征点替换其在特征库匹配的特征点,并使该特征点的可信度加1;若候选目标区域提取的SIFT特征点在特征库中未找到相匹配的特征点,则将该特征点添加至特征库中,并对该特征点的可信度赋予初始值;
若特征库中的某特征点在当前帧的候选目标搜索区域未找到相匹配的特征点,则使该特征点的可信度减1,当特征库中某特征点的可信度为0,将该特征点丢弃;
目标模板更新是指将当前帧通过MeanShift算法精确定位后所获得的目标区域作为新的目标模板。
进一步的,步骤5-2-2中遮挡跟踪的步骤如下:
采用Kalman滤波估计目标被遮挡时在当前帧的位置,得到候选目标区域;
计算Kalman滤波预测的候选目标区域与进入遮挡模式时的前一帧的目标区域的归一化互相关系数;
当归一化互相关系数的最大值大于设定阈值时,认为目标离开遮挡区域,跳出遮挡跟踪模式,以归一化互相关系数的最大值对应的目标位置为当前帧目标位置,对特征库和目标模板进行更新,进入下一帧的跟踪。
本发明方法通过采取以下措施,提高目标跟踪的精度:第一,通过SIFT进行初始定位,克服旋转、缩放、遮挡等对目标跟踪的影响,然后利用MeanShift精确定位,提高目标定位精度;第二,为了保证特征提取与特征匹配的稳定性,采用特征库动态更新的SIFT特征匹配,大大提高了匹配的精度;第三,通过计算目标的遮挡因子来确定目标的跟踪模式,如果遮挡因子大于阈值则进入遮挡跟踪模式,否则对特征库进行更新,然后进入下一帧的跟踪。本发明将MeanShift算法和SIFT特征匹配算法结合起来,充分发挥二者的优势,实现目标的稳定跟踪。
附图说明
图1为本发明方法的流程图;
图2a至图2c分别是采用本发明方法与现有的两种目标跟踪方法的跟踪结果图;
图3a至图3c分别是采用本发明方法与现有的两种目标跟踪方法的跟踪结果图;
图4a至图4c分别是采用本发明方法与现有的两种目标跟踪方法的跟踪结果图;
图5a至图5c是本发明方法与现有的目标跟踪方法的跟踪误差对比图。
具体实施方式
为了让本发明的上述和其它目的、特征及优点能更明显,下文特举本发明实施例,并配合所附图示,做详细说明如下。
本发明方法的基本思路是:利用SIFT特征匹配对目标进行初始定位,利用MeanShift算法对目标精确定位,其整个过程分为五大步骤,首先,采用基于RGB颜色模型的方法进行背景重构,然后采用背景差分法获得初始时刻的目标区域,并对其采用MeanShift算法进行建模;其次,对目标区域进行SIFT特征提取,将初始时刻目标区域的SIFT特征点作为特征库的初始特征点;再次,采用Kalman滤波预测当前帧目标区域的位置,以此为中心、在长宽扩大一定比例的候选区域内进行SIFT特征提取,并与特征库中的特征点进行匹配,计算出当前帧目标的初始位置、尺度参数和旋转参数;接着,采用MeanShift算法对目标进行精确定位;最后,通过计算目标的遮挡因子判断目标的遮挡程度,如果遮挡因子大于阈值,则进入遮挡跟踪模式,否则对特征库进行更新,进入下一帧的跟踪。
以上是本发明的核心思想,下面将结合本发明实施例中的附图,对本发明实施例的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下获得的所有其他实施例,都属于本发明保护的范围。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其它不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
参照图1,图1为本发明方法的流程图,本发明方法的步骤如下:输入图像序列,
步骤1、采用基于RGB颜色模型的方法对图像序列进行背景重构,然后采用背景差分法获得初始时刻的目标区域,并对初始时刻的目标区域采用MeanShift算法进行建模,得到初始时刻的目标区域模型;
步骤1中基于RGB颜色模型进行背景重构的方法具体如下:从连续的M帧图像序列(f1,f2,…,fM)中抽取N帧图像构成图像子序列,可记为I1,I2,…,IN,N≤M,每帧图像的大小为W×H;分别对图像子序列的N帧图像在每个点(x,y)处的RGB分量按照递增的顺序进行排序,x=1,…,W,y=1,…H,i=1,2,…,N,形成数列RIR(x,y)、RIG(x,y)及RIB(x,y),分别取数列RIR(x,y)、RIG(x,y)、RIB(x,y)的中间值作为背景图像的RGB分量在该点的像素值,记为BR(x,y)、BG(x,y)、BB(x,y);
采用背景差分法对背景重构后的图像中每个像素点的R、G、B分量分别进行处理,得到三个通道的差分图像:
DR(x,y)=|fR(x,y)-BR(x,y)|
DG(x,y)=|fG(x,y)-BG(x,y)|;
DB(x,y)=|fB(x,y)-BB(x,y)|
其中,fR(x,y)、fG(x,y)、fB(x,y)为图像f(x,y)的RGB分量,(x,y)为像素点的空间坐标;
对差分图像进行阈值化处理得到前景目标——要检测的目标区域,获得初始时刻的目标区域,将初始时刻的目标区域作为当前帧的初始目标模板:
RGB三个通道的平均差分图像
阈值化处理结果图像
其中,TH为目标检测阈值,当差分图像中某一像素大于该阈值时,则认为该像素是前景像素,否则为背景像素;本发明可采用最大类间方差法确定目标检测阈值;
由于本发明仅仅对单目标跟踪,只需对初始时刻的图像序列采用背景差分法进行目标检测,然后对检测到的目标进行跟踪,因此,不需要对背景图像进行更新;
采用MeanShift算法进行目标建模时,将采用背景差分法获得的初始时刻的目标区域的颜色直方图划分为m个子区间,即将颜色特征空间量化成m个特征值,然后计算初始时刻的目标模型的颜色特征概率密度分布,从而进行初始时刻的目标区域建模;
目标模型的颜色特征概率密度分布q={qu}u=1…m,
其中,u为颜色直方图的颜色索引,u=1,…,m,qu表示目标模型在颜色特征值为u时的概率密度, C为归一化常数,k(·)表示核函数,(xi,yi)为目标区域中第i个像素的坐标,(x0,y0)为目标区域的中心坐标,h为核函数的带宽,n为目标区域的总像素点数,δ(·)表示Delta函数,b(xi,yi)表示(xi,yi)处的颜色特征值,δ[b(xi,yi)-u]的作用是判断目标区域中像素(xi,yi)处的颜色特征值是否等于颜色特征值u,若等于则值为1,否则为0;
步骤2、对步骤1得到的初始时刻的目标区域模型进行SIFT特征提取,将初始时刻的目标区域模型的SIFT特征点作为特征库的初始特征点;
步骤3、读入图像序列中的一帧图像,通过SIFT特征匹配计算当前帧目标的初始位置、尺度参数和旋转参数,具体步骤如下:
步骤3-1、在当前帧的候选目标搜索区域提取SIFT特征点;采用Kalman滤波法预测出当前帧的目标区域,将以该目标区域的中心为中心、长宽按一定比例扩大后得到的矩形区域作为当前帧的候选目标搜索区域,其中长、宽扩大的比例可以根据实际情况进行设定,当目标速度比较快时搜索区域的长宽可以扩大的更大一些,反之则相反;
步骤3-2、将步骤3-1得到的SIFT特征点与特征库中的特征点进行匹配,采用随机抽样一致(RandomSampleConsensus,RANSAC)算法消除误匹配对,获得正确匹配对;
步骤3-3、采用仿射变换模型,通过正确匹配对计算当前帧的候选目标搜索区域与前一帧初始时刻的目标区域模型之间的变换参数,变换参数包括初始位置、尺度参数和旋转参数;若当前帧图像为图像序列中的第一帧图像时,则计算第一帧图像的候选目标搜索区域与第一帧图像的初始时刻的目标区域模型之间的变换参数;
仿射变换矩阵
目标区域与候选目标搜索区域间的点坐标变换关系
其中,[x,y]T和分别表示前一帧和当前帧匹配点的坐标,H2和H5表示前一帧初始时刻的目标区域模型相对当前帧候选目标搜索区域的平移量,H2为水平平移量,H5为垂直平移量,H0、H1、H3、H4为尺度参数和旋转参数,共同决定了图像的尺度和旋转量,H0、H1、H3、H4分别是s*cosθ、-s*sinθ、s*sinθ、s*cosθ,其中s表示图像尺度,θ表示图像旋转角度,即
步骤3-4、利用目标区域和候选目标搜索区域间的点坐标关系计算当前帧目标的初始位置以及相对于前一帧目标的尺度参数和旋转参数,进行目标初定位;
步骤4、对当前帧目标进行精确定位;
步骤4-1、在步骤3-4获得的当前帧目标的初始位置处采用MeanShift算法建立候选目标模型,其建模的方法与步骤1中采用MeanShift算法进行目标建模的方法相同;
步骤4-2、计算步骤1得到的初始时刻的目标区域模型与候选目标模型的相似性系数ρ(xcen,ycen):
其中,p(xcen,ycen,)为候选目标模型的颜色特征概率密度分布,q为目标模型的颜色特征概率密度分布,pu(xcen,,ycen,)为候选目标模型在颜色特征值为u时的概率密度,qu表示目标模型在颜色特征值为u时的概率密度,p(x0,y0)为中心坐标在点(x0,y0)处的目标模型的颜色特征概率密度分布,Ch为候选目标模型在颜色特征值为u时的概率密度中的归一化常数,wi是权值系数,u为颜色直方图的颜色索引,p(xcen,ycen)={pu(xcen,ycen)}u=1…m,(xcen,,ycen,)为候选目标区域模型的中心坐标,(xi′,yi′)为候选目标区域模型中第i个像素的坐标,(x0,y0)为初始时刻的目标区域模型的中心坐标,nh为候选目标区域模型的总像素点数;
本步骤中的相似性系数ρ(xcen,ycen)为Bhattacharraya系数,Bhattacharraya系数越大,两物体越相似,步骤4-3所述的目标精确位置就是通过对相似性系数ρ(xcen,ycen)的第二项进行优化而确定的;
步骤4-3、采用MeanShift算法对目标进行精确定位;
MeanShift算法对目标进行精确定位的过程就是不断迭代计算当前帧新目标中心位置的过程,随着新目标中心位置的收敛,即相邻两次迭代计算获得的新目标中心位置的距离小于经验阈值ε,如小于0.5,或者迭代计算次数达到设定的最大迭代次数时,如达到100次时,认为相似性系数ρ(xcen,ycen)达到最优,然后将此时的新目标中心位置作为目标最终中心位置,完成目标的精确定位,停止迭代;
新目标中心位置 其中,g(·)=-k′(·),k′(·)表示对k(·)求导;
步骤5、计算当前帧目标的遮挡因子,判断目标的遮挡程度,确定目标的跟踪模式;
步骤5-1、计算目标的遮挡因子其中,λ∈[1,∞)为遮挡程度参量,其为经验值,本实施例中λ=1.2,当tu>1时,目标的第u个颜色特征被部分遮挡,当tu=-1时,目标的第u个颜色特征被全部遮挡;
步骤5-2、根据目标的遮挡因子occ判断目标的遮挡程度,当occ<阈值th1时执行步骤5-2-1,否则执行步骤5-2-2;
步骤5-2-1、当occ<th1时,th1∈(0,1),认为目标没有被遮挡,对特征库和目标模板进行更新;更新后,如果图像序列中还有图像要继续跟踪,则读入下一帧图像,返回执行步骤3,进入下一帧的跟踪;本实施例中th1为经验值,本实施例中th1=0.65;
步骤5-2-1中更新特征库的步骤如下:
将初始时刻的目标区域模型的SIFT特征点作为特征库的初始特征点,对特征库中每个特征点的可信度赋予一个初始值coini,本实施例的coini为5;
若当前帧的候选目标搜索区域提取的SIFT特征点在特征库中能找到正确匹配点,则用当前帧中相应的特征点替换其在特征库匹配的特征点,并使该特征点的可信度加1;若候选目标区域提取的SIFT特征点在特征库中未找到相匹配的特征点,则将该特征点添加至特征库中,并对该特征点的可信度赋予初始值coini;
若特征库中的某特征点在当前帧的候选目标搜索区域未找到相匹配的特征点,则使该特征点的可信度减1,当特征库中某特征点的可信度为0,将该特征点丢弃;
目标模板更新是指将当前帧通过MeanShift算法精确定位后所获得的目标区域作为新的目标模板;
步骤5-2-2、当occ>th1时,认为目标被遮挡,停止对特征库的更新,进入遮挡跟踪模式,当跳出遮挡跟踪模式时,对特征库的特征点和目标模板进行更新,更新后如果图像序列中还有图像要继续跟踪,读入下一帧图像,返回执行步骤3;
步骤5-2-2中遮挡跟踪的步骤如下:采用Kalman滤波对当前帧目标运动轨迹进行预测和跟踪,即采用Kalman滤波估计目标被遮挡时在当前帧的位置,得到候选目标区域;
为了使目标在离开遮挡区域时能够更加准确的被检测到,计算Kalman滤波预测的候选目标区域与初始时刻的目标区域的归一化互相关系数;
归一化互相关系数
其中,T(i,j)为进入遮挡模式时的前一帧的目标区域在点(i,j)的像素值,m和n分别为进入遮挡模式时的前一帧的目标区域的长和宽,S(i+xncc,j+yncc)为候选目标区域在点(i+xncc,j+yncc)处的像素值,(xncc,yncc,)为搜索子图的左下角顶点在候选目标区域中的坐标,和分别为搜索子图的灰度平均值和进入遮挡模式时的前一帧的目标区域的灰度平均值,搜索子图S(xncc,yncc)是指初始时刻的目标区域在候选目标区域上平移时初始时刻的目标区域所覆盖的部分;
当归一化互相关系数的最大值大于设定阈值时,如大于0.7时,认为目标离开遮挡区域,跳出遮挡跟踪模式,以归一化互相关系数的最大值对应的目标位置为当前帧目标位置,对特征库的特征点及目标模板进行更新,更新方法与步骤5-2-1的更新方法相同,进入下一帧的跟踪;
步骤6、图像序列中的所有图像跟踪完毕,结束目标跟踪。
本发明方法通过SIFT特征匹配获得目标的初始位置,利用MeanShift算法对目标精确定位,采用遮挡因子来确定目标的跟踪模式,从而获得更强的跟踪鲁棒性。本发明方法中的阈值、初始值的赋值都是根据经验设置的经验值。
图2a至图2c分别是采用本发明方法和传统SIFT方法及传统MeanShift方法对视频序列进行跟踪的结果图,其中输入的视频序列的目标存在小尺度变化和旋转,图中从左到右分别表示视频序列的第1、9、22、31、52帧。图3a至图3c分别是采用本发明方法和核函数带宽增加±10%的MeanShift方法及传统MeanShift方法对视频序列进行跟踪的结果图,其中输入的视频序列的目标存在较大的尺度变化,图中从左到右分别是视频序列的第1、40、60、120、170帧。图4a至图4c分别是采用本发明方法、传统的SIFT方法及传统MeanShift方法对视频序列进行跟踪的结果图,其中输入的视频序列的目标存在遮挡,图中从左到右分别是视频序列的第13、15、22、27、30帧。图5a是采用本发明方法与SIFT方法及传统MeanShift方法的跟踪误差对比图;图5b是采用本发明方法与核函数带宽增加±10%增量的MeanShift方法及传统MeanShift方法的跟踪误差对比图;图5c是采用本发明方法与SIFT方法即传统MeanShift方法的跟踪误差对比图。由上述对比图可以看出,本发明对目标存在遮挡、快速运动及尺度变化等情况时均具有较强的跟踪鲁棒性。
以上所述,仅是本发明的较佳实施例而已,并非对本发明做任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容做出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (8)
1.基于特征匹配和MeanShift算法的目标跟踪方法,其特征在于,包括以下步骤:输入图像序列,
步骤1、采用基于RGB颜色模型的方法对图像序列进行背景重构,然后采用背景差分法获得初始时刻的目标区域,并对初始时刻的目标区域采用MeanShift算法进行建模,得到初始时刻的目标区域模型;
步骤2、对初始时刻的目标区域模型进行SIFT特征提取,将初始时刻的目标区域模型的SIFT特征点作为特征库的初始特征点;
步骤3、从图像序列中输入单帧图像,通过SIFT特征匹配计算当前帧目标的初始位置、尺度参数和旋转参数,步骤如下:
步骤3-1、在当前帧的候选目标搜索区域提取SIFT特征点;
步骤3-2、将SIFT特征点与特征库中的特征点进行匹配,并消除误匹配对,获得正确匹配对;
步骤3-3、采用仿射变换模型,通过正确匹配对计算当前帧的候选目标搜索区域与前一帧初始时刻的目标区域模型之间的变换参数;
仿射变换矩阵
目标区域与候选目标搜索区域间的点坐标变换关系
其中,[x,y]T和分别表示前一帧和当前帧匹配的点的坐标,H2和H5为前一帧初始时刻的目标区域模型相对当前帧候选目标搜索区域的平移量,H0、H1、H3、H4为尺度参数和旋转参数;
步骤3-4、利用目标区域和候选目标搜索区域间的点坐标关系计算当前帧目标的初始位置以及相对于前一帧目标的尺度参数和旋转参数,进行目标初步定位;
步骤4、对当前帧目标进行精确定位;
步骤4-1、在步骤3-4获得的当前帧目标的初始位置处采用MeanShift算法建立候选目标模型;
步骤4-2、计算初始时刻的目标区域模型与候选目标模型的相似性系数ρ(xcen,ycen):
其中,p(xcen,ycen)为候选目标模型的颜色特征概率密度分布,q为目标模型的颜色特征概率密度分布,pu(xcen,,ycen)为候选目标模型在颜色特征值为u时的概率密度,qu表示目标模型在颜色特征值为u时的概率密度,p(x0,y0)为中心坐标在点(x0,y0)处的目标模型的颜色特征概率密度分布,Ch为候选目标模型在颜色特征值为u时的概率密度中的归一化常数,wi是权值系数,u为颜色直方图的颜色索引,(xcen,,ycen)为候选目标模型的中心坐标,(x′i,y′i)为候选目标模型中第i个像素的坐标,(x0,y0)为初始时刻的目标区域模型的中心坐标,nh为候选目标模型的总像素点数;
步骤4-3、采用MeanShift算法对目标进行精确定位;
步骤5、计算当前帧目标的遮挡因子,判断目标的遮挡程度,确定目标的跟踪模式;
步骤5-1、计算目标的遮挡因子其中,
步骤5-2、根据目标的遮挡因子occ判断目标的遮挡程度,当occ<阈值th1时执行步骤5-2-1,否则执行步骤5-2-2;
步骤5-2-1、当occ<阈值th1时,认为目标没有被遮挡,对特征库和目标模板进行更新;更新后,如果图像序列中还有图像要继续跟踪,则读入下一帧图像,返回执行步骤3;
步骤5-2-2、当occ>阈值th1时,认为目标被遮挡,进入遮挡跟踪模式,当跳出遮挡跟踪模式时,对特征库和目标模板进行更新;更新后,如果图像序列中还有图像要继续跟踪时,读入下一帧图像,返回执行步骤3;
步骤6、图像序列中的所有图像跟踪完毕,结束目标跟踪。
2.如权利要求1所述的基于特征匹配和MeanShift算法的目标跟踪方法,其特征在于:所述步骤1中基于RGB颜色模型进行背景重构的方法如下:从连续的M帧图像序列中抽取N帧图像构成图像子序列,N≤M;分别对图像子序列的每帧图像在每个点(x,y)处的RGB分量按照递增的顺序进行排序,形成数列RIR(x,y)、RIG(x,y)及RIB(x,y);分别取数列RIR(x,y)、RIG(x,y)、RIB(x,y)的中间值作为背景图像的RGB分量在该点的像素值。
3.如权利要求1所述的基于特征匹配和MeanShift算法的目标跟踪方法,其特征在于:所述步骤1中采用背景差分法获得初始时刻的目标区域的步骤如下:对背景重构后的图像中每个像素点的R、G、B分量分别进行处理,得到三个通道的差分图像:
DR(x,y)=|fR(x,y)-BR(x,y)|
DG(x,y)=|fG(x,y)-BG(x,y)|;
DB(x,y)=|fB(x,y)-BB(x,y)|
其中,fR(x,y)、fG(x,y)、fB(x,y)为图像f(x,y)的RGB分量,(x,y)为像素点的空间坐标;
对差分图像进行阈值化处理得到初始时刻的目标区域:
RGB三个通道的平均差分图像
阈值化处理结果图像
其中,TH为目标检测阈值。
4.如权利要求1所述的基于特征匹配和MeanShift算法的目标跟踪方法,其特征在于:所述步骤1中采用MeanShift算法进行目标建模的步骤如下:将初始时刻的目标区域的颜色直方图划分为m个子区间,计算目标模型的颜色特征概率密度分布,进行初始时刻的目标区域建模;
目标模型的颜色特征概率密度分布q={qu}u=1...m,
其中,u为颜色直方图的颜色索引,qu表示目标模型在颜色特征值为u时的概率密度。
5.如权利要求1所述的基于特征匹配和MeanShift算法的目标跟踪方法,其特征在于:所述步骤3-1中用Kalman滤波法预测出当前帧的目标区域,以该目标区域的中心为中心、长宽按比例扩大后得到的矩形区域作为当前帧的候选目标搜索区域。
6.如权利要求1所述的基于特征匹配和MeanShift算法的目标跟踪方法,其特征在于:所述步骤3-2中采用随机抽样一致算法消除误匹配对。
7.如权利要求1所述的基于特征匹配和MeanShift算法的目标跟踪方法,其特征在于:所述步骤5-2-1中更新特征库的步骤如下:
将初始时刻的目标区域模型的SIFT特征点作为特征库的初始特征点,对特征库中每个特征点的可信度赋予一个初始值;
若当前帧的候选目标搜索区域提取的SIFT特征点在特征库中能找到正确匹配点,则用当前帧中相应的特征点替换其在特征库匹配的特征点,并使该特征点的可信度加1;若候选目标区域提取的SIFT特征点在特征库中未找到相匹配的特征点,则将该特征点添加至特征库中,并对该特征点的可信度赋予初始值;
若特征库中的某特征点在当前帧的候选目标搜索区域未找到相匹配的特征点,则使该特征点的可信度减1,当特征库中某特征点的可信度为0,将该特征点丢弃;
目标模板更新是指将当前帧通过MeanShift算法精确定位后所获得的目标区域作为新的目标模板。。
8.如权利要求1所述的基于特征匹配和MeanShift算法的目标跟踪方法,其特征在于:所述步骤5-2-2中遮挡跟踪的步骤如下:
采用Kalman滤波估计目标被遮挡时在当前帧的位置,得到候选目标区域;
计算Kalman滤波预测的候选目标区域与进入遮挡模式时的前一帧的目标区域的归一化互相关系数;
当归一化互相关系数的最大值大于设定阈值时,认为目标离开遮挡区域,跳出遮挡跟踪模式,以归一化互相关系数的最大值对应的目标位置为当前帧目标位置,对特征库和目标模板进行更新,进入下一帧的跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510573979.6A CN105335986B (zh) | 2015-09-10 | 2015-09-10 | 基于特征匹配和MeanShift算法的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510573979.6A CN105335986B (zh) | 2015-09-10 | 2015-09-10 | 基于特征匹配和MeanShift算法的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105335986A true CN105335986A (zh) | 2016-02-17 |
CN105335986B CN105335986B (zh) | 2018-11-30 |
Family
ID=55286491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510573979.6A Active CN105335986B (zh) | 2015-09-10 | 2015-09-10 | 基于特征匹配和MeanShift算法的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105335986B (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105825525A (zh) * | 2016-03-16 | 2016-08-03 | 中山大学 | 一种基于Mean-shift模型优化的TLD目标跟踪方法及其装置 |
CN106920249A (zh) * | 2017-02-27 | 2017-07-04 | 西北工业大学 | 空间机动目标的快速追踪方法 |
CN106920253A (zh) * | 2017-02-10 | 2017-07-04 | 华中科技大学 | 一种基于遮挡分层的多目标跟踪方法 |
CN107424175A (zh) * | 2017-07-20 | 2017-12-01 | 西安电子科技大学 | 一种结合时空上下文信息的目标跟踪方法 |
CN107492113A (zh) * | 2017-06-01 | 2017-12-19 | 南京行者易智能交通科技有限公司 | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 |
WO2018121287A1 (zh) * | 2016-12-30 | 2018-07-05 | 纳恩博(北京)科技有限公司 | 目标再识别方法和装置 |
CN108447073A (zh) * | 2017-11-22 | 2018-08-24 | 西北工业大学 | 一种基于dsp的无人空中加受油激光视觉跟踪方法 |
CN108491816A (zh) * | 2018-03-30 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 在视频中进行目标跟踪的方法和装置 |
CN108492318A (zh) * | 2018-03-01 | 2018-09-04 | 西北工业大学 | 一种基于仿生技术的目标跟踪的方法 |
CN108614451A (zh) * | 2018-04-12 | 2018-10-02 | 西北工业大学 | 一种磁场模拟器实时干扰控制方法 |
CN108830885A (zh) * | 2018-05-31 | 2018-11-16 | 北京空间飞行器总体设计部 | 一种基于多向差分残差能量相关的检测虚警抑制方法 |
CN109000582A (zh) * | 2018-03-15 | 2018-12-14 | 杭州思看科技有限公司 | 跟踪式三维扫描装置的扫描方法及系统、存储介质、设备 |
CN109087332A (zh) * | 2018-06-11 | 2018-12-25 | 西安电子科技大学 | 一种基于分块相关的遮挡检测方法 |
CN109118523A (zh) * | 2018-09-20 | 2019-01-01 | 电子科技大学 | 一种基于yolo的图像目标跟踪方法 |
CN109493367A (zh) * | 2018-10-29 | 2019-03-19 | 浙江大华技术股份有限公司 | 一种对目标对象进行跟踪的方法和设备 |
CN109949340A (zh) * | 2019-03-04 | 2019-06-28 | 湖北三江航天万峰科技发展有限公司 | 基于OpenCV的目标尺度自适应跟踪方法 |
CN109993767A (zh) * | 2017-12-28 | 2019-07-09 | 北京京东尚科信息技术有限公司 | 图像处理方法和系统 |
CN110051433A (zh) * | 2018-01-18 | 2019-07-26 | 上海舍成医疗器械有限公司 | 保持对目标进行跟踪的方法及其在图像引导手术中的应用 |
CN110458862A (zh) * | 2019-05-22 | 2019-11-15 | 西安邮电大学 | 一种遮挡背景下的运动目标跟踪方法 |
CN110517296A (zh) * | 2018-05-21 | 2019-11-29 | 北京京东尚科信息技术有限公司 | 目标跟踪方法、装置、存储介质及电子设备 |
CN110516528A (zh) * | 2019-07-08 | 2019-11-29 | 杭州电子科技大学 | 一种基于运动背景下的动目标检测和跟踪方法 |
CN110645999A (zh) * | 2018-06-26 | 2020-01-03 | 杭州海康威视数字技术股份有限公司 | 导航方法、装置、服务器、终端及存储介质 |
CN110659566A (zh) * | 2019-08-15 | 2020-01-07 | 重庆特斯联智慧科技股份有限公司 | 一种遮挡状态下的目标跟踪方法及系统 |
CN111652906A (zh) * | 2020-05-11 | 2020-09-11 | 中国科学院空间应用工程与技术中心 | 卫星视频地面动态目标旋转的自适应追踪方法、装置和设备 |
CN112232257A (zh) * | 2020-10-26 | 2021-01-15 | 青岛海信网络科技股份有限公司 | 一种交通异常确定方法、装置、设备及介质 |
CN113959341A (zh) * | 2021-10-14 | 2022-01-21 | 江苏科技大学 | 光学结构位移测量方法、系统及存储介质 |
CN117635506A (zh) * | 2024-01-24 | 2024-03-01 | 成都航天凯特机电科技有限公司 | 一种基于AI赋能Mean Shift算法的图像增强方法及装置 |
CN113959341B (zh) * | 2021-10-14 | 2024-04-26 | 江苏科技大学 | 光学结构位移测量方法、系统及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120130462A (ko) * | 2011-05-23 | 2012-12-03 | 동아대학교 산학협력단 | 객체의 특징점을 기반으로 한 객체 추적 방법 |
CN102999920A (zh) * | 2012-10-25 | 2013-03-27 | 西安电子科技大学 | 基于最近邻分类器和均值漂移的目标跟踪方法 |
CN103778785A (zh) * | 2012-10-23 | 2014-05-07 | 南开大学 | 一种基于停车场环境视频监控的车辆跟踪与检测方法 |
CN104021564A (zh) * | 2014-06-26 | 2014-09-03 | 广东工业大学 | 一种基于局部不变特征检测的自适应均值漂移算法 |
CN104036524A (zh) * | 2014-06-18 | 2014-09-10 | 哈尔滨工程大学 | 一种改进sift算法的快速目标跟踪方法 |
-
2015
- 2015-09-10 CN CN201510573979.6A patent/CN105335986B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120130462A (ko) * | 2011-05-23 | 2012-12-03 | 동아대학교 산학협력단 | 객체의 특징점을 기반으로 한 객체 추적 방법 |
CN103778785A (zh) * | 2012-10-23 | 2014-05-07 | 南开大学 | 一种基于停车场环境视频监控的车辆跟踪与检测方法 |
CN102999920A (zh) * | 2012-10-25 | 2013-03-27 | 西安电子科技大学 | 基于最近邻分类器和均值漂移的目标跟踪方法 |
CN104036524A (zh) * | 2014-06-18 | 2014-09-10 | 哈尔滨工程大学 | 一种改进sift算法的快速目标跟踪方法 |
CN104021564A (zh) * | 2014-06-26 | 2014-09-03 | 广东工业大学 | 一种基于局部不变特征检测的自适应均值漂移算法 |
Non-Patent Citations (3)
Title |
---|
ZHOU H, YUAN Y, SHI C: "Object tracking using SIFT features and mean shift", 《COMPUTER VISION AND IMAGE UNDERSTANDING》 * |
朱利成: "运动目标检测与跟踪算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
李昆: "基于SIFT特征和均值漂移的目标跟踪研究", 《中国优秀硕士学位论文全文集 信息科技辑》 * |
Cited By (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105825525A (zh) * | 2016-03-16 | 2016-08-03 | 中山大学 | 一种基于Mean-shift模型优化的TLD目标跟踪方法及其装置 |
CN108268823A (zh) * | 2016-12-30 | 2018-07-10 | 纳恩博(北京)科技有限公司 | 目标再识别方法和装置 |
CN108268823B (zh) * | 2016-12-30 | 2021-07-20 | 纳恩博(北京)科技有限公司 | 目标再识别方法和装置 |
WO2018121287A1 (zh) * | 2016-12-30 | 2018-07-05 | 纳恩博(北京)科技有限公司 | 目标再识别方法和装置 |
CN106920253A (zh) * | 2017-02-10 | 2017-07-04 | 华中科技大学 | 一种基于遮挡分层的多目标跟踪方法 |
CN106920249A (zh) * | 2017-02-27 | 2017-07-04 | 西北工业大学 | 空间机动目标的快速追踪方法 |
CN107492113B (zh) * | 2017-06-01 | 2019-11-05 | 南京行者易智能交通科技有限公司 | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 |
CN107492113A (zh) * | 2017-06-01 | 2017-12-19 | 南京行者易智能交通科技有限公司 | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 |
CN107424175B (zh) * | 2017-07-20 | 2020-09-08 | 西安电子科技大学 | 一种结合时空上下文信息的目标跟踪方法 |
CN107424175A (zh) * | 2017-07-20 | 2017-12-01 | 西安电子科技大学 | 一种结合时空上下文信息的目标跟踪方法 |
CN108447073A (zh) * | 2017-11-22 | 2018-08-24 | 西北工业大学 | 一种基于dsp的无人空中加受油激光视觉跟踪方法 |
CN108447073B (zh) * | 2017-11-22 | 2020-09-08 | 西北工业大学 | 一种基于dsp的无人空中加受油激光视觉跟踪方法 |
CN109993767B (zh) * | 2017-12-28 | 2021-10-12 | 北京京东尚科信息技术有限公司 | 图像处理方法和系统 |
CN109993767A (zh) * | 2017-12-28 | 2019-07-09 | 北京京东尚科信息技术有限公司 | 图像处理方法和系统 |
CN110051433A (zh) * | 2018-01-18 | 2019-07-26 | 上海舍成医疗器械有限公司 | 保持对目标进行跟踪的方法及其在图像引导手术中的应用 |
CN108492318B (zh) * | 2018-03-01 | 2022-04-26 | 西北工业大学 | 一种基于仿生技术的目标跟踪的方法 |
CN108492318A (zh) * | 2018-03-01 | 2018-09-04 | 西北工业大学 | 一种基于仿生技术的目标跟踪的方法 |
CN109000582A (zh) * | 2018-03-15 | 2018-12-14 | 杭州思看科技有限公司 | 跟踪式三维扫描装置的扫描方法及系统、存储介质、设备 |
CN109000582B (zh) * | 2018-03-15 | 2021-07-02 | 杭州思看科技有限公司 | 跟踪式三维扫描装置的扫描方法及系统、存储介质、设备 |
CN108491816A (zh) * | 2018-03-30 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 在视频中进行目标跟踪的方法和装置 |
CN108614451A (zh) * | 2018-04-12 | 2018-10-02 | 西北工业大学 | 一种磁场模拟器实时干扰控制方法 |
CN108614451B (zh) * | 2018-04-12 | 2019-11-29 | 西北工业大学 | 一种磁场模拟器实时干扰控制方法 |
CN110517296B (zh) * | 2018-05-21 | 2022-06-07 | 北京京东尚科信息技术有限公司 | 目标跟踪方法、装置、存储介质及电子设备 |
CN110517296A (zh) * | 2018-05-21 | 2019-11-29 | 北京京东尚科信息技术有限公司 | 目标跟踪方法、装置、存储介质及电子设备 |
CN108830885A (zh) * | 2018-05-31 | 2018-11-16 | 北京空间飞行器总体设计部 | 一种基于多向差分残差能量相关的检测虚警抑制方法 |
CN108830885B (zh) * | 2018-05-31 | 2021-12-07 | 北京空间飞行器总体设计部 | 一种基于多向差分残差能量相关的检测虚警抑制方法 |
CN109087332B (zh) * | 2018-06-11 | 2022-06-17 | 西安电子科技大学 | 一种基于分块相关的遮挡检测方法 |
CN109087332A (zh) * | 2018-06-11 | 2018-12-25 | 西安电子科技大学 | 一种基于分块相关的遮挡检测方法 |
CN110645999A (zh) * | 2018-06-26 | 2020-01-03 | 杭州海康威视数字技术股份有限公司 | 导航方法、装置、服务器、终端及存储介质 |
CN109118523A (zh) * | 2018-09-20 | 2019-01-01 | 电子科技大学 | 一种基于yolo的图像目标跟踪方法 |
CN109118523B (zh) * | 2018-09-20 | 2022-04-22 | 电子科技大学 | 一种基于yolo的图像目标跟踪方法 |
CN109493367A (zh) * | 2018-10-29 | 2019-03-19 | 浙江大华技术股份有限公司 | 一种对目标对象进行跟踪的方法和设备 |
CN109493367B (zh) * | 2018-10-29 | 2020-10-30 | 浙江大华技术股份有限公司 | 一种对目标对象进行跟踪的方法和设备 |
CN109949340A (zh) * | 2019-03-04 | 2019-06-28 | 湖北三江航天万峰科技发展有限公司 | 基于OpenCV的目标尺度自适应跟踪方法 |
CN110458862A (zh) * | 2019-05-22 | 2019-11-15 | 西安邮电大学 | 一种遮挡背景下的运动目标跟踪方法 |
CN110516528A (zh) * | 2019-07-08 | 2019-11-29 | 杭州电子科技大学 | 一种基于运动背景下的动目标检测和跟踪方法 |
CN110659566A (zh) * | 2019-08-15 | 2020-01-07 | 重庆特斯联智慧科技股份有限公司 | 一种遮挡状态下的目标跟踪方法及系统 |
CN111652906B (zh) * | 2020-05-11 | 2021-04-20 | 中国科学院空间应用工程与技术中心 | 卫星视频地面动态目标旋转的自适应追踪方法、装置和设备 |
CN111652906A (zh) * | 2020-05-11 | 2020-09-11 | 中国科学院空间应用工程与技术中心 | 卫星视频地面动态目标旋转的自适应追踪方法、装置和设备 |
CN112232257B (zh) * | 2020-10-26 | 2023-08-11 | 青岛海信网络科技股份有限公司 | 一种交通异常确定方法、装置、设备及介质 |
CN112232257A (zh) * | 2020-10-26 | 2021-01-15 | 青岛海信网络科技股份有限公司 | 一种交通异常确定方法、装置、设备及介质 |
CN113959341A (zh) * | 2021-10-14 | 2022-01-21 | 江苏科技大学 | 光学结构位移测量方法、系统及存储介质 |
CN113959341B (zh) * | 2021-10-14 | 2024-04-26 | 江苏科技大学 | 光学结构位移测量方法、系统及存储介质 |
CN117635506A (zh) * | 2024-01-24 | 2024-03-01 | 成都航天凯特机电科技有限公司 | 一种基于AI赋能Mean Shift算法的图像增强方法及装置 |
CN117635506B (zh) * | 2024-01-24 | 2024-04-05 | 成都航天凯特机电科技有限公司 | 一种基于AI赋能Mean Shift算法的图像增强方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN105335986B (zh) | 2018-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105335986A (zh) | 基于特征匹配和MeanShift算法的目标跟踪方法 | |
Qin et al. | Monogrnet: A geometric reasoning network for monocular 3d object localization | |
CN106780557B (zh) | 一种基于光流法和关键点特征的运动目标跟踪方法 | |
CN105844669B (zh) | 一种基于局部哈希特征的视频目标实时跟踪方法 | |
CN104200495B (zh) | 一种视频监控中的多目标跟踪方法 | |
CN103106667A (zh) | 一种面向遮挡和场景变换的运动对象追踪方法 | |
CN104240266A (zh) | 基于颜色-结构特征的目标对象跟踪方法 | |
CN104851094A (zh) | 一种基于rgb-d的slam算法的改进方法 | |
CN104200485A (zh) | 一种面向视频监控的人体跟踪方法 | |
CN104036523A (zh) | 一种基于SURF特征的改进Mean Shift的目标跟踪方法 | |
CN104200488A (zh) | 一种基于图表示和匹配的多目标跟踪方法 | |
Qin et al. | Semantic loop closure detection based on graph matching in multi-objects scenes | |
CN104036524A (zh) | 一种改进sift算法的快速目标跟踪方法 | |
CN103886619A (zh) | 一种融合多尺度超像素的目标跟踪方法 | |
CN103927764A (zh) | 一种结合目标信息和运动估计的车辆跟踪方法 | |
Li et al. | Road extraction algorithm based on intrinsic image and vanishing point for unstructured road image | |
CN106780564A (zh) | 一种基于先验模型约束的抗干扰轮廓跟踪方法 | |
Li et al. | Visual slam in dynamic scenes based on object tracking and static points detection | |
CN102663773A (zh) | 视频目标的双核式自适应融合跟踪方法 | |
Lee et al. | Robust real-time RGB-D visual odometry in dynamic environments via rigid motion model | |
CN103996207A (zh) | 一种物体跟踪方法 | |
CN113092807A (zh) | 基于多目标跟踪算法的城市高架道路车辆测速方法 | |
CN100583153C (zh) | 一种基于背景抑制的后验概率图像跟踪方法 | |
Lu et al. | Hybrid deep learning based moving object detection via motion prediction | |
Chen et al. | Multi-neighborhood guided Kendall rank correlation coefficient for feature matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |