CN108022254A - 一种基于征点辅助的时空上下文目标跟踪方法 - Google Patents
一种基于征点辅助的时空上下文目标跟踪方法 Download PDFInfo
- Publication number
- CN108022254A CN108022254A CN201711098719.3A CN201711098719A CN108022254A CN 108022254 A CN108022254 A CN 108022254A CN 201711098719 A CN201711098719 A CN 201711098719A CN 108022254 A CN108022254 A CN 108022254A
- Authority
- CN
- China
- Prior art keywords
- target
- point
- feature
- frame
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 41
- 230000003287 optical effect Effects 0.000 claims abstract description 18
- 230000008859 change Effects 0.000 claims abstract description 12
- 230000000694 effects Effects 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于特征点辅助的时空上下文目标跟踪方法,包括如下步骤:S1,在初始帧选择目标框,并初始化时空上下文模型和目标特征点模型S2,在下一帧中利用特征点匹配和光流跟踪方法进行目标特征点追踪,并通过聚类得到目标特征点集,获得目标预估位置区域;S3,在目标预估位置区域建立局部上下文外观模型,再计算与时空上下文模型的相关性获得置信图,在置信图最大值位置获得目标最终位置;S4,根据跟踪结果,结合目标特征点数变化率来判断目标遮挡程度,控制时空上下文模型更新。本发明在背景干扰、遮挡、目标旋转和快速运动情况下,依然具有稳定的跟踪效果,具有较好的鲁棒性。
Description
技术领域
本发明属于计算机视觉领域,主要是基于视觉的目标跟踪,具体涉及一种基于特征点辅助的时空上下文目标跟踪方法。
背景技术
目标在线跟踪在军事侦查、视频监控、行为识别、人机交互和移动机器人跟踪导航等领域有着广泛的应用。但由于跟踪场景中往往存在多种因素的干扰,如目标旋转、背景光线变化、目标快速运动和遮挡,这些因素给动态目标跟踪带来巨大挑战。由于目标可能移出视野范围,在目标遮挡或者丢失重现时,跟踪算法需能够重新检测并跟踪目标。因此开发一种鲁棒性、高效性的跟踪方法具有重大意义。
发明内容
本发明的目的在于克服现有技术的不足,满足现有的需求,提供一种基于特征点辅助的时空上下文目标跟踪方法。该方法利用特征点追踪进行目标最终位置预估,再结合时空上下文信息进行精确定位,在背景干扰、遮挡、目标旋转和快速运动情况下进行跟踪。
为了实现上述目的,本发明提供一种基于特征点辅助的时空上下文目标跟踪方法,包括如下步骤:
S1,在初始帧选择目标框,并初始化时空上下文模型和目标特征点模型;
S2,在下一帧中利用特征点匹配和光流跟踪方法进行目标特征点追踪,并通过聚类得到目标特征点集,获得目标预估位置区域;
S3,在目标预估位置区域建立局部上下文外观模型,再计算与时空上下文模型的相关性获得置信图,在置信图最大值位置获得目标最终位置;
S4,根据跟踪结果,结合目标特征点数变化率来判断目标遮挡程度,控制时空上下文模型更新。
优选地,所述步骤S1中,所述目标特征点模型的初始化过程步骤具体包括:
针对初始帧图像,进行FAST特征点检测,根据特征点在初始目标框内外,分离出前景和背景部分的特征点,同时生成前景和背景特征点的BRISK特征描述子,并获得如下的目标特征点模型:
其中ri是特征点i在初始帧的位置(ri∈R2),fi∈{0,1}d为其对应的二进制特征描述子,d表示特征维数,flag为标志位,0、1分别表示背景点与前景点,NO代表目标O特征点总数,跟踪过程中特征点过多将增加耗时,较少又不足于表征目标,采用多个高低阈值进行FAST特征点提取,选择最佳阈值使初始化目标特征点个数保持在理想跟踪效果范围。
优选地,所述步骤S2中,采用光流跟踪方法进行特征点追踪的步骤具体包括:
为了适应目标的外观变化,采用光流对特征点进行连续追踪,在It帧中利用金字塔Lucas-Kanada光流法计算It-1帧中前景特征点Pt-1在It帧中的对应点Pt,再对It帧中对应点Pt计算逆向光流寻找其在It-1帧中的对应点P* t-1,在Pt中剔除前向或逆向光流中未匹配的点和||Pt-1-P* t-1||大于阈值的点,获得有效的跟踪点Tt。
优选地,所述步骤S2中,在It(t>1)帧图像中,目标特征点追踪关键在于寻找与目标特征点模型O中对应的目标特征点Kt:
其中ai表示It帧中第i个特征点的坐标位置,mi表示其在目标特征点模型O中对应点的索引值,通过索引值可以确定每一个特征点在目标特征模型中的对应点,具体包括步骤:
利用FAST特征点检测提取It帧中的特征点Qt,并计算其BRISK特征描述子,对于获得的特征点Qt
再与I1帧的目标特征点模型O中的特征点描述子逐一进行比较,计算其汉明距离,公式如下:
其中表示I1帧目标特征点模型O中特征点的第j维特征值,表示It帧特征点Qt的第j维特征值,D(f1,ft)表示I1帧目标特征点模型O中特征向量与It帧Qt特征向量的Hamming距离,XOR为异或运算;
对于Qt中的每个特征点计算其与目标特征点模型O中特征描述子的距离,并返回测量距离小于γ的一个最优匹配点和次优匹配点,若最优匹配点的测量距离相对较小,而次优匹配点的测量距离相对较大,那么最优匹配点是安全可靠的,若最优和次优匹配点的测量距离比值大于η时,表明两个候选匹配点的测量距离相近,选择其中之一作为匹配点易出错,故剔除此不安全的最优和次优匹配点;
同时利用各特征点对应的索引值mi,在Qt中去除匹配到目标特征点模型O中背景的点,得到有效的前景匹配点Mt;
通过将所述前景匹配点Mt与中值流跟踪法获得的特征点进行融合则获得It帧中目标特征点Kt={Tt∪Mt}。
优选地,所述步骤S2中,所述通过聚类得到目标特征点集的步骤具体包括:
为了排除误匹配的孤立特征点的干扰,对获得的目标特征点Kt进行层次凝聚聚类,类间距离小于δ的类进行合并,将获得的最大类作为最终的目标特征点V,根据特征点计算出目标中心位置其中n=|V|为V中特征点个数。
优选地,所述步骤S3中,所述在目标预估位置区域建立局部上下文外观模型,再计算与时空上下文模型的相关性获得置信图的步骤具体包括:
运用时空上下文跟踪算法公式计算时空上下文模型hsc(x):
置信度c(x)式中b是归一化系数,α是尺度参数,β是形状参数,β为1时能获得最佳效果,x为目标区域内像素点坐标,x*表示目标中心位置坐标;
先验概率P(v(z)|o)建模目标局部上下文外观模型,对与目标中心位置不同距离的点赋予不同的权重,构建局部上下文外观模型:
其中ωδ(z-x*)表示高斯权重函数为,a为归一化参数,σ为外观模型尺度参数,z表示目标周围局部域内点坐标,I(z)为z点像素值;
为了加快计算速度,在频率域内计算并得到时空上下文模型hsc(x):
式中表示卷积运算,其中F(·)表示快速傅里叶变换,F-1(·)表示傅里叶逆变换,时空上下文模型hsc(x)表征了目标与其时空上下文的内在关系。
优选地,所述步骤S3中,所述在置信图最大值位置获得目标最终位置的步骤具体包括:
目标最终位置的精确定位采用求取置信图最大值位置,以特征点跟踪获得的目标中心位置L*为中心,在目标两倍大小的局部区域内对上下文外观特征进行建模:
P(v(z)|o)=I(z)ωσ(z-L*);
对于第t+1帧图像,结合第t帧下获得的时空上下文模型求取当前帧的置信图,以t+1帧时的目标最终位置置信图中极大值的位置作为该帧中的目标最终位置,目标最终位置的精确位置为:
其中⊙表示矩阵点乘运算,为t+1帧基于特征点预估的目标中心位置,表示以为中心的局部区域。
优选地,为了适应跟踪环境的变化,需要以某一更新率引入当前时空上下文模型,完成时空上下文的学习更新。若采用固定学习率更新时空上下文模型,当目标出现遮挡时将导致错误更新,目标最终位置会出现漂移,即使遮挡结束也无法重新锁定目标。考虑到特征点的数量变化可以表征目标受遮挡的程度,遮挡越严重,检测到的目标特征点数目就会越少,因此,所述步骤S4中,所述时空上下文模型更新的机制具体包括:
在时空上下文模型中引入更新率调节参数ωt实时修正更新率为ρωt,当特征点数目减少时,降低更新率调节参数,避免目标区域相关信息的错误引入;当特征点数目较多时,增加更新率调节参数,极大的增强了引入时空上下文模型的可靠性,增强了算法抗遮挡性能和跟踪的稳定性:
式中为第t+1帧的时空上下文模型,ρ为更新率参数,λt表示第t帧中目标特征点个数与初始未遮挡时目标特征点个数的比值,μ为微调参数;当比值小于0.3时遮挡很严重,此时更新权重为0,模型不再更新;当比值小于0.7且大于等于0.3时为中度遮挡,μ取0.375对更新率进行微调;比值大于等于0.7时为轻微遮挡,更新率等于比值。
相比现有技术,本发明在背景干扰、遮挡、目标旋转和快速运动情况下,依然具有稳定的跟踪效果,具有较好的鲁棒性、高效性。
附图说明
图1是本发明实施例的跟踪方法流程示意图。
图2是Sylvester视频序列跟踪中心偏差曲线图。
图3是Woman视频序列跟踪中心偏差曲线图。
图4是CarDark视频序列跟踪中心偏差曲线图。
图5是FaceOcc1视频序列跟踪中心偏差曲线图。
图6是Jumping视频序列跟踪中心偏差曲线图。
图7是Coke视频序列跟踪中心偏差曲线图。
具体实施方式
为了更好地理解本发明,下面结合附图对本发明作进一步地描述:
如图1所示,一种基于特征点辅助的时空上下文目标跟踪方法,包括如下步骤:
S1,在初始帧选择目标框,并初始化时空上下文模型和目标特征点模型;
S2,在下一帧中利用特征点匹配和光流跟踪方法进行目标特征点追踪,并通过聚类得到目标特征点集,获得目标预估位置区域;
S3,在目标预估位置区域建立局部上下文外观模型,再计算与时空上下文模型的相关性获得置信图,在置信图最大值位置获得目标最终位置;
S4,根据跟踪结果,结合目标特征点数变化率来判断目标遮挡程度,控制时空上下文模型更新。
具体而言,所述步骤S1中,所述目标特征点模型的初始化过程步骤具体包括:
针对初始帧图像,进行FAST特征点检测,根据特征点在初始目标框内外,分离出前景和背景部分的特征点,同时生成前景和背景特征点的BRISK特征描述子,并获得如下的目标特征点模型:
其中ri是特征点i在初始帧的位置(ri∈R2),fi∈{0,1}d为其对应的二进制特征描述子,d表示特征维数,flag为标志位,0、1分别表示背景点与前景点,NO代表目标O特征点总数,跟踪过程中特征点过多将增加耗时,较少又不足于表征目标,采用多个高低阈值进行FAST特征点提取,选择最佳阈值使初始化目标特征点个数保持在理想跟踪效果范围。
具体而言,所述步骤S2中,采用光流跟踪方法进行特征点追踪的步骤具体包括:
为了适应目标的外观变化,采用光流对特征点进行连续追踪,在It帧中利用金字塔Lucas-Kanada光流法计算It-1帧中前景特征点Pt-1在It帧中的对应点Pt,再对It帧中对应点Pt计算逆向光流寻找其在It-1帧中的对应点P* t-1,在Pt中剔除前向或逆向光流中未匹配的点和||Pt-1-P* t-1||大于阈值的点,获得有效的跟踪点Tt。
具体而言,所述步骤S2中,在It(t>1)帧图像中,目标特征点追踪关键在于寻找与目标特征点模型O中对应的目标特征点Kt:
其中ai表示It帧中第i个特征点的坐标位置,mi表示其在目标特征点模型O中对应点的索引值,通过索引值可以确定每一个特征点在目标特征模型中的对应点,具体包括步骤:
利用FAST特征点检测提取It帧中的特征点Qt,并计算其BRISK特征描述子,对于获得的特征点Qt
再与I1帧的目标特征点模型O中的特征点描述子逐一进行比较,计算其汉明距离,公式如下:
其中表示I1帧目标特征点模型O中特征点的第j维特征值,表示It帧特征点Qt的第j维特征值,D(f1,ft)表示I1帧目标特征点模型O中特征向量与It帧Qt特征向量的Hamming距离,XOR为异或运算;
对于Qt中的每个特征点计算其与目标特征点模型O中特征描述子的距离,并返回测量距离小于γ的一个最优匹配点和次优匹配点,若最优匹配点的测量距离相对较小,而次优匹配点的测量距离相对较大,那么最优匹配点是安全可靠的,若最优和次优匹配点的测量距离比值大于η时,表明两个候选匹配点的测量距离相近,选择其中之一作为匹配点易出错,故剔除此不安全的最优和次优匹配点;
同时利用各特征点对应的索引值mi,在Qt中去除匹配到目标特征点模型O中背景的点,得到有效的前景匹配点Mt;
通过将所述前景匹配点Mt与中值流跟踪法获得的特征点进行融合则获得It帧中目标特征点Kt={Tt∪Mt}。
上述特征点匹配和光流跟踪方法融合增强目标特征点的鲁棒性。
具体而言,所述步骤S2中,所述通过聚类得到目标特征点集的步骤具体包括:
为了排除误匹配的孤立特征点的干扰,对获得的目标特征点Kt进行层次凝聚聚类,类间距离小于δ的类进行合并,将获得的最大类作为最终的目标特征点V,根据特征点计算出目标中心位置其中n=|V|为V中特征点个数。
具体而言,所述步骤S3中,所述在目标预估位置区域建立局部上下文外观模型,再计算与时空上下文模型的相关性获得置信图的步骤具体包括:
运用时空上下文跟踪算法公式计算时空上下文模型hsc(x):
置信度c(x)式中b是归一化系数,α是尺度参数,β是形状参数,β为1时能获得最佳效果,x为目标区域内像素点坐标,x*表示目标中心位置坐标;
先验概率P(v(z)|o)建模目标局部上下文外观模型,对与目标中心位置不同距离的点赋予不同的权重,构建局部上下文外观模型:
其中ωδ(z-x*)表示高斯权重函数为,a为归一化参数,σ为外观模型尺度参数,z表示目标周围局部域内点坐标,I(z)为z点像素值;
为了加快计算速度,在频率域内计算并得到时空上下文模型hsc(x):
式中表示卷积运算,其中F(·)表示快速傅里叶变换,F-1(·)表示傅里叶逆变换,时空上下文模型hsc(x)表征了目标与其时空上下文的内在关系。
具体而言,所述步骤S3中,所述在置信图最大值位置获得目标最终位置的步骤具体包括:
目标最终位置的精确定位采用求取置信图最大值位置,以特征点跟踪获得的目标中心位置L*为中心,在目标两倍大小的局部区域内对上下文外观特征进行建模:
P(v(z)|o)=I(z)ωσ(z-L*)
对于第t+1帧图像,结合第t帧下获得的时空上下文模型求取当前帧的置信图,以t+1帧时的目标最终位置置信图中极大值的位置作为该帧中的目标最终位置,目标最终位置的精确位置为:
其中⊙表示矩阵点乘运算,为t+1帧基于特征点预估的目标中心位置,表示以为中心的局部区域。
具体而言,为了适应跟踪环境的变化,需要以某一更新率引入当前时空上下文模型,完成时空上下文的学习更新。若采用固定学习率更新时空上下文模型,当目标出现遮挡时将导致错误更新,目标最终位置会出现漂移,即使遮挡结束也无法重新锁定目标。考虑到特征点的数量变化可以表征目标受遮挡的程度,遮挡越严重,检测到的目标特征点数目就会越少,因此,所述步骤S4中,所述时空上下文模型更新的机制具体包括:
在时空上下文模型中引入更新率调节参数ωt实时修正更新率为ρωt,当特征点数目减少时,降低更新率调节参数,避免目标区域相关信息的错误引入;当特征点数目较多时,增加更新率调节参数,极大的增强了引入时空上下文模型的可靠性,增强了算法抗遮挡性能和跟踪的稳定性:
式中为第t+1帧的时空上下文模型,ρ为更新率参数,λt表示第t帧中目标特征点个数与初始未遮挡时目标特征点个数的比值,μ为微调参数;当比值小于0.3时遮挡很严重,此时更新权重为0,模型不再更新;当比值小于0.7且大于等于0.3时为中度遮挡,μ取0.375对更新率进行微调;比值大于等于0.7时为轻微遮挡,更新率等于比值。
如一个实施例中,最终目标最终位置计算t+1帧的时空上下文模型根据层次聚类后特征点数相对目标初始特征点数的变化率得到t+1帧时的更新率ρωt+1,再计算更新后的时空上下文模型下一帧循环以上过程,进而完成目标的连续跟踪。
在另一实施例中,本发明通过6段具有不同挑战性的视频测试序列跟踪效果图,除了和传统的STC算法,还选用了当前比较热门的CT、TLD、OAB跟踪算法作比较。实验平台采用Inter Core i5,CPU主频2.5GHz的PC机,利用penCV2.4.9在VS2010上进行调试。实验中学习更新率ρ取0.075,微调参数μ取0.375,γ取0.25,η取0.8,δ取20。实验选用跟踪成功率和中心位置误差作为算法性能评估标准,跟踪成功率定义为跟踪成功帧数占总帧数的比值,对于跟踪分值大于0.5的认为跟踪成功。跟踪分值Sscore和中心位置误差e计算如下:
其中RT和RG分别表示跟踪结果区域和真实结果区域。(xT,yT)表示跟踪结果中心坐标,(xG,yG)表示真实目标中心坐标。
跟踪成功率和跟踪平均中心位置误差如表1所示,可以看出本文改进后的算法在平均跟踪成功率上比STC算法提高了73%,在对比跟踪算法中效果最优,平均跟踪成功率达到了90%。
表1跟踪成功率(η)与平均中心误差(加粗字体为该行最优,划横线字体为该行次优)
结合图2至图7中不同算法相应的跟踪中心位置误差曲线可知,本发明在各类测试视频中都具有较小的位置误差,平均中心位置误差为7.47pixel,在当前测试平台下跟踪速率平均25.31帧/秒。
本发明是一种快速有效的动态目标跟踪方法,通过目标中心先进行位置预估,有效避免了目标快速运动导致跟踪失败的问题;根据目标特征点数目变化,自适应地调节时空上下文模型的更新率,在遮挡情况下达到了更为可靠的跟踪效果;结合时空上下模型进行目标精确位置获取,能够在目标部分遮挡、快速运动、环境干扰等情况下进行有效跟踪。
本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (8)
1.一种基于特征点辅助的时空上下文目标跟踪方法,其特征在于,包括如下步骤:
S1,在初始帧选择目标框,并初始化时空上下文模型和目标特征点模型;
S2,在下一帧中利用特征点匹配和光流跟踪方法进行目标特征点追踪,并通过聚类得到目标特征点集,获得目标预估位置区域;
S3,在目标预估位置区域建立局部上下文外观模型,再计算与时空上下文模型的相关性获得置信图,在置信图最大值位置获得目标最终位置;
S4,根据跟踪结果,结合目标特征点数变化率来判断目标遮挡程度,控制时空上下文模型更新。
2.根据权利要求1所述基于特征点辅助的时空上下文目标跟踪方法,其特征在于,所述步骤S1中,所述目标特征点模型的初始化过程步骤具体包括:
针对初始帧图像,进行FAST特征点检测,根据特征点在初始目标框内外,分离出前景和背景部分的特征点,同时生成前景和背景特征点的BRISK特征描述子,并获得如下的目标特征点模型:
<mrow>
<mi>O</mi>
<mo>=</mo>
<msubsup>
<mrow>
<mo>{</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>f</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<mi>f</mi>
<mi>l</mi>
<mi>a</mi>
<mi>g</mi>
<mo>)</mo>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>N</mi>
<mi>O</mi>
</msub>
</msubsup>
</mrow>
其中ri是特征点i在初始帧的位置(ri∈R2),fi∈{0,1}d为其对应的二进制特征描述子,d表示特征维数,flag为标志位,0、1分别表示背景点与前景点,NO代表目标O特征点总数,跟踪过程中特征点过多将增加耗时,较少又不足于表征目标,采用多个高低阈值进行FAST特征点提取,选择最佳阈值使初始化目标特征点个数保持在理想跟踪效果范围。
3.根据权利要求1所述基于特征点辅助的时空上下文目标跟踪方法,其特征在于,所述步骤S2中,采用光流跟踪方法进行特征点追踪的步骤具体包括:
为了适应目标的外观变化,采用光流对特征点进行连续追踪,在It帧中利用金字塔Lucas-Kanada光流法计算It-1帧中前景特征点Pt-1在It帧中的对应点Pt,再对It帧中对应点Pt计算逆向光流寻找其在It-1帧中的对应点P* t-1,在Pt中剔除前向或逆向光流中未匹配的点和||Pt-1-P* t-1||大于阈值的点,获得有效的跟踪点Tt。
4.根据权利要求1所述基于特征点辅助的时空上下文目标跟踪方法,其特征在于,所述步骤S2中,在It(t>1)帧图像中,目标特征点追踪关键在于寻找与目标特征点模型O中对应的目标特征点Kt:
<mrow>
<msub>
<mi>K</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<msubsup>
<mrow>
<mo>{</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>a</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>m</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>N</mi>
<msub>
<mi>K</mi>
<mi>t</mi>
</msub>
</msub>
</msubsup>
</mrow>
其中ai表示It帧中第i个特征点的坐标位置,mi表示其在目标特征点模型O中对应点的索引值,通过索引值可以确定每一个特征点在目标特征模型中的对应点,具体包括步骤:
利用FAST特征点检测提取It帧中的特征点Qt,并计算其BRISK特征描述子,对于获得的特征点Qt
<mrow>
<msub>
<mi>Q</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<msubsup>
<mrow>
<mo>{</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>a</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>f</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>}</mo>
</mrow>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>N</mi>
<msub>
<mi>Q</mi>
<mi>t</mi>
</msub>
</msub>
</msubsup>
</mrow>
再与I1帧的目标特征点模型O中的特征点描述子逐一进行比较,计算其汉明距离,公式如下:
<mrow>
<mi>D</mi>
<mrow>
<mo>(</mo>
<msup>
<mi>f</mi>
<mn>1</mn>
</msup>
<mo>,</mo>
<msup>
<mi>f</mi>
<mi>t</mi>
</msup>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>d</mi>
</munderover>
<mi>X</mi>
<mi>O</mi>
<mi>R</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>f</mi>
<mi>j</mi>
<mn>1</mn>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>f</mi>
<mi>j</mi>
<mi>t</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
其中表示I1帧目标特征点模型O中特征点的第j维特征值,表示It帧特征点Qt的第j维特征值,D(f1,ft)表示I1帧目标特征点模型O中特征向量与It帧Qt特征向量的Hamming距离,XOR为异或运算;
对于Qt中的每个特征点计算其与目标特征点模型O中特征描述子的距离,并返回测量距离小于γ的一个最优匹配点和次优匹配点,若最优匹配点的测量距离相对较小,而次优匹配点的测量距离相对较大,那么最优匹配点是安全可靠的,若最优和次优匹配点的测量距离比值大于η时,表明两个候选匹配点的测量距离相近,选择其中之一作为匹配点易出错,故剔除此不安全的最优和次优匹配点;
同时利用各特征点对应的索引值mi,在Qt中去除匹配到目标特征点模型O中背景的点,得到有效的前景匹配点Mt;
通过将所述前景匹配点Mt与中值流跟踪法获得的特征点进行融合则获得It帧中目标特征点Kt={Tt∪Mt}。
5.根据权利要求4所述基于特征点辅助的时空上下文目标跟踪方法,其特征在于:所述步骤S2中,所述通过聚类得到目标特征点集的步骤具体包括:
为了排除误匹配的孤立特征点的干扰,对获得的目标特征点Kt进行层次凝聚聚类,类间距离小于δ的类进行合并,将获得的最大类作为最终的目标特征点V,根据特征点计算出目标中心位置其中n=|V|为V中特征点个数。
6.根据权利要求1所述基于特征点辅助的时空上下文目标跟踪方法,其特征在于,所述步骤S3中,所述在目标预估位置区域建立局部上下文外观模型,再计算与时空上下文模型的相关性获得置信图的步骤具体包括:
运用时空上下文跟踪算法公式计算时空上下文模型hsc(x):
<mrow>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>b</mi>
<mo>&CenterDot;</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mo>|</mo>
<mfrac>
<mrow>
<mi>x</mi>
<mo>-</mo>
<msup>
<mi>x</mi>
<mo>*</mo>
</msup>
</mrow>
<mi>&alpha;</mi>
</mfrac>
<msup>
<mo>|</mo>
<mi>&beta;</mi>
</msup>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mi>h</mi>
<mrow>
<mi>s</mi>
<mi>c</mi>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>&CircleTimes;</mo>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>v</mi>
<mo>(</mo>
<mi>z</mi>
<mo>)</mo>
<mo>|</mo>
<mi>o</mi>
<mo>)</mo>
</mrow>
</mrow>
置信度c(x)式中b是归一化系数,α是尺度参数,β是形状参数,β为1时能获得最佳效果,x为目标区域内像素点坐标,x*表示目标中心位置坐标;
先验概率P(v(z)|o)建模目标局部上下文外观模型,对与目标中心位置不同距离的点赋予不同的权重,构建局部上下文外观模型:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>v</mi>
<mo>(</mo>
<mi>z</mi>
<mo>)</mo>
<mo>|</mo>
<mi>o</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>z</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>&omega;</mi>
<mi>&sigma;</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>z</mi>
<mo>-</mo>
<msup>
<mi>x</mi>
<mo>*</mo>
</msup>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&omega;</mi>
<mi>&sigma;</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>z</mi>
<mo>-</mo>
<msup>
<mi>x</mi>
<mo>*</mo>
</msup>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>a</mi>
<mo>&CenterDot;</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mfrac>
<msup>
<mrow>
<mo>(</mo>
<mi>z</mi>
<mo>-</mo>
<msup>
<mi>x</mi>
<mo>*</mo>
</msup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<msup>
<mi>&sigma;</mi>
<mn>2</mn>
</msup>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中ωδ(z-x*)表示高斯权重函数为,a为归一化参数,σ为外观模型尺度参数,z表示目标周围局部域内点坐标,I(z)为z点像素值;
为了加快计算速度,在频率域内计算并得到时空上下文模型hsc(x):
<mrow>
<msup>
<mi>h</mi>
<mrow>
<mi>s</mi>
<mi>c</mi>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mi>F</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>(</mo>
<mfrac>
<mrow>
<mi>F</mi>
<mo>&lsqb;</mo>
<mi>b</mi>
<mo>&CenterDot;</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mo>|</mo>
<mfrac>
<mrow>
<mi>x</mi>
<mo>-</mo>
<msup>
<mi>x</mi>
<mo>*</mo>
</msup>
</mrow>
<mi>&alpha;</mi>
</mfrac>
<msup>
<mo>|</mo>
<mi>&beta;</mi>
</msup>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
<mrow>
<mi>F</mi>
<mo>&lsqb;</mo>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>&omega;</mi>
<mi>&sigma;</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<msup>
<mi>x</mi>
<mo>*</mo>
</msup>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
式中表示卷积运算,其中F(·)表示快速傅里叶变换,F-1(·)表示傅里叶逆变换,时空上下文模型hsc(x)表征了目标与其时空上下文的内在关系。
7.根据权利要求6所述基于特征点辅助的时空上下文目标跟踪方法,其特征在于,所述步骤S3中,所述在置信图最大值位置获得目标最终位置的步骤具体包括:
目标最终位置的精确定位采用求取置信图最大值位置,以特征点跟踪获得的目标中心位置L*为中心,在目标两倍大小的局部区域内对上下文外观特征进行建模:
P(v(z)|o)=I(z)ωσ(z-L*);
对于第t+1帧图像,结合第t帧下获得的时空上下文模型求取当前帧的置信图,以t+1帧时的目标最终位置置信图中极大值的位置作为该帧中的目标最终位置,目标最终位置的精确位置为:
其中⊙表示矩阵点乘运算,为t+1帧基于特征点预估的目标中心位置,表示以为中心的局部区域。
8.根据权利要求1所述基于特征点辅助的时空上下文目标跟踪方法,其特征在于,所述步骤S4中,所述时空上下文模型更新的机制具体包括:
在时空上下文模型中引入更新率调节参数ωt实时修正更新率为ρωt,当特征点数目减少时,降低更新率调节参数,避免目标区域相关信息的错误引入;当特征点数目较多时,增加更新率调节参数:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>H</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>s</mi>
<mi>t</mi>
<mi>c</mi>
</mrow>
</msubsup>
<mo>=</mo>
<msubsup>
<mi>h</mi>
<mi>t</mi>
<mrow>
<mi>s</mi>
<mi>c</mi>
</mrow>
</msubsup>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>H</mi>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>s</mi>
<mi>t</mi>
<mi>c</mi>
</mrow>
</msubsup>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>&rho;&omega;</mi>
<mi>t</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<msubsup>
<mi>H</mi>
<mi>t</mi>
<mrow>
<mi>s</mi>
<mi>t</mi>
<mi>c</mi>
</mrow>
</msubsup>
<mo>+</mo>
<msub>
<mi>&rho;&omega;</mi>
<mi>t</mi>
</msub>
<msubsup>
<mi>h</mi>
<mi>t</mi>
<mrow>
<mi>s</mi>
<mi>c</mi>
</mrow>
</msubsup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&omega;</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>0</mn>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&lambda;</mi>
<mi>t</mi>
</msub>
<mo><</mo>
<mn>0.3</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&mu;&lambda;</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mn>0.7</mn>
<mo>></mo>
<msub>
<mi>&lambda;</mi>
<mi>t</mi>
</msub>
<mo>&GreaterEqual;</mo>
<mn>0.3</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&lambda;</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&lambda;</mi>
<mi>t</mi>
</msub>
<mo>&GreaterEqual;</mo>
<mn>0.7</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mtd>
<mtd>
<mrow>
<mi>t</mi>
<mo>></mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
式中为第t+1帧的时空上下文模型,ρ为更新率参数,λt表示第t帧中目标特征点个数与初始未遮挡时目标特征点个数的比值,μ为微调参数;当比值小于0.3时遮挡很严重,此时更新权重为0,模型不再更新;当比值小于0.7且大于等于0.3时为中度遮挡,μ取0.375对更新率进行微调;比值大于等于0.7时为轻微遮挡,更新率等于比值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711098719.3A CN108022254B (zh) | 2017-11-09 | 2017-11-09 | 一种基于征点辅助的时空上下文目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711098719.3A CN108022254B (zh) | 2017-11-09 | 2017-11-09 | 一种基于征点辅助的时空上下文目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108022254A true CN108022254A (zh) | 2018-05-11 |
CN108022254B CN108022254B (zh) | 2022-02-15 |
Family
ID=62079817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711098719.3A Expired - Fee Related CN108022254B (zh) | 2017-11-09 | 2017-11-09 | 一种基于征点辅助的时空上下文目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108022254B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064485A (zh) * | 2018-06-11 | 2018-12-21 | 西安电子科技大学 | 一种基于cmt算法的特征库维护方法 |
CN109118514A (zh) * | 2018-06-11 | 2019-01-01 | 西安电子科技大学 | 一种目标跟踪方法 |
CN109711277A (zh) * | 2018-12-07 | 2019-05-03 | 中国科学院自动化研究所 | 基于时空频域混合学习的行为特征提取方法、系统、装置 |
CN110570451A (zh) * | 2019-08-05 | 2019-12-13 | 武汉大学 | 基于stc和分块重检测的多线程视觉目标跟踪方法 |
CN111382784A (zh) * | 2020-03-04 | 2020-07-07 | 厦门脉视数字技术有限公司 | 一种运动目标跟踪方法 |
CN112489085A (zh) * | 2020-12-11 | 2021-03-12 | 北京澎思科技有限公司 | 目标跟踪方法、目标跟踪装置、电子设备及存储介质 |
CN114170267A (zh) * | 2020-09-10 | 2022-03-11 | 华为技术有限公司 | 目标跟踪方法、装置、设备及计算机可读存储介质 |
CN114219836A (zh) * | 2021-12-15 | 2022-03-22 | 北京建筑大学 | 一种基于时空信息辅助的无人机视频车辆跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110069923A (ko) * | 2009-12-18 | 2011-06-24 | 한국전자통신연구원 | 문맥상 사라진 특징점의 복원을 통한 물체 인식 방법 |
CN106296742A (zh) * | 2016-08-19 | 2017-01-04 | 华侨大学 | 一种结合特征点匹配的在线目标跟踪方法 |
CN106485732A (zh) * | 2016-09-09 | 2017-03-08 | 南京航空航天大学 | 一种视频序列的目标跟踪方法 |
CN106815859A (zh) * | 2017-01-13 | 2017-06-09 | 大连理工大学 | 基于尺度自适应相关滤波和特征点匹配的目标跟踪算法 |
CN107240120A (zh) * | 2017-04-18 | 2017-10-10 | 上海体育学院 | 视频中运动目标的跟踪方法及装置 |
-
2017
- 2017-11-09 CN CN201711098719.3A patent/CN108022254B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110069923A (ko) * | 2009-12-18 | 2011-06-24 | 한국전자통신연구원 | 문맥상 사라진 특징점의 복원을 통한 물체 인식 방법 |
CN106296742A (zh) * | 2016-08-19 | 2017-01-04 | 华侨大学 | 一种结合特征点匹配的在线目标跟踪方法 |
CN106485732A (zh) * | 2016-09-09 | 2017-03-08 | 南京航空航天大学 | 一种视频序列的目标跟踪方法 |
CN106815859A (zh) * | 2017-01-13 | 2017-06-09 | 大连理工大学 | 基于尺度自适应相关滤波和特征点匹配的目标跟踪算法 |
CN107240120A (zh) * | 2017-04-18 | 2017-10-10 | 上海体育学院 | 视频中运动目标的跟踪方法及装置 |
Non-Patent Citations (2)
Title |
---|
JINGMEI ZHAI ET AL: "Studies of Adaptive Control Methods Based on VSC for Trajectory Tracking of Robotic Manipulators", 《PROCEEDINGS OF THE 2012 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND BIOMIMETICS》 * |
刘威 等: "时空上下文学习长时目标跟踪", 《光学学报》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064485B (zh) * | 2018-06-11 | 2022-02-18 | 西安电子科技大学 | 一种基于cmt算法的特征库维护方法 |
CN109118514A (zh) * | 2018-06-11 | 2019-01-01 | 西安电子科技大学 | 一种目标跟踪方法 |
CN109064485A (zh) * | 2018-06-11 | 2018-12-21 | 西安电子科技大学 | 一种基于cmt算法的特征库维护方法 |
CN109118514B (zh) * | 2018-06-11 | 2022-07-15 | 西安电子科技大学 | 一种目标跟踪方法 |
CN109711277A (zh) * | 2018-12-07 | 2019-05-03 | 中国科学院自动化研究所 | 基于时空频域混合学习的行为特征提取方法、系统、装置 |
CN109711277B (zh) * | 2018-12-07 | 2020-10-27 | 中国科学院自动化研究所 | 基于时空频域混合学习的行为特征提取方法、系统、装置 |
CN110570451A (zh) * | 2019-08-05 | 2019-12-13 | 武汉大学 | 基于stc和分块重检测的多线程视觉目标跟踪方法 |
CN110570451B (zh) * | 2019-08-05 | 2022-02-01 | 武汉大学 | 基于stc和分块重检测的多线程视觉目标跟踪方法 |
CN111382784B (zh) * | 2020-03-04 | 2021-11-26 | 厦门星纵智能科技有限公司 | 一种运动目标跟踪方法 |
CN111382784A (zh) * | 2020-03-04 | 2020-07-07 | 厦门脉视数字技术有限公司 | 一种运动目标跟踪方法 |
CN114170267A (zh) * | 2020-09-10 | 2022-03-11 | 华为技术有限公司 | 目标跟踪方法、装置、设备及计算机可读存储介质 |
EP4207066A4 (en) * | 2020-09-10 | 2024-06-26 | Huawei Technologies Co., Ltd. | OBJECT TRACKING METHOD AND APPARATUS, APPARATUS AND COMPUTER-READABLE STORAGE MEDIUM |
CN112489085A (zh) * | 2020-12-11 | 2021-03-12 | 北京澎思科技有限公司 | 目标跟踪方法、目标跟踪装置、电子设备及存储介质 |
CN114219836A (zh) * | 2021-12-15 | 2022-03-22 | 北京建筑大学 | 一种基于时空信息辅助的无人机视频车辆跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108022254B (zh) | 2022-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108022254B (zh) | 一种基于征点辅助的时空上下文目标跟踪方法 | |
CN105335986B (zh) | 基于特征匹配和MeanShift算法的目标跟踪方法 | |
CN111667506B (zh) | 一种基于orb特征点的运动估计方法 | |
CN106778712B (zh) | 一种多目标检测与跟踪方法 | |
CN104680559B (zh) | 基于运动行为模式的多视角室内行人跟踪方法 | |
US20110013840A1 (en) | Image processing method and image processing apparatus | |
CN106203423B (zh) | 一种融合上下文探测的弱结构感知视觉目标跟踪方法 | |
CN103927764B (zh) | 一种结合目标信息和运动估计的车辆跟踪方法 | |
CN115240130A (zh) | 一种行人多目标跟踪方法、装置和计算机可读存储介质 | |
CN106022263A (zh) | 一种融合特征匹配和光流法的车辆跟踪方法 | |
CN105374049B (zh) | 一种基于稀疏光流法的多角点跟踪方法及装置 | |
CN111242985B (zh) | 基于马尔科夫模型的视频多行人追踪方法 | |
CN112052802A (zh) | 一种基于机器视觉的前方车辆行为识别方法 | |
CN107844739B (zh) | 基于自适应同时稀疏表示的鲁棒性目标追踪方法 | |
CN110992392A (zh) | 一种基于运动状态的关键帧选取方法及装置 | |
CN108492324A (zh) | 基于全连接网络和卡尔曼滤波器的飞机追踪方法 | |
CN111127519A (zh) | 一种双模型融合的目标跟踪控制系统及其方法 | |
CN114708293A (zh) | 基于深度学习点线特征和imu紧耦合的机器人运动估计方法 | |
CN111402303A (zh) | 一种基于kfstrcf的目标跟踪架构 | |
CN106023256B (zh) | 面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法 | |
CN113888603A (zh) | 基于光流跟踪和特征匹配的回环检测及视觉slam方法 | |
CN108694348B (zh) | 一种基于自然特征的跟踪注册方法及装置 | |
CN111145221A (zh) | 一种基于多层深度特征提取的目标跟踪算法 | |
Chen et al. | Skeleton moving pose-based human fall detection with sparse coding and temporal pyramid pooling | |
Wang et al. | Pmds-slam: Probability mesh enhanced semantic slam in dynamic environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220215 |