CN106023256A - 面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法 - Google Patents

面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法 Download PDF

Info

Publication number
CN106023256A
CN106023256A CN201610339337.4A CN201610339337A CN106023256A CN 106023256 A CN106023256 A CN 106023256A CN 201610339337 A CN201610339337 A CN 201610339337A CN 106023256 A CN106023256 A CN 106023256A
Authority
CN
China
Prior art keywords
target
feature vector
moment
target reference
particle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610339337.4A
Other languages
English (en)
Other versions
CN106023256B (zh
Inventor
王伟明
张勇
赵守伟
何亚轩
闫德立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shijiazhuang Tiedao University
Original Assignee
Shijiazhuang Tiedao University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shijiazhuang Tiedao University filed Critical Shijiazhuang Tiedao University
Priority to CN201610339337.4A priority Critical patent/CN106023256B/zh
Publication of CN106023256A publication Critical patent/CN106023256A/zh
Application granted granted Critical
Publication of CN106023256B publication Critical patent/CN106023256B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法,包括:a、设定跟踪区域,作为目标参考模板,获取其m×1的纹理特征和灰度均值特征;b、采集当前帧场景视频,进入跟踪过程,包括粒子选择、状态转移、状态观测和状态估计等步骤。本发明通过观测似然函数来计算粒子权重均值,目标参考特征向量的更新则综合考虑初始目标参考特征向量以及前一帧所采用的目标参考特征向量和当前帧所采用的目标参考特征向量的影响因素,由此解决了目标遮挡后又重新出现后无法继续跟踪的问题,提高了增强现实辅助维修系统对平面目标跟踪的鲁棒性和实时性。

Description

面向增强现实辅助维修系统平面目标粒子 滤波跟踪的状态观测方法
技术领域
本发明涉及一种计算机视觉算法,具体地说是一种面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法。
背景技术
增强现实技术将虚拟提示信息叠加到真实场景中,在复杂装备维修中为用户提供了直观灵活的操作提示,并可为那些不熟悉复杂装备检测维修的用户提供准确实时的维修帮助,对于缩短装备维护周期、提高维修效率、降低成本具有重要意义。
跟踪维修对象区域并能在用户头部发生相对运动时准确估计摄像机姿态,在增强现实辅助维修系统中被称作跟踪注册技术。维修对象区域跟踪是摄像机姿态估计的基础,通过局部区域跟踪而不是全场景跟踪可有效提高跟踪注册的实时性;根据摄像机与维修对象之间的相对运动关系,跟踪注册可分为由外而内的跟踪和由内而外的跟踪。较为常用的方法包括基于特征点、基于轮廓和基于核的方法。由于维修对象多为人造物,存在大量的规则平面,为实现基于单应性矩阵的摄像机姿态估计提供了便利条件,但人造物又普遍存在特征点信息量少、特征提取不充分等问题,上述三种方法对跟踪过程中维修对象外观显著改变、背景内容改变及光照遮挡等情况存在局限性,迫切需要采用多特征信息融合、自动更新匹配模板等技术解决目标遮挡、视角变化和维修对象形态变化时的健壮性跟踪及跟踪的自适应修正等问题。
基于压缩感知理论的目标跟踪方法是一种较新方法,其原理为用压缩感知特征描述背景与目标,迭代寻找与标准目标特征最相似的候选区域,其相似度判断依托朴素贝叶斯分类器。这个跟踪框架采用随机测量矩阵进行特征提取,对随机测量矩阵进行改进可实现多特征提取,实时性较高,但其迭代过程采用遍历查找方式,未充分利用运动目标的动力学特性。当目标运动速度较快或存在部分遮挡时,跟踪结果易发生偏移甚至丢失。虽然可以通过扩大搜索范围减小目标丢失率,但又会极大的损失实时性。粒子滤波跟踪依赖目标状态转移模型和重采样技术对目标状态进行预测,其计算主要消耗在似然函数上,因此在粒子滤波框架下与压缩感知特征提取相结合进行目标跟踪,可避免大范围的搜索过程,进一步提高目标对象跟踪的实时性。在粒子滤波框架下,每个粒子的观测模型和参考模板与候选目标之间的相似度区分能力直接影响跟踪精度。现有的粒子滤波跟踪中的特征主要采用统计特征计算颜色直方图或方向梯度直方图,通过求Bhattacharyya距离计算粒子代表的参考目标和候选目标之间的相似度,这种方法鲁棒性和实时性均不高。
发明内容
本发明的目的就是提供一种面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法,以解决传统观测方法鲁棒性低和实时性不高的问题。
本发明是这样实现的:一种面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法,包括以下步骤:
a、初始化:设定跟踪区域,作为目标参考模板,利用m×n的压缩感知随机测量矩阵获取其m×1的纹理特征和灰度均值特征,作为目标参考特征向量,随机采样N个粒子S={(snn)|n=1,...,N},初始化其权重ω=1/N;
b、采集当前帧场景视频,进入跟踪过程,包括:
b-1、粒子选择:对t-1时刻的所有粒子按照归一化权重值从大到小进行排序,将位置靠前的粒子归一化权重值与N乘积的四舍五入整数值作为新的粒子数量,并将该权重值赋予这些粒子,依次遍历所有粒子直到得到N个新的粒子;
b-2、状态转移:选择系统状态转移方程为二阶自回归模型,根据t-2时刻和t-1时刻的粒子状态预测t时刻的粒子状态;
b-3、状态观测:根据t-1时刻由纹理特征和灰度均值特征相似度分别计算得到粒子权重均值和t时刻的纹理特征和灰度均值特征相似度,再计算粒子所代表的候选目标区域与目标参考模板之间的观测似然函数,得出粒子的权重值;根据初始目标参考特征向量、t-1时刻所采用的目标参考特征向量和t时刻所采用的目标参考特征向量更新t+1时刻的目标参考特征向量;
b-4、状态估计:选择权重值最大的粒子所代表的状态作为系统状态的最优估计,即为跟踪结果;
b-5、如果用户选择维修步骤完成,则退出;否则回到步骤b-1,进入下一循环过程。
本发明的步骤b-3中的粒子权重值的计算方法包括以下步骤:
b-3-1、利用m×n的压缩感知随机测量矩阵,分别获取待跟踪平面目标和候选跟踪区域m×1的纹理特征和灰度均值特征,以此作为候选目标特征向量,并依据下列的公式(1)对m×1的目标参考特征向量与候选目标特征向量进行L2范数归一化:
| | v | | 2 = Σ i = 1 m ( v i ) 2 = 1 - - - ( 1 )
b-3-2、依据下列的公式(2)计算目标参考特征向量与候选目标特征向量中每个元素之差的绝对值是否在允许的阈值τ的范围内:
f ( i ) = 1 | v i r - v i | > τ 0 | v i r - v i | ≤ τ - - - ( 2 )
其中,为目标参考特征向量的第i个元素,vi为候选目标特征向量的第i个元素;
b-3-3、依据下列的公式(3)统计f(i)=1出现的比例,得到目标参考特征向量与候选目标特征向量的相似度为:
ρ = Σ i = 1 m f ( i ) / m - - - ( 3 )
b-3-4、由计算粒子代表的候选目标区域与目标参考模板之间的观测似然函数,依据下列的公式(4)计算得出粒子权重值:
p ( Z t | X t k ) &Proportional; ( 1 - &alpha; t ) e - &lambda; ( &rho; a k ) 2 + &alpha; t e - &lambda; ( &rho; b k ) 2 &alpha; t = < p ^ a ( Z t - 1 | X t - 1 ) > < p ^ a ( Z t - 1 | X t - 1 ) > + < p ^ b ( Z t - 1 | X t - 1 ) > - - - ( 4 )
其中,为第k个粒子的候选目标纹理特征向量与参考模板纹理特征向量之间的相似度;为第k个粒子的候选目标灰度均值特征向量与参考模板灰度均值特征向量之间的相似度;为t时刻第k个粒子的权重值;为t-1时刻根据纹理特征计算得到的所有粒子权重均值;为t-1时刻根据灰度均值特征计算得到的所有粒子权重均值。
本发明中的粒子权重值是由计算粒子代表的候选目标区域与目标参考模板之间的观测似然函数得出,在粒子滤波跟踪中,粒子代表着目标状态,即目标在图像中的坐标位置及区域,粒子的权重值越大,表明粒子代表的区域为目标的概率最高。
本发明的步骤b-3中的t+1时刻的目标参考特征向量的更新方法包括以下步骤:
b-3-5、依据下列的公式(5)计算更新速度因子:
&mu; = | | H t - H t - 1 | | 2 | | H t - 1 | | 2 - - - ( 5 )
其中,Ht为第t时刻平面目标与初始时刻平面目标之间的单应性矩阵,Ht-1为第t-1时刻平面目标与初始时刻平面目标之间的单应性矩阵;
b-3-6、依据下列的公式(6)和公式(7)对t+1时刻的目标特征向量进行更新:
V t + 1 = &beta;V 0 + ( 1 - &beta; ) V c V c = &beta;V t - 1 + ( 1 - &beta; ) V t - - - ( 6 )
&beta; = &mu; 1 - &rho; 0 , t - 1 1 - &rho; 0 , t - 1 + 1 - &rho; t - 1 , t - - - ( 7 )
其中,V0为初始目标参考向量,Vt为当前帧目标参考特征向量,Vt+1为下一帧目标参考特征向量,1-ρ0,t-1表示初始目标参考特征向量与t-1时刻目标参考特征向量的相似度,1-ρt-1,t表示t-1时刻目标参考特征向量与t时刻目标参考特征向量的相似度,μ为更新速度因子。
本发明通过观测似然函数来计算粒子权重均值,其方式简洁,可有效提高跟踪的实时性;同时,采用了两个特征相互补偿,可有效提高跟踪的鲁棒性。本发明中目标参考特征向量的更新方法综合考虑初始目标参考特征向量,前一帧所采用的目标参考特征向量和当前帧所采用的目标参考特征向量的影响因素,作为更新下一帧目标参考特征向量的依据,同时考虑目标形态变化的大小来改变更新速度,可解决目标遮挡后又重新出现后无法继续跟踪等问题,进一步提高了平面目标粒子滤波跟踪的鲁棒性。
本发明提高了增强现实辅助维修系统对平面目标跟踪的鲁棒性和实时性。
附图说明
图1是压缩感知多特征提取示意图。
图2是基于本发明的跟踪效果图。
图3是基于本发明的跟踪算法的X向跟踪误差图。
图4是基于本发明的跟踪算法的Y向跟踪误差图。
具体实施方式
本实施例是在一个视频文件中实现对电路板目标的跟踪,硬件平台为Intel Core i5,4GBDDR3 SDRAM,软件环境为Windows 8.1 64 bit。以平面目标中心在视频场景中的坐标作为系统的状态变量,选择系统状态转移方程为二阶自回归模型:
Xt=AXt-1+BXt-2+vt
参数设置包括:粒子数目N=100,λ=20,τ=0.002,m=50,at=0=0.5,A=[2,2],B=[1,1]。
本发明平面目标粒子滤波跟踪的状态观测方法分为以下步骤:
a、初始化:设定跟踪区域,作为目标参考模板,利用m×n的压缩感知随机测量矩阵获取其m×1的纹理特征和灰度均值特征,作为目标参考特征向量,随机采样N个粒子S={(snn)|n=1,...,N},初始化其权重ω=1/N;
b、采集当前帧场景视频,进入跟踪过程,包括:
b-1、粒子选择:对t-1时刻的所有粒子按照归一化权重值从大到小进行排序,将位置靠前的粒子归一化权重值与N乘积的四舍五入整数值作为新的粒子数量,并将该权重值赋予这些粒子,依次遍历所有粒子直到得到N个新的粒子。
b-2、状态转移:选择系统状态转移方程为二阶自回归模型,根据t-2时刻和t-1时刻的粒子状态预测t时刻的粒子状态。
b-3、状态观测:根据t-1时刻由纹理特征和灰度均值特征相似度分别计算得到粒子权重均值和t时刻的纹理特征和灰度均值特征相似度,再计算粒子所代表的候选目标区域与目标参考模板之间的观测似然函数,得出粒子的权重值;根据初始目标参考特征向量、t-1时刻所采用的目标参考特征向量和t时刻所采用的目标参考特征向量更新t+1时刻的目标参考特征向量。
b-4、状态估计:选择权重值最大的粒子所代表的状态作为系统状态的最优估计,即为跟踪结果。
b-5、如果用户选择维修步骤完成,则退出;否则回到步骤b-1,进入下一循环过程。
本发明的方法应用于步骤b-3中的状态观测的具体过程是:
压缩跟踪(Compressive Tracking,CT)算法利用压缩感知(Compressive Sensing,CS)理论对高维Harr-like特征进行降维。对于一个X∈Rn×1的原始特征,可由V=PX投影得到压缩后的特征V∈Rm×1。其中,P∈Rm×n(m<<n)为特征提取矩阵。该压缩过程在候选目标区域以平均概率随机选取2~4的图像块,特征提取矩阵P的非零元素值符号在“+”和“-”之间等概率随机选取,得到的特征值即为几块区域的加权和。当非零元素符号全部为“+”或“-”时,表现为灰度均值特征;当非零元素同时存在“+”和“-”时,表现为图像块的差异性即纹理特征。多特征压缩跟踪对特征提取矩阵进行了改进。首先利用压缩跟踪的方法生成特征提取矩阵P1,然后再根据P1生成新的特征提取矩阵P2,使得P2提取的灰度均值特征占71%,纹理特征占29%。其通过对特征提取矩阵P1的非零元素符号实施变号得到P2,变号规则为:当三个元素符号全部为“+”或全部为“-”时,变为“+-+”;当三个元素符号既存在“+”也存在“-”时,变为“+++”。这样,在增加很小计算量的前提下,使得压缩后的特征最终表现为纹理与灰度均值特征互补的双特征。以三个图像块为例,P2生成过程如图1所示。
对视频文件中的电路板目标的粒子权重值的计算方法是:
首先,利用上述方法中m×n的压缩感知随机测量矩阵分别获取待跟踪平面目标和候选跟踪区域m×1的纹理特征和灰度均值特征,以此作为目标参考特征向量和候选目标特征向量,并依据下列公式(1)对m×1的目标参考特征向量与候选目标特征向量进行L2范数归一化:
| | v | | 2 = &Sigma; i = 1 m ( v i ) 2 = 1 - - - ( 1 )
其次,依据下列公式(2)计算目标参考特征向量与候选目标特征向量中每个元素之差的绝对值是否在允许的阈值τ的范围内,
f ( i ) = 1 | v i r - v i | > &tau; 0 | v i r - v i | &le; &tau; - - - ( 2 )
其中,为目标参考特征向量的第i个元素,vi为候选目标特征向量的第i个元素。
再次,依据下列公式(3)统计f(i)=1出现的比例,得到目标参考特征向量与候选目标特征向量的相似度为:
&rho; = &Sigma; i = 1 m f ( i ) / m - - - ( 3 )
最后,由计算粒子代表的候选目标区域与目标参考模板之间的观测似然函数,依据下列的公式(4)计算得出粒子权重值:
p ( Z t | X t k ) &Proportional; ( 1 - &alpha; t ) e - &lambda; ( &rho; a k ) 2 + &alpha; t e - &lambda; ( &rho; b k ) 2 &alpha; t = < p ^ a ( Z t - 1 | X t - 1 ) > < p ^ a ( Z t - 1 | X t - 1 ) > + < p ^ b ( Z t - 1 | X t - 1 ) > - - - ( 4 )
其中:为第k个粒子的候选目标纹理特征向量与参考模板纹理特征向量之间的相似程度;为第k个粒子的候选目标灰度均值特征向量与参考模板灰度均值特征向量之间的相似程度;为t时刻第k个粒子的权重值;为t-1时刻根据纹理特征计算得到的所有粒子权重均值;为t-1时刻根据灰度均值特征计算得到的所有粒子权重均值。
目标参考特征向量的更新方法包括以下步骤:
首先,依据下列公式(5)计算更新速度因子:
&mu; = | | H t - H t - 1 | | 2 | | H t - 1 | | 2 - - - ( 5 )
其中,Ht为第t时刻平面目标与初始时刻平面目标之间的单应性矩阵,Ht-1为第t-1时刻平面目标与初始时刻平面目标之间的单应性矩阵。
其次,依据下列公式(6)和公式(7)对目标特征向量进行更新:
V t + 1 = &beta;V 0 + ( 1 - &beta; ) V c V c = &beta;V t - 1 + ( 1 - &beta; ) V t - - - ( 6 )
&beta; = &mu; 1 - &rho; 0 , t - 1 1 - &rho; 0 , t - 1 + 1 - &rho; t - 1 , t - - - ( 7 )
其中,V0为初始目标参考向量,Vt为当前帧目标参考特征向量,Vt+1为下一帧目标参考特征向量,1-ρ0,t-1表示初始目标参考特征向量与t-1时刻目标参考特征向量的相似度,1-ρt-1,t表示t-1时刻目标参考特征向量与t时刻目标参考特征向量的相似度,μ为更新速度因子。
如图2所示的跟踪效果,电路板视频包括了电路板平移、旋转、翻转和尺度变化等复杂运动过程,以x和y方向的跟踪误差小于15像素为标准,分别统计基于颜色直方图的粒子滤波跟踪算法、压缩跟踪算法和基于本发明的跟踪算法在电路板视频中电路板翻转前和在全部电路板视频帧的跟踪成功率如表1所示,前200帧的跟踪误差如图3、图4所示。
表1:跟踪成功率对比表
由表1和图3、图4可见,基于颜色直方图的粒子滤波跟踪方法因在跟踪精度上较差导致其成功率较低,基于本发明的跟踪算法与压缩跟踪算法在目标形态未发生重大变化时跟踪性能相当,但因其在目标重新出现后能够继续跟踪目标,在全部视频帧上统计跟踪成功率则比压缩跟踪算法高。
针对电路板视频,三种算法实时性比较结果见表2。
表2:跟踪算法实时性对比表
由表2可见,在640×480的视频中,当粒子数为100时,基于本发明的跟踪算法比基于颜色直方图的粒子滤波跟踪算法和压缩跟踪算法实时性均高,证明了本发明的发明能够提高平面目标跟踪的实时性。

Claims (3)

1.一种面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法,其特征是,包括以下步骤:
a、初始化:设定跟踪区域,作为目标参考模板,利用m×n的压缩感知随机测量矩阵获取其m×1的纹理特征和灰度均值特征,作为目标参考特征向量,随机采样N个粒子S={(snn)|n=1,...,N},初始化其权重ω=1/N;
b、采集当前帧场景视频,进入跟踪过程,包括:
b-1、粒子选择:对t-1时刻的所有粒子按照归一化权重值从大到小进行排序,将位置靠前的粒子归一化权重值与N乘积的四舍五入整数值作为新的粒子数量,并将该权重值赋予这些粒子,依次遍历所有粒子直到得到N个新的粒子;
b-2、状态转移:选择系统状态转移方程为二阶自回归模型,根据t-2时刻和t-1时刻的粒子状态预测t时刻的粒子状态;
b-3、状态观测:根据t-1时刻由纹理特征和灰度均值特征相似度分别计算得到粒子权重均值和t时刻的纹理特征和灰度均值特征相似度,再计算粒子所代表的候选目标区域与目标参考模板之间的观测似然函数,得出粒子的权重值;根据初始目标参考特征向量、t-1时刻所采用的目标参考特征向量和t时刻所采用的目标参考特征向量更新t+1时刻的目标参考特征向量;
b-4、状态估计:选择权重值最大的粒子所代表的状态作为系统状态的最优估计,即为跟踪结果;
b-5、如果用户选择维修步骤完成,则退出;否则回到步骤b-1,进入下一循环过程。
2.根据权利要求1所述的面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法,其特征是,步骤b-3中的粒子权重值的计算方法包括以下步骤:
b-3-1、利用m×n的压缩感知随机测量矩阵,分别获取待跟踪平面目标和候选跟踪区域m×1的纹理特征和灰度均值特征,以此作为候选目标特征向量,并依据下列的公式(1)对m×1的目标参考特征向量与候选目标特征向量进行L2范数归一化:
| | v | | 2 = &Sigma; i = 1 m ( v i ) 2 = 1 - - - ( 1 )
b-3-2、依据下列的公式(2)计算目标参考特征向量与候选目标特征向量中每个元素之差的绝对值是否在允许的阈值τ的范围内:
f ( i ) = 1 | v i r - v i | > &tau; 0 | v i r - v i | &le; &tau; - - - ( 2 )
其中,为目标参考特征向量的第i个元素,vi为候选目标特征向量的第i个元素;
b-3-3、依据下列的公式(3)统计f(i)=1出现的比例,得到目标参考特征向量与候选目标特征向量的相似度为:
&rho; = &Sigma; i = 1 m f ( i ) / m - - - ( 3 )
b-3-4、由计算粒子代表的候选目标区域与目标参考模板之间的观测似然函数,依据下列的公式(4)计算得出粒子权重值:
p ( Z t | X t k ) &Proportional; ( 1 - &alpha; t ) e - &lambda; ( &rho; a k ) 2 + &alpha; t e - &lambda; ( &rho; b k ) 2 &alpha; t = < p ^ a ( Z t - 1 | X t - 1 ) > < p ^ a ( Z t - 1 | X t - 1 ) > + < p ^ b ( Z t - 1 | X t - 1 ) > - - - ( 4 )
其中,为第k个粒子的候选目标纹理特征向量与参考模板纹理特征向量之间的相似度;为第k个粒子的候选目标灰度均值特征向量与参考模板灰度均值特征向量之间的相似度;为t时刻第k个粒子的权重值;为t-1时刻根据纹理特征计算得到的所有粒子权重均值;为t-1时刻根据灰度均值特征计算得到的所有粒子权重均值。
3.根据权利要求1所述的面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法,其特征是,步骤b-3中的t+1时刻的目标参考特征向量的更新方法包括以下步骤:
b-3-5、依据下列的公式(5)计算更新速度因子:
&mu; = | | H t - H t - 1 | | 2 | | H t - 1 | | 2 - - - ( 5 )
其中,Ht为第t时刻平面目标与初始时刻平面目标之间的单应性矩阵,Ht-1为第t-1时刻平面目标与初始时刻平面目标之间的单应性矩阵;
b-3-6、依据下列的公式(6)和公式(7)对t+1时刻的目标特征向量进行更新:
V t + 1 = &beta;V 0 + ( 1 - &beta; ) V c V c = &beta;V t - 1 + ( 1 - &beta; ) V t - - - ( 6 )
&beta; = &mu; 1 - &rho; 0 , t - 1 1 - &rho; 0 , t - 1 + 1 - &rho; t - 1 , t - - - ( 7 )
其中,V0为初始目标参考向量,Vt为当前帧目标参考特征向量,Vt+1为下一帧目标参考特征向量,1-ρ0,t-1表示初始目标参考特征向量与t-1时刻目标参考特征向量的相似度,1-ρt-1,t表示t-1时刻目标参考特征向量与t时刻目标参考特征向量的相似度,μ为更新速度因子。
CN201610339337.4A 2016-05-19 2016-05-19 面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法 Active CN106023256B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610339337.4A CN106023256B (zh) 2016-05-19 2016-05-19 面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610339337.4A CN106023256B (zh) 2016-05-19 2016-05-19 面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法

Publications (2)

Publication Number Publication Date
CN106023256A true CN106023256A (zh) 2016-10-12
CN106023256B CN106023256B (zh) 2019-01-18

Family

ID=57096719

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610339337.4A Active CN106023256B (zh) 2016-05-19 2016-05-19 面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法

Country Status (1)

Country Link
CN (1) CN106023256B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107301657A (zh) * 2017-06-12 2017-10-27 西安交通大学 一种考虑目标运动信息的视频目标跟踪方法
CN111242908A (zh) * 2020-01-07 2020-06-05 青岛小鸟看看科技有限公司 一种平面检测方法及装置、平面跟踪方法及装置
CN112348853A (zh) * 2020-11-04 2021-02-09 哈尔滨工业大学(威海) 基于红外显著性特征融合的粒子滤波跟踪的方法
CN115953433A (zh) * 2023-02-06 2023-04-11 宿迁学院 一种混合式图像目标跟踪方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1619593A (zh) * 2004-12-09 2005-05-25 上海交通大学 基于多特征信息融合的视频运动目标自适应跟踪方法
CN101673403A (zh) * 2009-10-10 2010-03-17 安防制造(中国)有限公司 复杂干扰场景下的目标跟踪方法
CN103985141A (zh) * 2014-05-28 2014-08-13 西安电子科技大学 基于hsv颜色协方差特征的目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1619593A (zh) * 2004-12-09 2005-05-25 上海交通大学 基于多特征信息融合的视频运动目标自适应跟踪方法
CN101673403A (zh) * 2009-10-10 2010-03-17 安防制造(中国)有限公司 复杂干扰场景下的目标跟踪方法
CN103985141A (zh) * 2014-05-28 2014-08-13 西安电子科技大学 基于hsv颜色协方差特征的目标跟踪方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
LINGLIN WU等: "《Particle filtering based on compressive sense for target tracking》", 《THE 2014 7TH INTERNATIONAL CONGRESS ON IMAGE AND SIGNAL PROCESSING》 *
屈高超: "《基于稀疏表示的视频目标跟踪算法研究》", 《中国优秀硕士论文全文数据库》 *
朱秋平等: "《基于压缩感知的多特征实时跟踪》", 《光学 精密工程》 *
王松林: "《基于压缩感知的目标跟踪研究》", 《中国优秀硕士论文全文数据库》 *
相入喜等: "《多特征自适应融合的粒子滤波跟踪算法》", 《计算机辅助设计与图形学学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107301657A (zh) * 2017-06-12 2017-10-27 西安交通大学 一种考虑目标运动信息的视频目标跟踪方法
CN107301657B (zh) * 2017-06-12 2018-08-10 西安交通大学 一种考虑目标运动信息的视频目标跟踪方法
CN111242908A (zh) * 2020-01-07 2020-06-05 青岛小鸟看看科技有限公司 一种平面检测方法及装置、平面跟踪方法及装置
CN111242908B (zh) * 2020-01-07 2023-09-15 青岛小鸟看看科技有限公司 一种平面检测方法及装置、平面跟踪方法及装置
CN112348853A (zh) * 2020-11-04 2021-02-09 哈尔滨工业大学(威海) 基于红外显著性特征融合的粒子滤波跟踪的方法
CN112348853B (zh) * 2020-11-04 2022-09-23 哈尔滨工业大学(威海) 基于红外显著性特征融合的粒子滤波跟踪的方法
CN115953433A (zh) * 2023-02-06 2023-04-11 宿迁学院 一种混合式图像目标跟踪方法
CN115953433B (zh) * 2023-02-06 2023-09-19 宿迁学院 一种混合式图像目标跟踪方法

Also Published As

Publication number Publication date
CN106023256B (zh) 2019-01-18

Similar Documents

Publication Publication Date Title
CN111311666B (zh) 一种融合边缘特征和深度学习的单目视觉里程计方法
CN103577793B (zh) 手势识别方法及装置
CN103325112B (zh) 动态场景中运动目标快速检测方法
Prisacariu et al. Nonlinear shape manifolds as shape priors in level set segmentation and tracking
CN108682027A (zh) 基于点、线特征融合的vSLAM实现方法及系统
CN112233177B (zh) 一种无人机位姿估计方法及系统
CN101477690B (zh) 一种视频帧序列中物体轮廓跟踪的方法和装置
CN105279769B (zh) 一种联合多特征的层次粒子滤波跟踪方法
CN104794737B (zh) 一种深度信息辅助粒子滤波跟踪方法
CN103426182A (zh) 基于视觉注意机制的电子稳像方法
CN111368759B (zh) 基于单目视觉的移动机器人语义地图构建系统
CN106023256B (zh) 面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法
CN108428249A (zh) 一种基于光流跟踪和双几何模型的初始位姿估计方法
CN109272577B (zh) 一种基于Kinect的视觉SLAM方法
CN107742306A (zh) 一种智能视觉中运动目标跟踪算法
Prisacariu et al. Robust 3D hand tracking for human computer interaction
CN112288814A (zh) 一种面向增强现实的三维跟踪注册方法
CN115147344A (zh) 一种增强现实辅助汽车维修中的零件三维检测与跟踪方法
Kanaujia et al. Part segmentation of visual hull for 3d human pose estimation
CN116894876A (zh) 基于实时图像的6-dof的定位方法
Yang Face feature tracking algorithm of aerobics athletes based on Kalman filter and mean shift
CN115457079A (zh) 一种用于目标人物的跟踪方法
Wang et al. Research on traditional and deep learning strategies based on optical flow estimation-a review
CN102831616A (zh) 一种视频流体运动矢量计算方法
CN111915632A (zh) 一种基于机器学习的贫纹理目标物体真值数据库构建方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant