CN105931273A - 基于l0正则化的局部稀疏表示目标跟踪方法 - Google Patents
基于l0正则化的局部稀疏表示目标跟踪方法 Download PDFInfo
- Publication number
- CN105931273A CN105931273A CN201610299342.7A CN201610299342A CN105931273A CN 105931273 A CN105931273 A CN 105931273A CN 201610299342 A CN201610299342 A CN 201610299342A CN 105931273 A CN105931273 A CN 105931273A
- Authority
- CN
- China
- Prior art keywords
- template
- target
- block
- topography
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于L0正则化的局部稀疏表示目标跟踪方法,与传统L1目标跟踪方法不同,本发明提出将L0范数与结构化局部稀疏外观模型相结合,充分利用稀疏编码,更好地区别跟踪过程中的目标和背景,并且在对目标进行建模时使用琐碎模板对局部遮挡等干扰进行建模,进一步提高了算法在跟踪过程中对噪声干扰的鲁棒性。为使目标模型在跟踪过程中更好地应对目标外观的不断变化,本发明通过构建目标模板集,在跟踪过程中采用L0范数对目标重构并采用概率性策略将重构结果替换模板集中某一模板,实现模板动态更新,进一步提高了算法稳定性。针对基于L0范数约束的目标函数优化求解的NP问题,本发明采用APG算法实现了有效求解。
Description
技术领域:
本发明属于机器视觉领域,特别涉及一种基于L0正则化的局部稀疏表示目标跟踪方法。
背景技术:
目标跟踪技术是机器视觉领域的一个研究热点,旨在对视频中的任意目标进行连续、精准地定位,以便完成对目标行为的分析与理解等更高级的视觉任务。它在军事国际和民用安全方面有着重要的研究意义和广阔的应用前景。近年来,各国的研究人员提出了很多的方法,在该领域取得了很多的进步。但是设计一个鲁棒的目标跟踪算法仍然是一个巨大的挑战。因为在目标的跟踪过程中存在光照,遮挡和目标所处背景的变化都会对目标的跟踪产生不利影响。同时在目标的跟踪过程中目标自身姿态的变化,摄像机的抖动和目标的快速运动引起的目标外观的模糊,更加进一步地加剧了目标跟踪的难度。
最近几年,稀疏表示被广泛的应用于机器视觉的各个方向,对于目标跟踪任务Mei等人[1]首次将稀疏表示方法引入到了目标跟踪中,提出L1最小化问题的目标跟踪方法。但是许多基于稀疏表示的跟踪方法都首先将目标模板进行稀疏的线性表示,然后在所有候选样本中寻找具有最小重构误差的候选样本作为跟踪结果。然而这类方法只考虑了目标的全局表示,并没有充分利用稀疏编码的系数来更好的区分目标和背景,造成算法对遮挡,相似物体等敏感,从而导致最后的跟踪失败。为了更好地利用稀疏系数,Xu等人[2]提出了基于结构化局部稀疏表示的外观模型。此种模型,利用稀疏编码方法和多模板技术,来深入探究目标的局部和空间信息。但是[2]采用L1范数去正则化目标系数,L1范数是L0范数的近似,由于L1范数在计算的过程中会产生冗余特征,在跟踪的过程中会不断地累计误差和计算的复杂性,最终产生跟踪框的漂移,导致跟踪的失败。相比而言,L0范数能更好地体现稀疏表示的本质特征。
本发明针对基于L1范数正则化目标系数的跟踪方法存在的精度下降问题,引入了L0范数跟踪,同时在对目标进行建模时使用琐碎模板建模局部遮挡等异类干扰,提出一种基于L0正则化的局部稀疏表示目标跟踪算法,实现鲁棒目标跟踪。
发明内容:
本发明的主要目的是提出一种基于L0正则化的局部稀疏表示目标跟踪算法,在目标运动模糊、光照变化和局部遮挡等干扰影响下,准确定位目标区域。
为了实现上述目的,本发明提供如下技术方案:
步骤一、读入第一帧图像Image1及跟踪目标初始矩形位置;
步骤二、根据第一帧的位置,在粒子滤波框架下采用最近邻算法获得前m帧的目标矩形位置,每帧目标矩形区域构成一个模板Ti,前m帧的目标矩形位置构成模板集T=[T1,T2,…,Tm];
步骤三、对于每个模板Ti,设Ti的大小为W×H,在Ti中按照采样距离为重叠采样N个局部图像块,每个采样的图像块大小为这些模板中的局部图像块拼接起来并组成一个字典D=[p1,p2,……p(m×N)]∈Rd×m×N,其中d为局部图像块pi向量化表示后的向量维数,m为模板的数量,N为每个模板中重叠采样的局部图像块的个数;
步骤四、读入下一帧图像Imaget(t>m),在前一帧的目标位置处采用粒子滤波框架下随机游走的方式采样得到k个候选样本[Y1,Y2,…,Yk];
步骤五、对每一个候选样本Yv∈[1k],重叠采样N个局部图像块,并用Yv=[y1,y2,…,yN]∈Rd×N表示,其中d为局部图像块向量化表示后的向量维数,N为局部图像块数。对每一个候选样本Yv的局部图像块yi(i=1,2,…N)构建目标函数,并对重构样本与观测样本图像块的残差ei∈Rd×1进行拉普拉斯建模||ei||1,建立琐碎模板,以容纳目标跟踪中受到的离群子干扰;针对目标系数利用L0范数正则化目标系数||ci||0,以在重构样本时,更好的消除冗余特征的干扰,提出了本方法的目标函数: 其中,yi为候选样本Yv的局部图像块,D为由m个模板局部重叠采样组成的字典,ei为噪声,初始化时为ei∈Rd×1的零向量;
步骤六、基于迭代加速近邻梯度算法(APG算法),对目标函数进行最小化计算,获得收敛的残差和对所有N个局部图像块yi∈Yv进行同样处理,最终获得最优目标系数其中
步骤七、向量描述了Yv的局部图像块yi在字典D=[p1,p2,……p(m×N)]∈Rd×m×N中的稀疏编码方式,字典D由m个模板分别抽取的N个局部图像块共同构成。因此根据模板数量,将划分m成段,得到其中表示目标候选图像Yv中第i个局部图像块的稀疏编码系数向量中与第j个模板相对应的那段。并对每一段进行加权求和得到更加鲁棒的稀疏向量zi,zi∈RN×1表示第i个局部图像块的加权编码,γ为归一化项。对Yv的N个局部图像块进行同样的处理,最终获得加权编码方阵Z=[z1,z2,…zN],Z∈RN×N;
步骤八、通过对每一个候选样本Yv∈Rd×N的加权编码矩阵Z的对角线元素求和,取加权编码矩阵Z的对角线元素和最大的候选样本作为第t帧的跟踪结果
步骤九、基于最新跟踪结果,采用PCA主元重构样本,采用概率策略选择更新模板集T中的某个模板;
步骤十、若视频未结束,则转入步骤四,读入下一帧图像;否则跟踪结束。
与现有的技术相比,本发明具有以下有益效果:
1.通过步骤五提出的目标函数,能更加有效的利用稀疏编码系数,减少跟踪过程中产生的冗余特征。同时引入琐碎模板加强对离群子的处理能力,避免选择不恰当的目标特征。
2.通过步骤六在APG算法的框架下,利用软阈值操作和硬阈值操作进行目标函数中相应状态参数最小化的计算,能够快速有效地获取候选样本相应的状态参数。
3.在步骤九更新模板集组成的字典时,由于最新的跟踪结果中可能存在遮挡等异常,使用L0正则化目标系数对最新的跟踪结果进行重构,使用重构结果去代替模板集中的随机选定模板,能够显著提升模板集对跟踪目标变化状态的自适应性,有效提高算法对遮挡、光照等变化的鲁棒性。
因此,本发明在公共安全监控的应用中将具有广泛的应用前景。
附图说明:
图1为本发明的算法流程图;
图2为本发明中以上一帧目标位置为中心获取当前帧候选样本的方法示意图;
图3为算法在Woman序列图像实验中跟踪效果;
图4为算法在Woman序列图像实验的中心误差曲线分析图;
图5为算法在Singer1序列图像实验中跟踪效果;
图6为算法在Singer1序列图像实验中的中心误差曲线分析图;
图7为算法在Owl序列图像实验中跟踪效果;
图8为算法在Owl序列图像实验中的中心误差曲线分析图;
图9为算法在Girl序列图像实验中跟踪效果;
图10为算法在Girl序列图像实验中的中心误差曲线分析图;
具体实施方式
为了更好的说明本发明的目的、具体步骤以及特点,下面结合附图对本发明作进一步详细的说明:
参考图1,本发明提出的一种基于L0正则化的局部稀疏表示目标跟踪算法,主要包含以下步骤:
步骤一、读入第一帧图像Image1及跟踪目标初始矩形位置;
步骤二、根据第一帧的位置,在粒子滤波框架下采用最近邻算法获得前m帧的目标矩形位置,每帧目标矩形区域构成一个模板Ti,前m帧的目标矩形位置构成模板集T=[T1,T2,…,Tm];
步骤三、对于每个模板Ti,设Ti的大小为W×H,在Ti中按照采样距离为重叠采样N个局部图像块,每个采样的图像块大小为这些模板中的局部图像块拼接起来并组成一个字典D=[p1,p2,……p(m×N)]∈Rd×m×N,其中d为局部图像块pi向量化表示后的向量维数,m为模板的数量,N为每个模板中重叠采样的局部图像块的个数;
步骤四、读入下一帧图像Imaget(t>m),在前一帧的目标位置处采用粒子滤波框架下随机游走的方式采样得到k个候选样本[Y1,Y2,…,Yk];
步骤五、对每一个候选样本Yv∈[1k],重叠采样N个局部图像块,并用Yv=[y1,y2,…,yN]∈Rd×N表示,其中d为局部图像块向量化表示后的向量维数,N为局部图像块数。对每一个候选样本Yv的局部图像块yi(i=1,2,…N)构建目标函数,并对重构样本与观测样本图像块的残差ei∈Rd×1进行拉普拉斯建模||ei||1,建立琐碎模板,以容纳目标跟踪中受到的离群子干扰;针对目标系数利用L0范数正则化目标系数||ci||0,以在重构样本时,更好的消除冗余特征的干扰,提出了本方法的目标函数: 其中,yi为观测样本Yv的局部图像块,D为由m个模板局部重叠采样组成的字典,ei为噪声,初始化时为ei∈Rd×1的零向量;
步骤六、基于迭代加速近邻梯度算法(APG算法),对目标函数进行最小化计算,获得收敛的残差和对所有N个局部图像块yi∈Yv进行同样处理,最终获得最优目标系数其中
步骤七、向量描述了Yv的局部图像块yi在字典D=[p1,p2,……p(m×N)]∈Rd×m×N中的稀疏编码方式,字典D由m个模板分别抽取的N个局部图像块共同构成。因此根据模板数量,将划分m成段,得到其中表示目标候选图像Yv中第i个局部图像块的稀疏编码系数向量中与第j个模板相对应的那段。并对每一段进行加权求和得到更加鲁棒的稀疏向量zi,zi∈RN×1表示第i个局部图像块的加权编码,γ为归一化项。对Yv的N个局部图像块进行同样的处理,最终获得加权编码矩阵Z=[z1,z2,…zN],Z∈RN×N;
步骤八、通过对每一个候选样本Yv∈Rd×N的加权编码矩阵Z的对角线元素求和,取加权编码矩阵Z的对角线元素和最大的候选样本作为第t帧的跟踪结果
步骤九、基于最新跟踪结果,采用PCA主元重构样本,采用概率策略选择更新模板集T中的某个模板;
步骤十、若视频未结束,则转入步骤四,读入下一帧图像;否则跟踪结束。
上述技术方案中,步骤四对候选样本的采样方法如图2所示,左图实线框为第t-1帧的目标跟踪框,右图虚线框为t帧通过随机游走方法获取的候选样本跟踪框(即观测样本),具体方法为:
以第t-1帧目标为中心,根据t-1帧目标运动状态参数生成t帧服从独立高斯分布的k个候选样本的运动状态其中 中六个仿射参数分别表示水平位置平移lx,垂直位置平移ly,转角θ,尺度s,高宽比α,斜度φ。其状态转移可表示为: 其中Ф为对角协方差矩阵,其对角元素为上述六个仿射参数的标准差,N(·)表示高斯分布。根据的运动状态可获得对应的候选Yv,相应的由k个候选样本的运动状态即可获得当前帧的所有k个候选样本[Y1,Y2,…,Yk]。
上述技术方案中步骤六针对步骤五的目标函数的最小化的具体的步骤为:
步骤1:初始化c0=c-1=0,e0=e-1=0,h0=h-1=1,g=0.
循环
步骤2:
步骤3:
步骤4:
步骤5:
步骤6:
步骤7:g=g+1
直到收敛或者算法终止
其中L为APG算法中的利普希茨常数,本发明中取L=15。算法中需要解决的两项
(1)
(2)
通过数学计算上述求优问题可以转化成
(1)
(2)
其中的Sδ(x)=sign(x)max(|x|-δ,0)称为软阈值操作,令τ=α/L,其中当x2>τ时Hτ=x,否则Hτ=0,这个操作被称为硬阈值操作。h为整个迭代过程中用于更新和的中间变量。
根据上述步骤,可最后求得最优目标系数c*和残差e*。
上述技术方案中步骤九的PCA主元重构样本的方法为:
1.定义重构样本的目标函数为其中q为获得的最新目标向量表示,A为最近几帧(一般可取5帧)的跟踪目标经过PCA处理后由PCA主元构成的字典(一般取16个主元),b为目标系数,g代表了在q中残缺的或被遮挡的像素。基于APG算法,求解此目标函数的最优解b*,g*,具体求解方法参考求步骤六中的算法。
2.计算重构样本
上述技术方案中步骤九的概率策略选择方法为:
根据递增序列定义模板集T中每个模板Ti更新概率,随机生成一个[0,1]内的随机数r,根据r所属的Tδ中的区域确定被更新模板T*,并使用重构样本取代T*。
上述技术方案中,基于L0正则化的局部稀疏表示目标跟踪方法的效果如图3—图10所示。图3给出了算法在Woman序列图像实验中,目标物体经历严重遮挡和背景持续变化等干扰情况下的直观跟踪效果。图4为算法在Woman序列图像实验中跟踪的中心点位置与标准跟踪中心点的误差曲线分析图。图5给出了算法在Singer1序列图像实验中,目标物体经历光照剧烈变化和尺度的持续变小等干扰情况下的直观跟踪效果。图6为算法在Singer1序列图像实验中跟踪的中心点位置与标准跟踪中心点的误差曲线分析图。图7给出了算法在Owl序列图像实验中,目标物体经历摄像头快速运动等干扰情况下的直观跟踪效果。图8为算法在Owl序列图像实验中跟踪的中心点位置与标准跟踪中心点的误差曲线分析图。图9给出了算法在Girl序列图像实验中,目标物体经历目标的旋转,背景的变化,尺度的持续变化,目标的运动和遮挡等干扰情况下的直观跟踪效果。图10为算法在Girl序列图像实验中跟踪的中心点位置与标准跟踪中心点的误差曲线分析图。通过四组序列测试,实验结果以定性的跟踪效果图和定量的误差曲线进行说明,验证了算法在遮挡、光照变化、物体形变、运动模糊等噪声干扰下的精度和鲁棒性。
上面结合附图对本发明的具体实施方式做了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
[1].X.Mei and H.Ling,“Robust visual tracking using L1minimization,”IEEE International Conference on Computer Vision,pp.1436-1448,2009.
[2].Xu jia,Huchuan Lu,Minghsuan Yang,“Visual Tracking via AdaptiveStructural Local Sparse Appearance Model”,International Conference onComputer Vision and Pattern Recognition,2012,P1822-1829.
Claims (4)
1.基于L0正则化的局部稀疏表示目标跟踪方法,其特征在于,包括下列步骤:
步骤一、读入第一帧图像Image1及跟踪目标初始矩形位置;
步骤二、根据第一帧的位置,在粒子滤波框架下采用最近邻算法获得前m帧的目标矩形位置,每帧目标矩形区域构成一个模板Ti,前m帧的目标矩形位置构成模板集T=[T1,T2,…,Tm];
步骤三、对于每个模板Ti,设Ti的大小为W×H,在Ti中按照采样距离为重叠采样N个局部图像块,每个采样的图像块大小为这些模板中的局部图像块拼接起来并组成一个字典D=[p1,p2,……p(m×N)]∈Rd×m×N,其中d为局部图像块pi向量化表示后的向量维数,m为模板的数量,N为每个模板中重叠采样的局部图像块的个数;
步骤四、读入下一帧图像Imaget(t>m),在前一帧的目标位置处采用粒子滤波框架下随机游走的方式采样得到k个候选样本[Y1,Y2,…,Yk];
步骤五、对每一个候选样本Yv∈[1k],重叠采样N个局部图像块,并用Yv=[y1,y2,…,yN]∈Rd×N表示,其中d为局部图像块向量化表示后的向量维数,N为局部图像块数,对每一个候选样本Yv的局部图像块yi(i=1,2,…N)构建目标函数,并对重构样本与观测样本图像块的残差ei∈Rd×1进行拉普拉斯建模||ei||1,建立琐碎模板,以容纳目标跟踪中受到的离群子干扰;针对目标系数 利用L0范数正则化目标系数||ci||0,以在重构样本时,更好的消除冗余特征的干扰,提出了本方法的目标函数: 其中,yi为候选样本Yv的局部图像块,D为由m个模板局部重叠采样组成的字典,ei为噪声,初始化时为ei∈Rd×1的零向量;
步骤六、基于迭代加速近邻梯度算法(APG算法),对目标函数进行最小化计算,获得收敛的残差和对所有N个局部图像块yi∈Yv进行同样处理,最终获得最优目标系数其中
步骤七、向量描述了Yv的局部图像块yi在字典D=[p1,p2,……p(m×N)]∈Rd×m×N中的稀疏编码方式,字典D由m个模板分别抽取的N个局部图像块共同构成;因此根据模板数量,将划分m成段,得到其中表示目标候选图像Yv中第i个局部图像块的稀疏编码系数向量中与第j个模板相对应的那段,并对每一段进行加权求和得到更加鲁棒的稀疏向量zi,zi∈RN×1表示第i个局部图像块的加权编码,γ为归一化项,对Yv的N个局部图像块进行同样的处理,最终获得加权编码方阵Z=[z1,z2,…zN],Z∈RN×N;
步骤八、通过对每一个候选样本Yv∈Rd×N的加权编码矩阵Z的对角线元素求和,取加权编码矩阵Z的对角线元素和最大的候选样本作为第t帧的跟踪结果
步骤九、基于最新跟踪结果,采用PCA主元重构样本,采用概率策略选择更新模板集T中的某个模板;
步骤十、若视频未结束,则转入步骤四,读入下一帧图像;否则跟踪结束。
2.根据权利要求1所述的基于L0正则化的局部稀疏表示目标跟踪方法,其特征在于,步骤五中的目标函数为:其中,yi为候选样本Yv的局部图像块,D为由m个模板局部重叠采样组成的字典,ei为噪声,初始化时为ei∈Rd×1的零向量。
3.根据权利要求1所述的基于L0正则化的局部稀疏表示目标跟踪方法,其特征在于,步骤六基于APG算法针对步骤五提出的目标函数的最小化的具体求解步骤为:
步骤1:初始化c0=c-1=0,e0=e-1=0,h0=h-1=1,g=0,
循环
步骤2:
步骤3:
步骤4:
步骤5:
步骤6:
步骤7:g=g+1;
直到收敛或者算法终止;
其中L为APG算法中的利普希茨常数,算法中需要解决的两项
通过数学计算上述求优问题可以转化成
其中的Sδ(x)=sign(x)max(|x|-δ,0)称为软阈值操作,令τ=α/L,其中当x2>τ时Hτ=x,否则Hτ=0,这个操作被称为硬阈值操作,h为整个迭代过程中用于更新和的中间变量,根据上述步骤,可最后求得最优目标系数c*和残差e*。
4.根据权利要求1所述的基于L0正则化的局部稀疏表示目标跟踪方法,其特征在于,步骤九的PCA主元重构样本的方法为:
1.定义重构样本的目标函数为其中q为获得的最新目标向量表示,A为最近几帧的跟踪目标经过PCA处理后由PCA主元构成的字典,b为目标系数,g代表了在q中残缺的或被遮挡的像素;基于APG算法,求解此目标函数的最优解b*,g*;
2.计算重构样本
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610299342.7A CN105931273B (zh) | 2016-05-04 | 2016-05-04 | 基于l0正则化的局部稀疏表示目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610299342.7A CN105931273B (zh) | 2016-05-04 | 2016-05-04 | 基于l0正则化的局部稀疏表示目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105931273A true CN105931273A (zh) | 2016-09-07 |
CN105931273B CN105931273B (zh) | 2019-01-25 |
Family
ID=56834542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610299342.7A Active CN105931273B (zh) | 2016-05-04 | 2016-05-04 | 基于l0正则化的局部稀疏表示目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105931273B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106600630A (zh) * | 2016-12-07 | 2017-04-26 | 国网山西省电力公司电力科学研究院 | 一种基于稀疏编码的粒子滤波目标跟踪方法 |
CN106874881A (zh) * | 2017-02-23 | 2017-06-20 | 电子科技大学 | 一种多模板时空关联的局部反联合稀疏表示目标跟踪方法 |
CN107301652A (zh) * | 2017-05-04 | 2017-10-27 | 西北工业大学 | 一种基于局部稀疏表示和粒子群优化的鲁棒目标跟踪方法 |
CN110648351A (zh) * | 2019-09-19 | 2020-01-03 | 安徽大学 | 基于稀疏表示的多外观模型融合目标跟踪方法及其装置 |
CN110738683A (zh) * | 2018-07-19 | 2020-01-31 | 中移(杭州)信息技术有限公司 | 一种计算机视觉跟踪方法及装置 |
CN110889865A (zh) * | 2019-10-31 | 2020-03-17 | 广东技术师范大学 | 一种基于局部加权稀疏特征选择的视频目标跟踪方法 |
CN111485896A (zh) * | 2020-04-09 | 2020-08-04 | 上海隧道工程有限公司 | 泥水气压平衡盾构多变量融合控制方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100246920A1 (en) * | 2009-03-31 | 2010-09-30 | Iowa State University Research Foundation, Inc. | Recursive sparse reconstruction |
CN103024349A (zh) * | 2012-11-13 | 2013-04-03 | 大连民族学院 | 一种基于稀疏限制的mle视频目标跟踪方法 |
CN103077537A (zh) * | 2013-01-15 | 2013-05-01 | 北京工业大学 | 基于l1正则化的实时运动目标跟踪的新方法 |
CN103295242A (zh) * | 2013-06-18 | 2013-09-11 | 南京信息工程大学 | 一种多特征联合稀疏表示的目标跟踪方法 |
US20130245429A1 (en) * | 2012-02-28 | 2013-09-19 | Siemens Aktiengesellschaft | Robust multi-object tracking using sparse appearance representation and online sparse appearance dictionary update |
CN103544483A (zh) * | 2013-10-25 | 2014-01-29 | 合肥工业大学 | 一种基于局部稀疏表示的联合目标追踪方法及其系统 |
CN105117720A (zh) * | 2015-09-29 | 2015-12-02 | 江南大学 | 基于时空模型的目标尺度自适应跟踪方法 |
-
2016
- 2016-05-04 CN CN201610299342.7A patent/CN105931273B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100246920A1 (en) * | 2009-03-31 | 2010-09-30 | Iowa State University Research Foundation, Inc. | Recursive sparse reconstruction |
US20130245429A1 (en) * | 2012-02-28 | 2013-09-19 | Siemens Aktiengesellschaft | Robust multi-object tracking using sparse appearance representation and online sparse appearance dictionary update |
CN103024349A (zh) * | 2012-11-13 | 2013-04-03 | 大连民族学院 | 一种基于稀疏限制的mle视频目标跟踪方法 |
CN103077537A (zh) * | 2013-01-15 | 2013-05-01 | 北京工业大学 | 基于l1正则化的实时运动目标跟踪的新方法 |
CN103295242A (zh) * | 2013-06-18 | 2013-09-11 | 南京信息工程大学 | 一种多特征联合稀疏表示的目标跟踪方法 |
CN103544483A (zh) * | 2013-10-25 | 2014-01-29 | 合肥工业大学 | 一种基于局部稀疏表示的联合目标追踪方法及其系统 |
CN105117720A (zh) * | 2015-09-29 | 2015-12-02 | 江南大学 | 基于时空模型的目标尺度自适应跟踪方法 |
Non-Patent Citations (7)
Title |
---|
XU JIA ET AL: "Visual Tracking via Adaptive Structural Local Sparse Appearance Model", 《INTERNATIONAL CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
XUE MEI ET AL: "Robust Visual Tracking and Vehicle Classification via Sparse Representation", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
孔军 等: "一种面向高斯差分图的压缩感知目标跟踪算法", 《红外与毫米波学报》 * |
孔军 等: "基于多尺度特征提取的Kalman滤波跟踪", 《红外与毫米波学报》 * |
孔军 等: "基于多尺度特征提取的均值漂移目标跟踪算法", 《计算机工程》 * |
孔军 等: "基于多尺度特征提取的运动目标定位研究", 《红外与毫米波学报》 * |
贲敏 等: "基于l1/2正则化的稀疏表示目标跟踪算法的研究", 《计算机技术与发展》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106600630A (zh) * | 2016-12-07 | 2017-04-26 | 国网山西省电力公司电力科学研究院 | 一种基于稀疏编码的粒子滤波目标跟踪方法 |
CN106874881A (zh) * | 2017-02-23 | 2017-06-20 | 电子科技大学 | 一种多模板时空关联的局部反联合稀疏表示目标跟踪方法 |
CN106874881B (zh) * | 2017-02-23 | 2019-09-24 | 电子科技大学 | 一种多模板时空关联的局部反联合稀疏表示目标跟踪方法 |
CN107301652A (zh) * | 2017-05-04 | 2017-10-27 | 西北工业大学 | 一种基于局部稀疏表示和粒子群优化的鲁棒目标跟踪方法 |
CN110738683A (zh) * | 2018-07-19 | 2020-01-31 | 中移(杭州)信息技术有限公司 | 一种计算机视觉跟踪方法及装置 |
CN110648351A (zh) * | 2019-09-19 | 2020-01-03 | 安徽大学 | 基于稀疏表示的多外观模型融合目标跟踪方法及其装置 |
CN110889865A (zh) * | 2019-10-31 | 2020-03-17 | 广东技术师范大学 | 一种基于局部加权稀疏特征选择的视频目标跟踪方法 |
CN110889865B (zh) * | 2019-10-31 | 2023-08-25 | 广东技术师范大学 | 一种基于局部加权稀疏特征选择的视频目标跟踪方法 |
CN111485896A (zh) * | 2020-04-09 | 2020-08-04 | 上海隧道工程有限公司 | 泥水气压平衡盾构多变量融合控制方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105931273B (zh) | 2019-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105931273A (zh) | 基于l0正则化的局部稀疏表示目标跟踪方法 | |
CN108960086B (zh) | 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法 | |
CN105069746B (zh) | 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统 | |
CN108961272B (zh) | 一种基于深度卷积对抗生成网络的皮肤病图像的生成方法 | |
US7750903B2 (en) | Modeling reflections within an image sequence | |
CN108416840A (zh) | 一种基于单目相机的三维场景稠密重建方法 | |
Turmon et al. | Statistical pattern recognition for labeling solar active regions: application to SOHO/MDI imagery | |
Schmitt et al. | Fusion of SAR and optical remote sensing data—Challenges and recent trends | |
CN112784736B (zh) | 一种多模态特征融合的人物交互行为识别方法 | |
CN108389226A (zh) | 一种基于卷积神经网络和双目视差的无监督深度预测方法 | |
CN105678821B (zh) | 一种基于自编码器图像融合的动态pet图像重建方法 | |
CN106803265A (zh) | 基于光流法和卡尔曼滤波的多目标跟踪方法 | |
CN106339996B (zh) | 一种基于超拉普拉斯先验的图像盲去模糊方法 | |
CN113298129B (zh) | 基于超像素和图卷积网络的极化sar图像分类方法 | |
CN106203511A (zh) | 一种图像相似块评估方法 | |
CN113570658A (zh) | 基于深度卷积网络的单目视频深度估计方法 | |
CN107833239A (zh) | 一种基于加权模型约束的寻优匹配目标跟踪方法 | |
CN112633257A (zh) | 基于改良卷积神经网络的马铃薯病害识别方法 | |
CN105761280A (zh) | 一种基于l1-l2范数联合约束的视觉跟踪方法 | |
CN107203747A (zh) | 基于自适应选择机制的稀疏联合模型目标跟踪方法 | |
Geman | Stochastic model for boundary detection | |
Sun et al. | Learning a probabilistic strategy for computational imaging sensor selection | |
CN103971335A (zh) | 一种基于置信度核回归的图像超分辨率重建方法 | |
CN107622476B (zh) | 基于概率生成模型的图像超分辨处理方法 | |
CN111401209B (zh) | 一种基于深度学习的动作识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |