CN107203747B - 基于自适应选择机制的稀疏联合模型目标跟踪方法 - Google Patents
基于自适应选择机制的稀疏联合模型目标跟踪方法 Download PDFInfo
- Publication number
- CN107203747B CN107203747B CN201710347548.7A CN201710347548A CN107203747B CN 107203747 B CN107203747 B CN 107203747B CN 201710347548 A CN201710347548 A CN 201710347548A CN 107203747 B CN107203747 B CN 107203747B
- Authority
- CN
- China
- Prior art keywords
- model
- target
- sample
- sparse
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自适应选择机制的稀疏联合模型目标跟踪方法。构造稀疏的判决模型时,利用特征选择机制提取更具辨识力的特征,并以置信值度量为约束,更好地区分出目标和背景;构造稀疏的生成模型时,结合L1正则化和PCA子空间重构思想,使得目标不仅保留充足外观信息,且可有效抵御离群子干扰,并提出一种结合线性回归和软阈值算子的迭代算法对目标函数进行最小化求解。相较于传统的乘性联合机制,本发明提出了一种基于欧式距离的自适应选择机制,通过分别比较上述两种模型的预测结果与前一帧的跟踪结果的差异,计算偏差,判断模型是否发生退化,并以此构建出更加合理的联合模型评估函数来提升跟踪精度。
Description
技术领域:
本发明属于机器视觉领域,特别涉及一种基于自适应选择机制的稀疏联合模型目标跟踪方法。
背景技术:
目标跟踪技术作为计算机视觉领域的研究热点之一,旨在一系列的图像中对目标物体进行检测、提取、识别和跟踪,从而获得目标物体的相关参数,如位置、速度、尺度、轨迹等;进一步根据跟踪结果进行处理和分析,实现对目标物体的行为理解,或者完成更高一级的任务。其研究成果在视频监控,交通监测,医学诊断,军事打击,人机交互等方面有着良好的应用价值。尽管目标跟踪技术拥有广阔的应用前景和研究价值,近些年来研究人员也已取得诸多研究进展,但是设计出一种鲁棒的跟踪算法依然具有很强的挑战性。需要克服的技术难点问题主要来自两个方面:内在干扰和外在干扰。内在干扰包括目标自身的姿态变化、尺度变化等。外在干扰主要有遮挡、场景光照变化、复杂背景等。
根据设计模型的不同,目标跟踪方法主要分为两类:判别模型跟踪方法和生成模型跟踪方法。基于判别模型的跟踪方法将目标跟踪问题视为分类问题,通过设计出一个鲁棒的分类器来区分出目标和背景。基于生成模型的跟踪算法,其跟踪的目的是在邻域中找寻与目标最近似的图像区域,即最优化估计目标的状态。近年来,有研究学者提出联合模型跟踪方法,旨在结合判别式方法和生成式方法的优势,提升跟踪算法的鲁棒性。Zhong等人[1]提出一个联合模型跟踪方法,把基于稀疏表示的判别模型和基于稀疏表示的生成模型级联起来用于目标的位置估计,但该方法欠缺对离群子的处理机制,且生成模型采用基于局部图像块的特征导致计算量过大,方法实时性较差;Zhao等人[2]提出一种混合判别式和生成式的外观模型,结合了颜色、纹理、SIFT描述子等特征,虽然该方法可以有效处理目标姿态变化和旋转等问题,但由于模板集存在冗余特征使得其不能鲁棒应对对运动模糊、背景复杂等外在因素的干扰。现有的联合模型跟踪方法往往采用直接相乘的机制来融合判别模型和生成模型,构建其评估候选样本的似然函数。然而,在跟踪过程中当有一种模型产生恶化或丢失的情况时,这种直接相乘的机制会导致误差累积,进而恶化整个联合模型的表现。
针对上述现有联合模型跟踪算法技术的缺陷,本发明提出一种基于自适应选择机制的稀疏联合模型目标跟踪方法。利用特征选择机制去除冗余特征,构建稀疏判决模型;结合L1正则化和PCA子空间重构,构建稀疏生成模型;提出一种基于欧式距离的自适应选择机制联合上述两种模型,实现鲁棒跟踪。
发明内容:
本发明的主要目的是提出一种基于自适应选择机制的稀疏联合模型目标跟踪算法,在目标被遮挡、场景光照变化、运动模糊、背景复杂等干扰影响下,准确定位目标区域。
为了实现上述目的,本发明提供如下技术方案:
步骤一、读入第一帧图像Image1,手动标记视频序列第一帧图像得到初始目标位置;在目标位置周围手动采集m个图像,归一化后按行堆放成向量构成相应的正模板集d为初始特征维数;类似的,在离目标位置较远处采集n个图像,经过相同的处理后获得负模板集降采样目标图像并转为列向量d为目标图像的特征维数,初始化子空间U和奇异值对角矩E为空矩阵;
步骤四、基于模板集及其对应的标签向量利用基于稀疏表示的判别式学习制定特征选择机制,通过最小化求解得到稀疏向量s;根据向量s构建构造映射矩阵S*,并将训练模板集A和观测样本集Yt+1映射到低维特征空间中,得到映射后的模板集D和观测样本集Zt+1;
步骤五、基于映射后的观测样本集Zt+1和模板集D构建目标函数,利用L1范数正则化其目标系数项α,并通过LASSO求解得到稀疏映射系数α;分别计算候选观测样本在正模板集和负模板集上的重构误差εf和εb,并获得各候选样本的置信度Lc;选取置信度最大的作为判别模型的最佳候选样本
步骤六、基于观测样本集Yt+1和子空间U构建目标函数,并对重构样本与观测样本的残差进行拉普拉斯建模‖e‖1,以抵御目标跟踪中离群子的干扰;通过一种结合线性回归和软阈值算子的迭代算法对目标函数进行最小化求解,得到收敛的目标系数c*和残差e*;
步骤十、基于最新跟踪结果更新负模板集,更新的图像来自距当前跟踪结果较远的区域,正模板集保持不变;
步骤十一、若收集的样本I达到5个,则采用文献[3]的增量主成分方法更新子空间及其均值向量,并重置收集的样本个数为0;若未达到5个,则不更新目标子空间;
步骤十二、若视频未结束,则转入步骤二,读入下一帧图像;否则跟踪结束。
与现有的技术相比,本发明具有以下有益效果:
1.通过步骤四、五构建的稀疏判决模型,能够有效地去除模板集中的冗余特征,挑选更具辨识力的特征进行模型训练,在降低计算复杂度,提升实时性的同时,可以更好的区分目标和背景。
2.通过步骤六、七构建的稀疏生成模型,有机地结合了PCA子空间重构方法和拉普拉斯偏差项,在保留充足的外观信息的同时,有效的御离群子(诸如遮挡等)的干扰,更好的刻画目标自身的外观变化。
3.步骤八提供了一种基于欧式距离的自适应选择机制来联合判决模型和生成模型,可以在动态的跟踪过程中及时发现恶化的模型,并采取相应的策略构建更为合理的评估函数,相较于传统的乘性机制,本发明提出的自适应选择机制有更强的灵活性和鲁棒性。
因此,本发明在视频监控、人机交互、视觉导航等领域都有广泛的应用前景。
附图说明:
图1为本发明的基于自适应选择机制的稀疏联合模型目标跟踪方法的流程示意图;
图2为本发明中基于上一帧的目标位置采集当前帧候选样本的方法示意图;
图3为本发明的稀疏生成模型的外观表述示意图;
图4为本发明在Occlusion2序列上的跟踪效果图;
图5为本发明在Singer1序列上的跟踪效果图;
图6为本发明在Football序列上的跟踪效果图;
图7为本发明在Owl序列上的跟踪效果图;
图8为本发明在Occlusion2序列上的中心偏差曲线图;
图9为本发明在Singer1序列上的中心偏差曲线图;
图10为本发明在Football序列上的中心偏差曲线图;
图11为本发明在Owl序列上的中心偏差曲线图;
具体实施方式
为了更好的说明本发明的目的、具体步骤以及特点,下面结合附图对本发明作进一步详细的说明:
参考图1,本发明提出的一种基于自适应选择机制的稀疏联合模型目标跟踪方法主要包含以下步骤:
步骤一、读入第一帧图像Image1,手动标记视频序列第一帧图像得到初始目标位置;在目标位置周围手动采集m个图像,归一化后按行堆放成向量构成相应的正模板集d为初始特征维数;类似的,在离目标位置较远处采集n个图像,经过相同的处理后获得负模板集降采样目标图像并转为列向量d为目标图像的特征维数,初始化子空间U和奇异值对角矩E为空矩阵;
步骤四、基于模板集及其对应的标签向量利用基于稀疏表示的判别式学习制定特征选择机制,通过最小化求解得到稀疏向量s;根据向量s构建构造映射矩阵S*,并将训练模板集A和观测样本集Yt+1映射到低维特征空间中,得到映射后的模板集D和观测样本集Zt+1;
步骤五、基于映射后的观测样本和模板集D构建目标函数,利用L1范数正则化其目标系数项α,并通过LASSO求解得到稀疏映射系数α;分别计算候选观测样本在正模板集和负模板集上的重构误差εf和εb,并获得各候选样本的置信度Lc;选取置信度最大的作为判别模型的最佳候选样本
步骤六、基于观测样本和子空间U构建目标函数,并对重构样本与观测样本的残差进行拉普拉斯建模‖e‖1,以抵御目标跟踪中离群子的干扰;通过一种结合线性回归和软阈值算子的迭代算法对目标函数进行最小化求解,得到收敛的目标系数c*和残差e*;
步骤八、分别计算t+1帧中判别模型和生成模型的最佳候选样本和与t帧的目标状态之间的欧式距离dd和dg,并分别与阈值进行比较,根据自适应选择机制构建最终的联合模型评估函数Hc;选取似然函数值最高的作为第t+1帧的最佳目标状态并进一步收集样本
步骤九、基于最新跟踪结果更新负模板集,更新的图像来自距当前跟踪结果较远的区域,正模板集保持不变;
步骤十、若收集的样本I达到5个,则采用文献[3]的增量主成分方法更新子空间及其均值向量,并重置收集的样本个数为0;若未达到5个,则不更新目标子空间;
步骤十一、若视频未结束,则转入步骤二,读入下一帧图像;否则跟踪结束。
上述技术方案中,步骤二对候选样本的采样方法如图2所示,左图实线框为第t帧的目标状态跟踪框,右图虚线框为t+1帧在粒子滤波框架下通过随机游走方法获取的候选样本跟踪框(即观测样本),具体方法为:
以第t帧目标为中心,目标的运动状态由六个仿射参数组成,即: 这六个仿射参数分别表示代表水平方向的位移、垂直方向的位移、旋转角度、尺度、宽高比、斜切角,并独立服从高斯分布。所以相邻帧之间的状态转移可以表示为:p(xt+1|xt)=N(xt+1;xt,Σ),其中Σ为对角协方差矩阵,其对角元素为六个仿射参数的方差,N(·)表示高斯分布。的运动状态对应的图像块即为候选样本的观测向量
上述技术方案中,步骤四基于稀疏表示的特征选择机制具体为:
其中,为模板集,为标签向量,它的每个元素对应模板集A中每个模板的性质,即+1表示正模板,-1表示负模板。通过LASSO求解上式得到的向量s具有一定的稀疏性,其中的非零元素对应原始特征空间中具有判别力的特征。λ1为正则化系数,取λ1=0.001。根据向量s构建构造映射矩阵S*的具体方法如下:
2.将对角阵S′的所有的零行删去,其他行相应上移得到映射矩阵S*。该矩阵的行数等于向量s中非零元素的个数,列数等于向量s的维数。
其中,λ2为权重参数,取λ2=0.01。通过LASSO求解得到稀疏映射系数α,并制定如下的基于重构误差的评价函数来评估候选样本的置信度:
Lc=exp((εn-εp)/σ),
上述技术方案中,步骤六的稀疏生成模型的外观表述示意图如图3所示。以加权后的PCA子空间和加权后的琐碎模板组合而成,其中的权值分别为目标系数和琐碎模板映射系数。PCA子空间和琐碎模板分别对目标和离群子进行外观描述。由此可以得到目标外观表述的数学表达:
其中y为输入的观测样本(即步骤六中的为表述方便简写为y),U为当前帧的PCA子空间,c为观测样本对应的目标系数,I为琐碎模板(编码可用单位矩阵表示),e为琐碎模板映射系数。由此引出外观模型的最小化问题,即如何在不增加额外开销情况下获取最优的c和e,由此得到如下的稀疏生成模型目标函数:
其中对残差项e进行拉普拉斯建模以抵御离群子的干扰,λ3为稀疏度调节参数,取λ3=0.1。上式可以看做是最小二乘和L1正则项的有机结合,另外,该式是凸的但并非处处可微,因此本发明提出一种结合线性回归和软阈值算子的迭代算法对其进行最小化求解,具体步骤包括:
步骤1.输入当前帧的观测样本y,PCA子空间U;
步骤2.初始化,令目标系数c0=0,残差项e0=0,迭代变量i=0;
步骤3.迭代求解:
a)ci+1:=UT(y-ei)
b)ei+1:=Sτ(y-Uci+1)
c)i←i+1
步骤4.判断目标函数是否收敛,若“是”,输出最优的c*和e*;若“否”,重复步骤3的迭代过程。
其中,Sτ(x)为软阈值算子,即Sτ(x)=sgn(x)max(|x|-τ,0),sgn(·)为符号函数。
上述技术方案中,步骤七基于最优状态参数c*和e*的相似度评价机制如下:
Gc=exp(-γd(y;U)),
上述技术方案中,步骤八提到的两种欧式距离dd和dg的计算方法如下:
其中和分别对应t+1帧中由判别模型和生成模型计算得到的最佳候选样本,表示t帧的目标状态。根据dd和dg与阈值TH的比较结果制定自适应选择机制,旨在舍弃发生恶化的模型的计算结果,构建更为合理的联合模型评估函数Hc,具体步骤如下:
1.当dd≤TH且dg≤TH,此时判别模型和生成模型均未发生恶化,采用相乘机制将二者联合起来,即Hc=LcGc;
2.当dd>TH且dg<TH,这表明判别模型由于引入错误标记的训练样本而发生了退化,故只保留生成模型而暂时舍弃判别模型的计算结果,即Hc=Gc;
3.当dd<TH且dg>TH,此时生成模型发生了恶化,故只选择判别模型的置信度函数作为联合模型的评估函数,即Hc=Lc;
4.当dd>TH且dg>TH,这表明判别模型和生成模型均发生了不同程度的退化,故通过比较dd和dg,选择偏差较小的模型作为最终的似然函数表达,具体有:
a)当dd<dg,令Hc=Lc;
b)当dd≥dg,令Hc=Gc。
其中,取阈值TH=0.12。上述的基于欧式距离的自适应选择机制提供了一种更为灵活的挑选最优候选样本的方法,并致力于解决传统的乘性联合机制出现的由于一种模型丢失或退化而恶化整个联合模型的问题。
上述技术方案中,步骤九用于更新子空间的样本收集方法为:
其中μj为PCA子空间中均值向量μ的第j个元素值,为t+1帧目标状态观测向量的第j个元素值。根据目标状态观测向量对应的残差向量e判断目标区域是否受到离群子干扰,进而考虑是否需要替换掉子空间模板的对应像素值。具体地:当ej≠0时,可认为目标观测向量的第j个元素存在离群子,故利用子空间中的均值向量的第j个元素值μj进行替换;当ej=0时,可认为目标观测向量的第j个元素未受到离群子干扰,故保留当前确定的目标状态观测向量的第j个元素值
上述技术方案中,步骤十一利用文献[3]的方法来增量更新PCA子空间,即每收集到5个样本后,将其加入到当前的PCA子空间来获得新的子空间和目标均值向量。每一次更新后子空间的主成分数就增加5个,当子空间主成分超过16个之后,取前16个构成新的子空间,之后保持最大数量16个不变,具体步骤包括:
1.给定t+1帧子空间U,取U中的基向量组成矩阵A=[I1,I2,…,In],同理取步骤九收集到的样本组成矩阵B=[In+1,In+2,…,In+m](m=5),设A对应的均值向量为B对应的均值向量为并令C=[AB];
上述技术方案中,基于自适应选择机制的稀疏联合模型目标跟踪方法的性能表现如图4-图11所示。图4给出了在Occlusion2实验序列中,当目标物体经受严重遮挡和面内旋转等干扰时算法的跟踪结果;图5给出了在Singer1实验序列中,当目标物体经受剧烈光照变化和尺度变化等干扰时算法的跟踪结果;图6给出了在Football实验序列中,当目标物体经受复杂背景和相似物遮挡等干扰时算法的跟踪结果;图7给出了在Owl实验序列中,当目标物体经受由摄像头快速运动而产生运动模糊等干扰时算法的跟踪结果;图8-图11分别给出了算法在Occlusion2、Singer1、Football、Owl四个序列上的中心偏差曲线图(即真实目标的中心位置和当前跟踪框的中心位置之间的偏差);通过四组序列测试,实验结果以定性的跟踪效果图和定量的中心偏差曲线进行说明,验证了算法在目标被遮挡、光照变化、尺度变化、复杂背景、运动模糊等干扰情形下的鲁棒性。
上面结合附图对本发明的具体实施方式做了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
参考文献
1.W.Zhong,H.Lu,and M.Yang,Robust Object Tracking via SparseCollaborative Appearance Model,IEEE Transactions on Image Process.23(5)(2014)2356-2368.
2.L.Zhao,Q.Zhao,Y.Chen,and P.Lv,Combined discriminative global andgenerative local models for visual tracking,Journal of Electronic Imaging.25(2)(2016)023005.
3.D.Ross,J.Lim,R.Lin,and M.Yang,Incremental learning for robustvisual tracking,International Journal of Computer Vision.77(1-3)(2008)125-141.
Claims (3)
1.基于自适应选择机制的稀疏联合模型目标跟踪方法,其特征在于,包括下列步骤:
步骤一、读入第一帧图像Image1,手动标记视频序列第一帧图像得到初始目标位置;在目标位置周围手动采集m个图像,归一化后按行堆放成向量构成相应的正模板集d为初始特征维数;类似的,在离目标位置较远处采集n个图像,经过相同的处理后获得负模板集降采样目标图像并转为列向量d为目标图像的特征维数,初始化子空间U和奇异值对角矩E为空矩阵;
步骤四、基于模板集及其对应的标签向量利用基于稀疏表示的判别式学习制定特征选择机制,通过最小化求解得到稀疏向量s;根据向量s构建构造映射矩阵S*,并将训练模板集A和观测样本集Yt+1映射到低维特征空间中,得到映射后的模板集D和观测样本集Zt+1;
步骤五、基于映射后的观测样本集Zt+1和模板集D构建目标函数,利用L1范数正则化其目标系数项α,并通过LASSO求解得到稀疏映射系数α;分别计算候选观测样本在正模板集和负模板集上的重构误差εf和εb,并获得各候选样本的置信度Lc;选取置信度最大的作为判别模型的最佳候选样本
步骤五中稀疏判决模型的置信度评价函数:
Lc=exp((εn-εp)/σ),
步骤六、基于观测样本集Yt+1和子空间U构建目标函数,并对重构样本与观测样本的残差进行拉普拉斯建模||e||1,以抵御目标跟踪中离群子的干扰;通过一种结合线性回归和软阈值算子的迭代算法对目标函数进行最小化求解,得到收敛的目标系数c*和残差e*;
其中基于子空间学习和L1正则化的目标函数及其最小化求解方法:
其中y为输入的观测样本,U为当前帧的PCA子空间,c为观测样本对应的目标系数,e为残差项;对残差项e进行拉普拉斯建模以抵御离群子的干扰,λ3为稀疏度调节参数;上述目标函数是凸的但并非处处可微,采用一种结合线性回归和软阈值算子的迭代算法对其进行最小化求解,具体步骤包括:
步骤1.输入当前帧的观测样本y,PCA子空间U;
步骤2.初始化,令目标系数c0=0,残差项e0=0,迭代变量i=0;
步骤3.迭代求解:
a)ci+1:=UT(y-ei)
b)ei+1:=Sτ(y-Uci+1)
c)i←i+1
步骤4.判断目标函数是否收敛,若“是”,输出最优的c*和e*;若“否”,重复步骤3的迭代过程;
其中,Sτ(x)为软阈值算子,即Sτ(x)=sgn(x)max(|x|-τ,0),sgn(·)为符号函数;
根据dd和dg与阈值TH的比较结果制定自适应选择机制,旨在舍弃发生恶化的模型的计算结果,构建更为合理的联合模型评估函数Hc,具体步骤如下:
(1)当dd≤TH且dg≤TH,此时判别模型和生成模型均未发生恶化,采用相乘机制将二者联合起来,即Hc=LcGc;
(2)当dd>TH且dg<TH,这表明判别模型由于引入错误标记的训练样本而发生了退化,故只保留生成模型而暂时舍弃判别模型的计算结果,即Hc=Gc;
(3)当dd<TH且dg>TH,此时生成模型发生了恶化,故只选择判别模型的置信度函数作为联合模型的评估函数,即Hc=Lc;
(4)当dd>TH且dg>TH,这表明判别模型和生成模型均发生了不同程度的退化,故通过比较dd和dg,选择偏差较小的模型作为最终的似然函数表达,具体有:
a)当dd<dg,令Hc=Lc;
b)当dd≥dg,令Hc=Gc;
步骤十、基于最新跟踪结果更新负模板集,更新的图像来自距当前跟踪结果较远的区域,正模板集保持不变;
步骤十一、若收集的样本I达到5个,则采用增量主成分方法更新子空间及其均值向量,并重置收集的样本个数为0;若未达到5个,则不更新目标子空间;
步骤十二、若视频未结束,则转入步骤二,读入下一帧图像;否则跟踪结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710347548.7A CN107203747B (zh) | 2017-05-17 | 2017-05-17 | 基于自适应选择机制的稀疏联合模型目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710347548.7A CN107203747B (zh) | 2017-05-17 | 2017-05-17 | 基于自适应选择机制的稀疏联合模型目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107203747A CN107203747A (zh) | 2017-09-26 |
CN107203747B true CN107203747B (zh) | 2021-01-08 |
Family
ID=59905308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710347548.7A Active CN107203747B (zh) | 2017-05-17 | 2017-05-17 | 基于自适应选择机制的稀疏联合模型目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107203747B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109003291A (zh) * | 2018-07-11 | 2018-12-14 | 上饶师范学院 | 目标跟踪方法及装置 |
CN110738683A (zh) * | 2018-07-19 | 2020-01-31 | 中移(杭州)信息技术有限公司 | 一种计算机视觉跟踪方法及装置 |
CN110660081B (zh) * | 2019-09-18 | 2022-02-11 | 西安交通大学 | 一种基于自适应的特征选择的目标跟踪方法 |
CN111429481B (zh) * | 2020-03-18 | 2022-08-05 | 重庆邮电大学 | 一种基于自适应表达的目标追踪方法、装置及终端 |
CN114266309B (zh) * | 2021-12-22 | 2023-08-29 | 合肥工业大学 | 一种基于反射特征最优的工业云诊断信息智能提取方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654069A (zh) * | 2016-02-03 | 2016-06-08 | 江南大学 | 基于Lp范数正则化的增量子空间目标跟踪方法 |
CN106204651A (zh) * | 2016-07-11 | 2016-12-07 | 上海凌科智能科技有限公司 | 一种基于改进的判决与生成联合模型的目标跟踪方法 |
-
2017
- 2017-05-17 CN CN201710347548.7A patent/CN107203747B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654069A (zh) * | 2016-02-03 | 2016-06-08 | 江南大学 | 基于Lp范数正则化的增量子空间目标跟踪方法 |
CN106204651A (zh) * | 2016-07-11 | 2016-12-07 | 上海凌科智能科技有限公司 | 一种基于改进的判决与生成联合模型的目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
"Robust Object Tracking via Sparse Collaborative Appearance Model";Wei Zhong等;;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20140531;第23卷(第5期);第2358-2361页 * |
"基于线性表示模型的在线视觉跟踪算法研究";王栋;;《中国博士学位论文全文数据库 信息科技辑》;20140515;正文第42-57页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107203747A (zh) | 2017-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107203747B (zh) | 基于自适应选择机制的稀疏联合模型目标跟踪方法 | |
Rong et al. | Delving deep into hybrid annotations for 3d human recovery in the wild | |
CN102629374B (zh) | 基于子空间投影和邻域嵌入的图像超分辨率重建方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN110263666B (zh) | 一种基于非对称多流的动作检测方法 | |
CN109544603B (zh) | 基于深度迁移学习的目标跟踪方法 | |
CN110728694B (zh) | 一种基于持续学习的长时视觉目标跟踪方法 | |
CN105608478B (zh) | 一种图像的特征提取与分类联合方法及系统 | |
CN107169117B (zh) | 一种基于自动编码器和dtw的手绘图人体运动检索方法 | |
CN106709421B (zh) | 一种基于变换域特征和cnn的细胞图像识别分类方法 | |
CN108734200B (zh) | 基于bing特征的人体目标视觉检测方法和装置 | |
CN107730482A (zh) | 一种基于区域能量和方差的稀疏融合算法 | |
CN103985143A (zh) | 基于字典学习的视频中判别性在线目标跟踪方法 | |
CN112085765A (zh) | 结合粒子滤波及度量学习的视频目标跟踪方法 | |
CN111462184B (zh) | 基于孪生神经网络线性表示模型的在线稀疏原型跟踪方法 | |
CN114565594A (zh) | 基于软掩膜对比损失的图像异常检测方法 | |
CN110097499B (zh) | 基于谱混合核高斯过程回归的单帧图像超分辨率重建方法 | |
Mattheus et al. | A review of motion segmentation: Approaches and major challenges | |
Moridvaisi et al. | An extended KCF tracking algorithm based on TLD structure in low frame rate videos | |
Wang et al. | Uneven image dehazing by heterogeneous twin network | |
CN114066786A (zh) | 一种基于稀疏和滤波器的红外和可见光图像融合方法 | |
CN116342653A (zh) | 一种基于相关滤波器的目标跟踪方法、系统、设备及介质 | |
CN110189356B (zh) | 一种反向低秩稀疏约束下的融合Lasso目标跟踪方法 | |
CN113112506A (zh) | 基于指数幂次分布和矩阵分解的在线运动目标检测方法 | |
CN113128471A (zh) | 基于注意力机制和生成对抗网络的高光谱影像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |