CN105654069A - 基于Lp范数正则化的增量子空间目标跟踪方法 - Google Patents
基于Lp范数正则化的增量子空间目标跟踪方法 Download PDFInfo
- Publication number
- CN105654069A CN105654069A CN201610077542.8A CN201610077542A CN105654069A CN 105654069 A CN105654069 A CN 105654069A CN 201610077542 A CN201610077542 A CN 201610077542A CN 105654069 A CN105654069 A CN 105654069A
- Authority
- CN
- China
- Prior art keywords
- target
- subspace
- sample
- frame
- tau
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于Lp范数正则化的增量子空间目标跟踪方法,包括以下步骤:读入视频序列图像,手动标记第一帧目标的图像;利用Ross的方法获取观测值;对前5帧图像直接计算残差来确定当前帧的目标装态,并收集样本,采用Ross的方法获取初始的子空间和均值向量;从第6帧开始,在增广拉格朗日的框架下对观测样本建立目标函数,并进行最小化计算;评估每个候选样本成为当前帧真实目标的置信度,并收集样本;当收集的样本达到5个时,采用Ross的方法增量更新子空间和均值向量。本发明在保证有一定实时性的前提下,对目标在遮挡、光照、运动模糊等挑战下都具有较强的抗干扰性,并能在一个统一的框架下,观测不同稀疏度对跟踪的影响。
Description
技术领域:
本发明属于机器视觉领域,特别涉及一种基于Lp范数正则化的增量子空间目标跟踪方法。
背景技术:
视频中的目标跟踪在视频监控、人机交互、行为分析等领域中都有重要的应用。尽管在近十年内,各国专家学者提出了很多方法,在该领域内取得了很多激动人心的进展,但是对目标进行实时鲁棒的跟踪依然是一项极具挑战的工作。原因之一就是视频是一种动态的时间序列,目标在行进过程中,其姿态会发生变化,并可能会遭遇光照、遮挡、相似物体的干扰。同时在行进过程中,摄像机的抖动或者目标的快速运动也会造成目标外观的模糊,更是进一步加剧了目标跟踪的难度。
近几年基于子空间协作表示的提出,在很大程度上降低了目标跟踪的难度。针对视频序列的目标,Ross[1]等提出利用目标的主成分信息构建子空间,并采用增量更新的方式,使子空间中的目标信息能够适应目标的形态改变而有效更新,并通过子空间中主成分信息的线性组合,对候选样本进行协作表示。针对Ross[1]方法欠缺处理离群子(如遮挡)的机制,Xiao[2]等进一步提出利用一种矩形模板来模拟跟踪过程中产生的离群子,并在对候选样本的评估和子空间的更新中,定量的考虑离群子的存在,在一定程度上提高了跟踪的效果。
但是,基于子空间协作表示的方法,需要充分利用到子空间中每一个特征成分去进行目标重构,不可避免地引入冗余的特征成分。另外,对遮挡的处理仍然具有不妥之处,如[2]中的矩形模板,具有同时重构前景和背景的能力,当利用到每一个矩形模板进行协作表示时,势必会进一步恶化此二义性,造成目标的偏移甚至丢失。
发明内容:
本发明是为了克服上述现有技术中缺陷,提供了一种基于Lp范数正则化的增量子空间目标跟踪方法。
为了实现上述目的,本发明提供如下基于Lp范数正则化的增量子空间目标跟踪方法:
步骤一、读入第一帧图像Image1,手动标记视频序列第一帧的目标图像,降采样目标图像并转为列向量d为目标图像的特征维数。初始化子空间D和奇异值对角矩E为空矩阵;
步骤二、读入下一帧Imaget+1(t≥1),基于Ross[1]的方法获取t+1帧候选样本的运动状态集合并将对应图像作为目标函数中的观测值的集合其中m为样本的个数;
步骤三、标记第i个观测样本同时确定当前t+1帧帧号,若t+1≤5,则计算观测样本与第t帧真实目标状态的残差,得出t+1帧的真实目标状态并收集样本It+1,转入步骤八;否则直接转入步骤四;
步骤四、对观测样本构建目标函数,并对重构样本与观测样本的残差直接进行拉普拉斯建模||e||1,以容纳目标跟踪中受到的离群子干扰;针对储存目标信息的PCA子空间的目标系数利用Lp范数正则化其目标系数项||c||p,以在重构样本时,消除冗余特征的干扰;在增广拉格朗日算法下构建本专利提出的目标函数;
步骤五、基于APG算法,对目标函数进行最小化计算,获得收敛的残差e*和目标系数c*;
步骤六、评估所有候选样本成为真实目标状态的置信度,获得第t+1帧的最佳目标状态
步骤七、获取到目标状态后,进一步收集样本
步骤八、若收集的样本I达到五个,则采用Ross[1]的更新方法对子空间进行更新,并重置收集的样本个数为0;若未达到5个,则不更新目标子空间;
步骤九、若视频未结束,则转入步骤二,读入下一帧图像;否则跟踪结束。
与现有技术相比,本发明具有如下有益效果:
1.通过步骤四在增广拉格朗日算法下构建本专利提出的目标函数,能有效加强抵御离群子的能力,避免对子空间冗余的特征进行选择。同时,我们也能在这个统一的框架下,在不影响其他因素的情况下观测不同p范数(0≤p≤1)对跟踪器的影响;
2.通过步骤四在迭代加速近邻梯度算法的框架下,利用软阈值操作和广义软阈值操作进行外观函数中相应状态参数最小化计算,能够快速有效地获取候选样本相应的状态参数;
3.结合增量子空间更新技术以及运动模型中的粒子滤波技术、对候选样本进行可靠的评估,并共同构建了一个鲁棒的学习系统。针对不同的挑战,本发明都具有较高的鲁棒性,达到了稳定的高跟踪精度。
因此,本发明在视频监控、人机交互、行为分析等领域都有广泛的应用前景。
附图说明:
图1为本发明的基于Lp范数正则化的增量子空间目标跟踪方法的流程示意图;
图2为本发明针中候选样本采样的示意图;
图3为本发明目标表示的示意图;
图4为本发明求解目标函数最小化算法的流程图;
图5为本发明在目标函数最小化中求解Lp正则化的目标系数而引入的广义软阈值算法的流程图;
图6为本发明对几种常见干扰下的跟踪效果图。
具体实施方式
下面结合附图和具体实施方式,对本发明基于Lp范数正则化的增量子空间目标跟踪方法的流程示意图做进一步的说明。
参考图1,本发明基于Lp范数正则化的增量子空间目标跟踪方法包含以下步骤:
步骤一、读入第一帧图像Image1,手动标记视频序列第一帧的目标图像,降采样目标图像并转为列向量d为目标图像的特征维数。初始化子空间D和奇异值对角矩E为空矩阵;
步骤二、读入下一帧Imaget+1(t≥1),基于Ross[1]的方法获取t+1帧候选样本集合并将对应图像作为目标函数中的观测值的集合其中m为样本的个数;
步骤三、标记第i个观测样本同时确定当前t+1帧帧号,若t+1≤5,则计算观测样本与第t帧真实目标状态的残差,得出t+1帧的真实目标状态并收集样本It+1,转入步骤八;否则直接转入步骤四;
步骤四、对观测样本构建目标函数,并对重构样本与观测样本的残差直接进行拉普拉斯建模||e||1,以容纳目标跟踪中受到的离群子干扰;针对储存目标信息的PCA子空间的目标系数利用Lp范数正则化其目标系数项||c||p,以在重构样本时,消除冗余特征的干扰;在增广拉格朗日算法下构建本专利提出的目标函数;
步骤五、基于APG算法,对目标函数进行最小化计算,获得收敛的残差e*和目标系数c*;
步骤六、评估所有候选样本成为真实目标状态的置信度,获得第t+1帧的最佳目标状态
步骤七、获取到目标状态后,进一步收集样本
步骤八、若收集的样本I达到五个,则采用Ross[1]的更新方法对子空间及其均值向量进行更新,并重置收集的样本个数为0;若未达到5个,则不更新目标子空间;
步骤九、若视频未结束,则转入步骤二,读入下一帧图像;否则跟踪结束。
上述技术方案中,步骤二对候选样本的采样方法如图2所示,左图实线框为第t帧的目标状态跟踪框,右图虚线框为t+1帧通过Ross随机游走方法获取的候选样本跟踪框(观测样本),具体方法为:
1.以第t帧目标为中心,用六个仿射参数来描述候选样本的运动状态:x={lx,ly,θ,s,α,φ}。这六个仿射参数分别表示水平位置平移lx,垂直位置平移ly,转角θ,尺度s,高宽比α,斜度φ,并独立服从高斯分布;
2.进行状态转移,获取t+1帧所有的运动状态xt+1:p(xt+1|xt)=N(xt+1;xt,Φ),其中Φ为对角协方差矩阵,其对角元素为六个仿射参数的标准差,N表示高斯分布。的运动状态对应的图像块便作为观测值
上述技术方案中,步骤三中,若当前桢号t+1≤5时,则计算观测样本与第t帧真实目标状态的残差并通过如下评价函数来评估对应候选样本的置信度:
p(y|x)=exp(-||e||1)
p(y|x)值最大的候选样本设为当前的目标状态并收集样本:
上述技术方案中,步骤四的外观表示示意图如图3所示。针对观测样本构建目标函数,为了方便描述,我们将观测样本简写为y,则具体步骤为:
1.针对由目标PCA基向量构成的子空间,需避免冗余特征的干扰,采用Lp范数对子空间的映射系数进行稀疏化,则有以下最小化函数:
其中y为输入的观测样本,D为当前的PCA子空间,c为观测样本对应的目标系数,用于在子空间中挑选目标的特征成分,ρ为稀疏调节参数;
2.针对跟踪过程中目标产生的离群子(如遮挡)处理,舍弃矩形模板的协作表示方法,针对残差y-Dc,直接进行拉普拉斯建模,通过残差的非0部分来识别离群子的存在,则有:
3.令e=y-Dc,并作为约束条件,则有:
在增广拉格朗日算法的框架下可以得到以下目标函数:
其中<·>表示内积操作,γ表示拉格朗日乘子,τ是惩罚参数,用来惩罚目标的重构误差,{τk}为单调递增序列。
上述技术方案中,步骤五针对目标函数进行最小化计算,求取对应的最优参数c*和e*,所使用的迭代加速近邻梯度APG算法如图4所示,具体步骤包括:
1.输入观测样本y,目标的PCA子空间D;
2.设置初始变量,其中残差项初始变量e0=e-1=0,目标系数初始变量c0=c-1=0,变量t0=t-1=1,τ0=10;
3.开始进行迭代操作,将步骤四中目标函数转化为 取其中凸可微部分作为APG算法中的令k作为当前的迭代次数,固定残差项e和目标系数项c中的某一项进行迭代计算。取作为APG算法中目标系数项c的辅助变量,为APG算法中残差项e的辅助变量,令k从0开始迭代到c和e收敛为止。有以下迭代过程:
其中γk和τk分别为第k次迭代获取的拉格朗日乘子和惩罚参数。为一常
数,确保{τk}单调递增,并取t为整个迭代过程用于更新和的中间变量,ξ为APG算法中的利普希茨常数,取ξ=10。上述迭代过程中,残差项的最小化问题 可以通过软阈值算法求解,有 软阈值操作为:Sθ(x)=sign(x)max(|x|-θ,0)。上述迭代过程中,目标系数项的最小化问题 可以通过广义软阈值操作迭代求解,求解过程为:
a)输入中间变量和ck,并令λ=ρ/τξ,其中 设定范数值为p,这边取p=0.5;
b)计算阈值:
c)对向量取绝对值,且向量中小于阈值τgst的元素取0;
d)进行迭代计算,设置当前迭代次数i=0,并令开始迭代直到收敛为止,则有:
e)输出
4.输出求解过后最优的目标系数项c*和残差项e*。
上述技术方案中,步骤六当t+1>5时,有如下的评价机制来评估候选样本的置信度:
p(y|x)=exp(-σE(c*,e*))
其中 σ是常数,用来控制高斯核的形状,取σ=10。δ为常数,用来调节残差的惩罚程度,取δ=0.5。该式前半部分用来描述实际情况下的目标表示误差,后半部分用来衡量残差的离群程度。
上述技术方案中,步骤七用于更新子空间的样本收集方法为:
其中μj为子空间更新中获取的均值向量μ的第j个元素值。为t+1帧确定出的目标状态的第j个元素值。观测目标状态对应的残差向量e,值为非0的位置可考虑为离群子存在,利用子空间中的均值向量对应位置来替换,值为0的位置考虑为未受离群子干扰,直接利用当前确定的最优样本的值。
上述技术方案中,步骤八利用基于Ross[1]的方法来增量更新PCA子空间,即每收集到5个样本后,添加进当前的PCA子空间获取新的子空间与目标的均值向量。每一次更新后子空间的主成分数量便增加5个,当子空间主成分超过16个之后,取前16个作为新的子空间,并保持最大数量16个不变,具体步骤为:
1.给定t+1帧子空间D,将D中的基向量组成数据矩A=[I1,I2,...,Ib],同理将步骤六收集到的样本组成数据矩B=[In+1,In+2,...,In+m](m=5),A对应的均值向量B对应的均值向量令C=[AB];
2.计算均值向量
3.生成矩阵
4.正交化计算 计算
5.对R进行SVD奇异值分解:
6.获取新的子空间新的奇异值对角矩及新的均值向量
参考文献
1.D.Ross,J.Lim,R.LinandM.Yang.Incrementallearningforrobustvisualtracking.InternationalJournalofComputerVision,Springer,77(1),pp.125-141,2008.
2.Z.Xiao,H.Lu,andD.Wang.L2-RLSBasedObjectTracking,CircuitsandSystemsforVideoTechnology,IEEETransactionon,24(8),pp.1301-1308,2014.
Claims (8)
1.基于Lp范数正则化的增量子空间目标跟踪方法,其特征在于,包括下列步骤:
步骤一、读入第一帧图像Image1,手动标记视频序列第一帧的目标图像,降采样目标图像并转为列向量d为目标图像的特征维数,初始化子空间D和奇异值对角矩E为空矩阵;
步骤二、读入下一帧Imaget+1(t≥1),基于Ross的方法获取t+1帧候选样本的运动状态集合并将对应图像作为目标函数中的观测值的集合其中m为样本的个数;
步骤三、标记第i个观测样本同时确定当前t+1帧帧号,若t+1≤5,则计算观测样本与第t帧真实目标状态的残差,得出t+1帧的真实目标状态并收集样本It+1,转入步骤八;否则直接转入步骤四;
步骤四、对观测样本构建目标函数,并对重构样本与观测样本的残差直接进行拉普拉斯建模||e||1,以容纳目标跟踪中受到的离群子干扰;针对储存目标信息的PCA子空间的目标系数利用Lp范数正则化其目标系数项||c||p,以在重构样本时,消除冗余特征的干扰;在增广拉格朗日算法下构建本专利提出的目标函数;
步骤五、基于APG算法,对目标函数进行最小化计算,获得收敛的残差e*和目标系数c*;
步骤六、评估所有候选样本成为真实目标状态的置信度,获得第t+1帧的最佳目标状态
步骤七、获取到目标状态后,进一步收集样本
步骤八、若收集的样本I达到五个,则采用Ross的更新方法对子空间及其均值向量进行更新,并重置收集的样本个数为0;若未达到5个,则不更新目标子空间;
步骤九、若视频未结束,则转入步骤二,读入下一帧图像;否则跟踪结束。
2.根据权利要求1所述的基于Lp范数正则化的增量子空间目标跟踪方法,其特征是,步骤二对候选样本进行采样,具体方法为:
1)以第t帧目标为中心,用六个仿射参数来描述候选样本的运动状态:x={lx,ly,θ,s,α,φ},这六个仿射参数分别表示水平位置平移lx,垂直位置平移ly,转角θ,尺度s,高宽比α,斜度φ,并独立服从高斯分布;
2)进行状态转移,获取t+1帧所有的运动状态xt+1:p(xt+1|xt)=N(xt+1;xt,Φ),其中Φ为对角协方差矩阵,其对角元素为六个仿射参数的标准差,N表示高斯分布,的运动状态对应的图像块便作为观测值
3.根据权利要求1所述的基于Lp范数正则化的增量子空间目标跟踪方法,其特征是,步骤三若当前桢号t+1≤5时,得到第i个候选样本的残差并通过如下评价机制来评估对应候选样本的置信度:
p(y|x)=exp(-||ei||1)
p(y|x)值最大的候选样本设为当前的目标状态并收集样本:
4.根据权利要求1所述的基于Lp范数正则化的增量子空间目标跟踪方法,其特征是,步骤四若当前桢号t+1>5,则针对观测样本构建目标函数,为了方便描述,我们将观测样本简写为y,则具体步骤为:
1)针对由目标PCA基向量构成的子空间,需避免冗余特征的干扰,采用Lp范数对子空间的映射系数进行稀疏化,则有以下最小化函数:
其中y为输入的观测样本,D为当前的PCA子空间,c为观测样本对应的目标系数,用于在子空间中挑选目标的特征成分,ρ为稀疏调节参数;
2)针对跟踪过程中目标产生的离群子(如遮挡)处理,舍弃矩形模板的协作表示方法,针对残差y-Dc,直接进行拉普拉斯建模,通过残差的非0部分来识别离群子的存在,则有:
3)令e=y-Dc,并作为约束条件,则有:
在增广拉格朗日算法的框架下可以得到以下目标函数:
其中<·>表示内积操作,γ表示拉格朗日乘子,τ是个惩罚参数,用来惩罚目标的重构误差,{τk}为单调递增序列。
5.根据权利要求1所述的基于Lp范数正则化的增量子空间目标跟踪方法,其特征是,步骤五针对目标函数进行最小化计算,求取对应的最优参数c*和e*,所使用的迭代加速近邻梯度APG算法包括:
1)输入观测样本y,目标的PCA子空间D;
2)设置初始变量,其中残差项初始变量e0=e-1=0,目标系数初始变量c0=c-1=0,变量t0=t-1=1,τ0=10;
3)开始进行迭代操作,将步骤四中目标函数转化为 并取其中凸可微部分作为APG算法中的令k作为当前的迭代次数,固定残差项e和目标系数项c中的某一项进行迭代计算;取作为APG算法中目标系数项c的辅助变量,为APG算法中残差项e的辅助变量,令k从0开始迭代到c和e收敛为止,有以下迭代过程:
其中γk和τk分别为第k次迭代获取的拉格朗日乘子和惩罚参数,为一常数,确保{τk}单调递增,并取t为整个迭代过程用于更新和的中间变量,ξ为APG算法中的利普希茨常数,取ξ=10;上述迭代过程中,残差项的最小化问题 可以通过软阈值算法求解: 软阈值操作为:Sθ(x)=sign(x)max(|x|-θ,0);上述迭代过程中,目标系数项的最小化问题 可以通过广义软阈值操作迭代求解,求解过程为:
a)输入中间变量和ck,并令λ=ρ/τξ,其中 设定范数值为p,这边取p=0.5;
b)计算阈值:
c)对向量取绝对值,且向量中小于阈值τgst的元素取0;
d)进行迭代计算,设置当前迭代次数i=0,并令开始迭代直到收敛为止,则有:
e)输出
4)输出求解过后最优的目标系数项c*和残差项e*。
6.根据权利要求1所述的基于Lp范数正则化的增量子空间目标跟踪方法,其特征是,步骤六当t+1>5时,有如下的评价机制来评估候选样本的置信度:
p(y|x)=exp(-σE(c*,e*))
其中 σ是常数,用来控制高斯核的形状,取σ=10;δ为常数,用来调节残差的惩罚程度,取δ=0.5。该式前半部分用来描述实际情况下的目标表示误差,后半部分用来衡量残差的离群程度。
7.根据权利要求1所述的基于Lp范数正则化的增量子空间目标跟踪方法,其特征是,步骤七中用于更新子空间的样本收集方法为:
其中μj为子空间更新中获取的均值向量μ的第j个元素值,为t+1帧确定出的目标状态的第j个元素值,目标状态对应的残差向量e,值为非0的位置可考虑为离群子存在,利用子空间中的均值向量对应位置来替换,值为0的位置考虑为未受离群子干扰,直接利用当前确定的最优样本的值。
8.根据权利要求1所述的基于Lp范数正则化的增量子空间目标跟踪方法,其特征是,步骤八利用基于Ross的方法来增量更新PCA子空间,即每收集到5个样本后,添加进当前的PCA子空间获取新的子空间与目标的均值向量,每一次更新后子空间的主成分数量便增加5个,当子空间主成分超过16个之后,取前16个作为新的子空间,并保持最大数量16个不变,具体步骤为:
1)给定t+1帧子空间D,将D中的基向量组成数据矩A=[I1,I2,...,In],同理将步骤六收集到的样本组成数据矩B=[In+1,In+2,...,In+m](m=5),A对应的均值向量B对应的均值向量令C=[AB];
2)计算均值向量
3)生成矩阵
4)正交化计算 计算
5)对R进行SVD奇异值分解:
6)获取新的子空间新的奇异值对角矩及新的均值向量
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610077542.8A CN105654069B (zh) | 2016-02-03 | 2016-02-03 | 基于Lp范数正则化的增量子空间目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610077542.8A CN105654069B (zh) | 2016-02-03 | 2016-02-03 | 基于Lp范数正则化的增量子空间目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105654069A true CN105654069A (zh) | 2016-06-08 |
CN105654069B CN105654069B (zh) | 2019-05-10 |
Family
ID=56489284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610077542.8A Active CN105654069B (zh) | 2016-02-03 | 2016-02-03 | 基于Lp范数正则化的增量子空间目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105654069B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106339996A (zh) * | 2016-09-09 | 2017-01-18 | 江南大学 | 一种基于超拉普拉斯先验的图像盲去模糊方法 |
CN106355204A (zh) * | 2016-08-31 | 2017-01-25 | 武汉大学 | 基于贝叶斯学习和增量子空间学习的目标跟踪方法 |
CN106529526A (zh) * | 2016-07-06 | 2017-03-22 | 安徽大学 | 一种基于稀疏表示和先验概率相结合的目标跟踪算法 |
CN107203747A (zh) * | 2017-05-17 | 2017-09-26 | 江南大学 | 基于自适应选择机制的稀疏联合模型目标跟踪方法 |
CN108828670A (zh) * | 2018-08-20 | 2018-11-16 | 成都理工大学 | 一种地震数据降噪方法 |
CN110060280A (zh) * | 2019-04-28 | 2019-07-26 | 东华大学 | 基于外观自适应空间正则化相关滤波器的目标跟踪方法 |
CN110210405A (zh) * | 2019-06-04 | 2019-09-06 | 中国矿业大学 | 一种基于目标追踪的行人搜索样本扩充方法 |
CN110738683A (zh) * | 2018-07-19 | 2020-01-31 | 中移(杭州)信息技术有限公司 | 一种计算机视觉跟踪方法及装置 |
CN111414858A (zh) * | 2020-03-19 | 2020-07-14 | 北京迈格威科技有限公司 | 人脸识别方法、目标图像的确定方法、装置和电子系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070183629A1 (en) * | 2006-02-09 | 2007-08-09 | Porikli Fatih M | Method for tracking objects in videos using covariance matrices |
CN104484890A (zh) * | 2014-12-18 | 2015-04-01 | 上海交通大学 | 基于复合稀疏模型的视频目标跟踪方法 |
CN105046717A (zh) * | 2015-05-25 | 2015-11-11 | 浙江师范大学 | 一种鲁棒性的视频目标对象跟踪方法 |
-
2016
- 2016-02-03 CN CN201610077542.8A patent/CN105654069B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070183629A1 (en) * | 2006-02-09 | 2007-08-09 | Porikli Fatih M | Method for tracking objects in videos using covariance matrices |
CN104484890A (zh) * | 2014-12-18 | 2015-04-01 | 上海交通大学 | 基于复合稀疏模型的视频目标跟踪方法 |
CN105046717A (zh) * | 2015-05-25 | 2015-11-11 | 浙江师范大学 | 一种鲁棒性的视频目标对象跟踪方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106529526A (zh) * | 2016-07-06 | 2017-03-22 | 安徽大学 | 一种基于稀疏表示和先验概率相结合的目标跟踪算法 |
CN106529526B (zh) * | 2016-07-06 | 2019-12-17 | 安徽大学 | 一种基于稀疏表示和先验概率相结合的目标跟踪方法 |
CN106355204B (zh) * | 2016-08-31 | 2019-08-20 | 武汉大学 | 基于贝叶斯学习和增量子空间学习的目标跟踪方法 |
CN106355204A (zh) * | 2016-08-31 | 2017-01-25 | 武汉大学 | 基于贝叶斯学习和增量子空间学习的目标跟踪方法 |
CN106339996A (zh) * | 2016-09-09 | 2017-01-18 | 江南大学 | 一种基于超拉普拉斯先验的图像盲去模糊方法 |
CN106339996B (zh) * | 2016-09-09 | 2018-11-30 | 江南大学 | 一种基于超拉普拉斯先验的图像盲去模糊方法 |
CN107203747A (zh) * | 2017-05-17 | 2017-09-26 | 江南大学 | 基于自适应选择机制的稀疏联合模型目标跟踪方法 |
CN107203747B (zh) * | 2017-05-17 | 2021-01-08 | 江南大学 | 基于自适应选择机制的稀疏联合模型目标跟踪方法 |
CN110738683A (zh) * | 2018-07-19 | 2020-01-31 | 中移(杭州)信息技术有限公司 | 一种计算机视觉跟踪方法及装置 |
CN108828670A (zh) * | 2018-08-20 | 2018-11-16 | 成都理工大学 | 一种地震数据降噪方法 |
CN110060280A (zh) * | 2019-04-28 | 2019-07-26 | 东华大学 | 基于外观自适应空间正则化相关滤波器的目标跟踪方法 |
CN110210405A (zh) * | 2019-06-04 | 2019-09-06 | 中国矿业大学 | 一种基于目标追踪的行人搜索样本扩充方法 |
CN111414858A (zh) * | 2020-03-19 | 2020-07-14 | 北京迈格威科技有限公司 | 人脸识别方法、目标图像的确定方法、装置和电子系统 |
CN111414858B (zh) * | 2020-03-19 | 2023-12-19 | 北京迈格威科技有限公司 | 人脸识别方法、目标图像的确定方法、装置和电子系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105654069B (zh) | 2019-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105654069A (zh) | 基于Lp范数正则化的增量子空间目标跟踪方法 | |
CN110717354B (zh) | 基于半监督k-svd与多尺度稀疏表示的超像元分类方法 | |
CN107644415B (zh) | 一种文本图像质量评估方法及设备 | |
CN108734723B (zh) | 一种基于自适应权重联合学习的相关滤波目标跟踪方法 | |
CN110210545B (zh) | 基于迁移学习的红外遥感水体分类器构建方法 | |
CN113159048A (zh) | 一种基于深度学习的弱监督语义分割方法 | |
CN102629374B (zh) | 基于子空间投影和邻域嵌入的图像超分辨率重建方法 | |
CN103020912B (zh) | 一种结合波段聚类和稀疏表达的遥感影像复原方法 | |
CN106447630B (zh) | 基于概率矩阵分解的高光谱图像锐化方法 | |
CN110895820B (zh) | 一种基于kcf的尺度自适应目标跟踪方法 | |
CN106971189B (zh) | 一种低分辨率含噪星图识别方法 | |
CN107203747B (zh) | 基于自适应选择机制的稀疏联合模型目标跟踪方法 | |
CN106097381A (zh) | 一种基于流形判别非负矩阵分解的目标跟踪方法 | |
CN116524062B (zh) | 一种基于扩散模型的2d人体姿态估计方法 | |
CN110533100A (zh) | 一种基于机器学习进行cme检测和跟踪的方法 | |
CN107194873A (zh) | 基于耦合字典学习的低秩核范数正则人脸图像超分辨方法 | |
CN109671019A (zh) | 一种基于多目标优化算法和稀疏表达的遥感影像亚像元制图方法 | |
CN106874881B (zh) | 一种多模板时空关联的局部反联合稀疏表示目标跟踪方法 | |
CN104463962B (zh) | 基于gps信息视频的三维场景重建方法 | |
CN109871907B (zh) | 基于sae-hmm模型的雷达目标高分辨率距离像识别方法 | |
CN111553954B (zh) | 一种基于直接法单目slam的在线光度标定方法 | |
CN113870327A (zh) | 基于预测多层次变形场的医学图像配准方法 | |
CN103530875B (zh) | 一种端元提取数据预处理方法 | |
CN113255487A (zh) | 一种三维实时人体姿态识别方法 | |
CN111507276B (zh) | 一种基于隐藏层增强特征的工地安全帽检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |