CN105976397B - 一种目标跟踪方法 - Google Patents
一种目标跟踪方法 Download PDFInfo
- Publication number
- CN105976397B CN105976397B CN201610273862.0A CN201610273862A CN105976397B CN 105976397 B CN105976397 B CN 105976397B CN 201610273862 A CN201610273862 A CN 201610273862A CN 105976397 B CN105976397 B CN 105976397B
- Authority
- CN
- China
- Prior art keywords
- sample
- frame
- positive
- matrix
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/245—Classification techniques relating to the decision surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30221—Sports video; Sports image
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于半非负优化集成学习的目标跟踪方法,主要解决现有技术中目标跟踪准确率低的问题。其技术方案为:1.读取第一帧视频图像的目标位置,选取正负样本包,并在样本包中选取正负样本;2.根据样本训练高斯模型弱分类器,并为每个弱分类器分配权值,选取权值最高的部分弱分类器组成强分类器;3.利用强分类器预测新一帧图像目标位置,并根据目标位置选取样本包;4.对目标进行异常判断,如果发生异常,保持分类器参数不变;如果没有发生异常,更新分类器参数,持续跟踪视频图像序列到最后一帧。本发明具有跟踪准确率高,鲁棒性强的优点,可用于计算机视觉,人机交互领域。
Description
技术领域
本发明属于图像处理技术领域,涉及目标的跟踪方法,可应用于计算机视觉,人机交互和视频监控。
背景技术
目标跟踪是指在给出的一系列视频图像序列中,准确的计算出所跟踪目标在图像中具体的位置坐标。简单来说,目标跟踪就是通过跟踪算法计算出图像序列中目标的二维坐标信息来进行持续的跟踪,并为后续的视频分析和处理提供信息。随着数字计算机技术和多媒体技术的快速发展,摄像机和电脑也越来越多的代替人脑和人眼来处理视觉信息,从而使得计算机视觉领域的研究愈加火热。同时,视频目标跟踪这一综合了图像处理,人工智能,模式识别和机器学习的研究领域,也逐渐形成了一门新的应用技术,在视频监控、医学图像、智能交通、机器人制造等众多与人类密切相关的方面有着极大的应用价值和广泛的发展前景。
西北工业大学提出的专利申请“一种基于稀疏特征选择的目标跟踪方法”(专利申请号201510323582.1,公开号CN104933733A)公开了一种基于稀疏特征选择的目标跟踪方法,该方法包括:首先利用Haar-like特征对目标、背景以及待选目标点进行表示;其次利用稀疏表示具有的特殊性质对高维的Haar-like特征进行特征选择,选择那些对目标和背景具有良好区分性的特征作为样本点的表示;最后利用选好的样本点训练朴素贝叶斯分类器,同时在线进行更新分类,使得分类器能实时反映目标和背景之间关系。该方法虽然在传统的目标跟踪方法的基础上,融入了样本特征的稀疏表示,提高了目标跟踪的速率,但仍然存在的不足是:单独的朴素贝叶斯分类器对于样本的分类准确率较低。
北京工业大学提出的专利申请“基于改进多示例学习算法的运动目标跟踪方法”(专利申请号201310276316.9,公开号CN103325125A)公开了一种基于改进多示例学习算法的运动目标跟踪算法,该方法包括:首先根据压缩感知理论设计随机测量矩阵;其次利用多示例学习算法在当前跟踪结果小领域采样示例构成正包,在其大领域圆环采样示例构成负包;然后在图像平面提取表征目标的特征,并利用随机感知矩阵对其降维;然后利用Online-Boosting算法在线学习弱分类器,并在弱分类器池中选择判别能力较强的弱分类器构成强分类器,用于分类下一帧图像的目标待测图像片;最后当跟踪到新的目标位置时,利用当前跟踪结果与目标模板的相似性分数在线自适应调整分类器更新程度参数,从而完成对分类器的自适应更新。该方法虽然在传统多示例目标跟踪的基础上融入了Boosting分类器学习的方法,提高了目标跟踪的准确率,但仍然存在的不足是:当目标跟踪发生遮挡或者剧烈的形变等异常情况时,分类器仍旧按照之前的规则更新参数,从而降低了发生异常时系统的鲁棒性和准确性。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种半非负优化集成学习的目标跟踪方法,以提高对于目标跟踪的准确性以及目标发生异常时的鲁棒性和准确性。
为实现上述目的,本发明的技术方案包括如下:
(1)输入视频序列,读取第一帧图像目标位置信息作为初始目标信息;
(2)根据当前帧读取的图像目标位置信息,构建高斯模型:
2a)从当前帧读取的图像中选取49个与初始目标框大小相同的图像块作为正样本包,并在初始目标框周围均匀选取49个与初始目标框大小相同的图像块作为负样本包;
2b)对于提取的正负样本包,分别在每个样本包内的M个相同位置提取Haar-like特征,得到正样本矩阵Xp 49×M,负样本矩阵Xn 49×M,则样本矩阵为
2c)对正、负样本分别构建高斯模型,得到正样本均值μ1和方差σ1和负样本均值μ0和方差σ0:
μ1=(μ11,μ12,μ1j,...,μ1M),σ1=(σ11,σ12,σ1j,...,σ1M),
μ0=(μ01,μ01,μ0j,...,μ0M),σ0=(σ01,σ02,σ0j...,σ0M),
j=1,2…M,将与M个相同位置对应的M组高斯模型参数表示为:(μ1,σ1;μ0,σ0)。
(3)根据样本的M组高斯模型训练分类器:
3a)对于正负样本包分别设置标签,即将正样本标签设为+1,负样本标签设为-1,并生成真实标签矩阵Y98×1;
3b)根据M组高斯模型对应生成M个弱分类器(h1,h2,hj…hM),j=1,2…M,并利用生成的弱分类器对已知样本X中每一个样本xij的标签进行预测,i=1,2…98,生成预测标签矩阵F98×M;
3c)根据真实标签矩阵Y和预测标签矩阵F,设计目标函数,计算M个弱分类器的权值W=(w1,w2,wj…wM),其中wj为第j个弱分类器的权值,j=1,2,…M,选取其中权值最大的前N个弱分类器组合成最终的强分类器H,并生成分类器参数其中:
其中,k=1,2…N,t为当前帧图像序列号,对于第一帧图像t=1,t=1,2…end,end为视频图像序列的最后一帧;
(4)循环读取第t+1帧图像,并根据强分类器H预测目标位置:
4a)在图像目标搜索范围内获取n个检测样本包:
S=(s1,s2,sb…sn),其中sb为第b个检测样本包,b=1,2,…n,n为搜索范围内所有像素点的个数;
4b)根据强分类器H分别预测检测样本包S为目标的概率P,得到预测概率P=(p1,p2,pb…pn),其中pb为第b个样本包sb为目标的概率值;
4c)选取预测概率最大值pa其中a∈[1,n],并将其对应的检测样本包sa的位置作为当前帧目标位置;
(5)对当前帧预测的目标位置,按照2a)选取正负样本包,并在每个样本包中选取与N个弱分类器相对应的位置,提取Harr-like特征,得到当前帧样本矩阵其中为当前帧正样本矩阵,为当前帧负样本矩阵;
(6)计算样本矩阵Xt+1分类的准确率CCRP:
6a)利用3c)所选的N个弱分类器对预测目标位置的样本矩阵Xt+1进行标签预测;
6b)根据预测标签计算正样本的分类准确率CCRP:
其中,N为选取弱分类器的个数,L为训练样本总数,Le为正样本分类正确的个数;
(7)将分类准确率CCRP与设定的阈值T=0.42~0.45进行比较,判断跟踪是否发生异常:
当CCRP>T时,则没有发生异常,并将弱分类器参数更新为其中t为上一帧图像,t+1为当前帧图像;
当CCRP≤T时,则发生异常,保持弱分类器参数不变;
(8)根据当前读取图像个数t,判断视频图像序列是否结束:
当t<end时,则图像序列没有结束,返回步骤(4);
当t=end时,则图像序列结束,计算目标跟踪准确率,并输出结果;
其中,end为最后一帧图像序列号。
本发明与现有技术相比有以下优点:
第一,本发明引入了异常判断的机制,根据异常是否发生,从而对分类器参数采取不同的更新策略,提高了算法的鲁棒性和对跟踪目标的准确性。
第二,本发明采用了弱分类器分配权值的策略,通过优化目标函数,最小化重构误差,再根据权值大小选取弱分类器构建强分类器,提高了目标预测的准确性。
第三,本发明采用了半非负编码的方式对弱分类器权值更新的策略,使得弱分类器的权值能够自适应的调整和更新,增强了视频跟踪的鲁棒性。
附图说明
图1为本发明的实现流程图;
图2为本发明中输入的第一帧视频图像并通过人工标记出的待跟踪目标示意图;
图3为用本发明在目标发生遮挡时的跟踪结果;
图4为用本发明在目标在发生遮挡之后的跟踪结果。
具体实施措施
下面结合附图对发明的技术方案和效果做进一步详细描述。
参照图1,本发明的实现步骤如下:
步骤1,输入视频序列,读取第一帧图像目标位置信息作为初始目标信息。
输入的视频序列来自Benchmark数据集中的David3视频图像序列,读取第一帧图像和图像目标位置信息文件,获取初始目标框位置坐标和初始目标框的长和宽。
步骤2,根据当前帧读取的图像目标位置信息,构建高斯模型。
2a)在读取的图像中,以初始目标框位置坐标为中心,选取上下左右四个方向延伸3个像素点范围内的49个坐标点,作为正样本包位置坐标,按照初始目标框的长和宽获取大小相同的图像块,得到49个正样本包;在所有正样本包范围外,随机选取49个坐标点作为负样本包位置坐标,按照初始目标框的长和宽获取大小相同的图像块,得到49个负样本包;
2b)对于得到的98个样本包,分别在每个样本包内的M=250个相同位置提取Haar-like特征,得到正样本矩阵Xp 49×250,负样本矩阵Xn 49×250,最终得到样本矩阵为
2c)对49个正样本包内相同位置j计算49个相同位置样本均值μ1j和方差σ1j,计算所有正样本,得到正样本均值μ1和方差σ1:
μ1=(μ11,μ12,μ1j,...,μ1M),σ1=(σ11,σ12,σ1j,...,σ1M),
同样,对49个负样本包内相同位置j计算49个相同位置样本均值μ0j和方差σ0j,计算所有负样本,得到负样本均值μ0和方差σ0:
μ0=(μ01,μ02,μ0j,...,μ0M),σ0=(σ01,σ02,σ0j,...,σ0M),
其中,μ1为正样本均值,σ1为正样本方差;μ0为负样本均值,σ0为负样本方差;j=1,2,…,M;
将与M个相同位置对应的M组高斯模型参数表示为:(μ1,σ1;μ0,σ0)。
步骤3,根据得到的M组高斯模型训练分类器。
3a)对于正负样本包分别设置标签,即将49个正样本包标签设为+1,49个负样本包标签设为-1,并生成真实标签矩阵Y98×1;
3b)根据M组高斯模型对应生成M个弱分类器(h1,h2,hj…hM),j=1,2…M,并利用生成的弱分类器对已知样本矩阵X98×250中每一个样本xij的标签进行预测,i=1,2…98,对于任意的样本xij的标签利用弱分类器hj进行预测,生成预测标签矩阵F98×M;
3c)根据真实标签矩阵Y98×1和预测标签矩阵F98×M,设计目标函数计算M个弱分类器的权值W=(w1,w2,wj…wM),其中wj为第j个弱分类器hj的权值,j=1,2,…M,选取其中权值最大的前N=50个弱分类器组合成最终的强分类器H,并选取与所选弱分类器对应的高斯模型生成分类器参数
其中,k=1,2…N,t为当前帧序列号,t=1,2…end,end为视频图像序列的最后一帧,对于第一帧图像t=1;为μ1中与所选取的50个弱分类器相对应的元素的集合,为σ1中与所选取的50个弱分类器相对应的元素的集合;为μ0中与所选取的50个弱分类器相对应的元素的集合,为σ0中与所选取的50个弱分类器相对应的元素的集合。
步骤4,循环读取第t+1帧图像,并根据强分类器H预测目标位置坐标。
4a)在图像目标搜索范围内获取n个与初始目标框大小相同的图像块,作为待检测样本包:S=(s1,s2,sb…sn),其中sb为待检测样本包的第b个元素,其中b=1,2,…n,n为搜索范围内所有像素点的个数;
4b)对于待检测样本包S内的每一个样本,利用强分类器H分别预测样本为目标的概率P,得到预测概率P=(p1,p2,pb…pn),其中pb为待检测样本包的第b个元素,sb为目标的概率值;
4c)选取预测概率最大值pa,其中a∈[1,n],并将其对应的检测样本sa的位置作为当前帧目标位置坐标。
步骤5,对当前帧预测的目标位置坐标,按照2a)选取样本包,并在每个样本包中选取与N个弱分类器相对应的位置,提取Harr-like特征,组成当前帧样本矩阵其中为当前帧正样本矩阵,为当前帧负样本矩阵。
步骤6,计算样本矩阵Xt+1分类的准确率CCRP。
6a)利用3c)所选的N个弱分类器对预测目标位置的样本矩阵Xt+1进行标签预测;
6b)根据预测标签计算正样本的分类准确率CCRP:
其中,N为选取弱分类器的个数,L为训练样本总数,Le为正样本分类正确的个数。
步骤7,将分类准确率CCRP与设定的阈值T=0.42~0.45进行比较,判断跟踪是否发生异常:
当CCRP>T时,则没有发生异常,并将弱分类器参数按如下公式更新为
当CCRP≤T时,则发生异常,保持弱分类器参数不变;
其中,为当前帧正样本矩阵中第k行元素,为当前帧负样本矩阵中第k行元素;表示上一帧分类器参数,为当前帧分类器参数;nd为正样本包的个数,大小为49;γ为更新系数,取值范围是0.85~1,k=1,2,…N,
N=50,t为上一帧图像序号,t+1为当前帧图像序号。
步骤8,根据当前读取图像个数t,判断视频图像序列是否结束。
当t<end时,则图像序列没有结束,返回步骤(4);
当t=end时,则图像序列结束,计算目标跟踪准确率,并输出结果;
其中,end为最后一帧图像序列号。
如图2、图3和图4,给出本发明在视频序列“david3”上应用实例,图2是视频图像序列的第一帧图像,并且人工标出跟踪目标的位置;图3是视频序列中当跟踪目标发生遮挡时,利用本发明预测出的目标位置;图4是对视频图像序列发生遮挡之后的图像序列,利用本发明预测出的目标位置。
仿真实验表明,本发明所采用的方法,对于跟踪的目标有较高的准确性,并且对于跟踪进程中的异常,如:遮挡,光照变化,具有较强的鲁棒性。
Claims (7)
1.一种目标跟踪方法,包括:
(1)输入视频序列,读取第一帧图像目标位置信息作为初始目标信息;
(2)根据当前帧读取的图像目标位置信息,构建高斯模型:
2a)从当前帧读取的图像中选取49个与初始目标框大小相同的图像块作为正样本包,并在初始目标框周围均匀选取49个与初始目标框大小相同的图像块作为负样本包;
2b)对于提取的正负样本包,分别在每个样本包内的M个相同位置提取Haar-like特征,得到正样本矩阵Xp 49×M,负样本矩阵Xn 49×M,则样本矩阵为
2c)对正、负样本分别构建高斯模型,得到正样本均值μ1和方差σ1和负样本均值μ0和方差σ0:
μ1=(μ11,μ12,μ1j,...,μ1M),σ1=(σ11,σ12,σ1j,...,σ1M),
μ0=(μ01,μ01,μ0j,...,μ0M),σ0=(σ01,σ02,σ0j...,σ0M),
其中,μ1j是正样本第j个相同位置样本均值,μ0j是负样本第j个相同位置样本均值,σ1j是正样本第j个相同位置样本方差,σ0j是负样本第j个相同位置样本方差,j=1,2···M,将与M个相同位置对应的M组高斯模型参数表示为:(μ1,σ1;μ0,σ0);
(3)根据样本的M组高斯模型训练分类器:
3a)对于正负样本包分别设置标签,即将正样本标签设为+1,负样本标签设为-1,并生成真实标签矩阵Y98×1;
3b)根据M组高斯模型对应生成M个弱分类器(h1,h2,hj···hM),j=1,2···M,并利用生成的弱分类器对已知样本X中每一个样本xij的标签进行预测,i=1,2···98,生成预测标签矩阵F98×M;
3c)根据真实标签矩阵Y和预测标签矩阵F,设计目标函数,计算M个弱分类器的权值W=(w1,w2,wj···wM),其中wj为第j个弱分类器的权值,j=1,2,···M,选取其中权值最大的前N个弱分类器组合成最终的强分类器H,并生成分类器参数其中:
其中,是第t帧正样本第j个相同位置样本均值,是第t帧负样本第j个相同位置样本均值,σ1j是第t帧正样本第j个相同位置样本方差,σ0j是第t帧负样本第j个相同位置样本方差;k=1,2···N,t为当前帧图像序列号,对于第一帧图像t=1,t=1,2···end,end为视频图像序列的最后一帧;
(4)循环读取第t+1帧图像,并根据强分类器H预测目标位置:
4a)在图像目标搜索范围内获取n个检测样本包:
S=(s1,s2,sb···sn),其中sb为第b个检测样本包,b=1,2,···n,n为搜索范围内所有像素点的个数;
4b)根据强分类器H分别预测检测样本包S为目标的概率P,得到预测概率P=(p1,p2,pb···pn),其中pb为第b个样本包sb为目标的概率值;
4c)选取预测概率最大值pa其中a∈[1,n],并将其对应的检测样本包sa的位置作为当前帧目标位置;
(5)对当前帧预测的目标位置,按照2a)选取正负样本包,并在每个样本包中选取与N个弱分类器相对应的位置,提取Harr-like特征,得到当前帧样本矩阵其中为当前帧正样本矩阵,为当前帧负样本矩阵;
(6)计算样本矩阵Xt+1分类的准确率CCRP:
6a)利用3c)所选的N个弱分类器对预测目标位置的样本矩阵Xt+1进行标签预测;
6b)根据预测标签计算正样本的分类准确率CCRP:
其中,N为选取弱分类器的个数,L为训练样本总数,Le为正样本分类正确的个数;
(7)将分类准确率CCRP与设定的阈值T=0.42~0.45进行比较,判断跟踪是否发生异常:
当CCRP>T时,则没有发生异常,并将弱分类器参数更新为其中t为上一帧图像,t+1为当前帧图像;
当CCRP≤T时,则发生异常,保持弱分类器参数不变;
(8)根据当前读取图像个数t,判断视频图像序列是否结束:
当t<end时,则图像序列没有结束,返回步骤(4);
当t=end时,则图像序列结束,计算目标跟踪准确率,并输出结果;
其中,end为最后一帧图像序列号。
2.根据权利要求1所述的一种目标跟踪方法,其中步骤2a)中从当前帧读取的图像中选取与初始目标框大小相同的图像块作为正、负样本包,按如下步骤进行:
2a1)采用如下公式选取正负样本包:
其中,Xs+为正样本包,为当前帧预测目标框位置坐标,对于第一帧图像,以人工标记的目标框位置坐标作为l(x)为待获取样本的目标框位置坐标;
以当前帧预测目标框位置坐标为中心,分别向上下左右四个方向延伸q=3个像素点,得到49个正样本目标框位置坐标;
2a2)根据正样本目标框位置坐标获取目标框,目标框的长和宽与初始目标框大小相同,从而得到49个正样本包Xs+,并在每个样本包内选取M个位置,提取Haar-like特征,得到正样本矩阵Xp;
2a3)在所有正样本包范围外,均匀选取49个负样本目标框位置坐标,得到负样本包Xs-,并在每个负样本包中与正样本包相对应的M个位置上提取Haar-like特征,得到负样本矩阵Xn,则样本矩阵为
3.根据权利要求1所述的一种目标跟踪方法,其中步骤3b)中生成的弱分类器hj,采用如下公式进行:
其中,j=1,2···M,xj为样本矩阵X的第j列;μ1j为正样本均值μ1中第j个值,σ1j为正样本方差σ1中第j个值;μ0j为负样本均值μ0中第j个值,σ0j为负样本方差σ0中第j个值。
4.根据权利要求1所述的一种目标跟踪方法,其中步骤3b)中的计算预测标签矩阵F,是根据样本矩阵X中元素xij的特征分布确定标签矩阵F中元素Fij:
当时,则样本xij的预测标签Fij为+1;
当时,则样本xij的预测标签Fij为-1;
其中,xij为样本矩阵X中第i行j列的元素,i=1,2···98,j=1,2···M,Fij为标签矩阵F中第i行j列的元素,其值为样本xij的预测标签;μ1j为正样本均值μ1中第j个值,σ1j为正样本方差σ1中第j个值;μ0j为负样本均值μ0中第j个值,σ0j为负样本方差σ0中第j个值。
5.根据权利要求1所述的一种目标跟踪方法,其中步骤3c)中计算弱分类器的权值W,采用如下公式:
其中,Y为样本真实标签矩阵,F为样本的预测标签矩阵,d为矩阵Y和矩阵F的欧氏距离,λ是一个参数常量,取值范围为0.2~0.5。
6.据权利要求1所述的一种目标跟踪方法,其中步骤3d)中的强分类器H,采用如下公式计算:
其中,N为选取的弱分类器的个数,k=1,2···N;hk为选取的N个弱分类器中第k个弱分类器,wk为弱分类器hk所对应的权值。
7.据权利要求1所述的一种目标跟踪方法,其中步骤7)中的对分类器参数的更新,采用如下公式进行:
对于和用如下公式更新:
对于和用如下公式更新:
其中,为当前帧正样本矩阵中第k行元素,为当前帧负样本矩阵中第k行元素;表示上一帧分类器参数,为当前帧分类器参数;nd为正样本包的个数;γ为更新系数,取值范围是0.85~1,k=1,2···N。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610273862.0A CN105976397B (zh) | 2016-04-28 | 2016-04-28 | 一种目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610273862.0A CN105976397B (zh) | 2016-04-28 | 2016-04-28 | 一种目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105976397A CN105976397A (zh) | 2016-09-28 |
CN105976397B true CN105976397B (zh) | 2019-03-26 |
Family
ID=56994054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610273862.0A Active CN105976397B (zh) | 2016-04-28 | 2016-04-28 | 一种目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105976397B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778831B (zh) * | 2016-11-28 | 2020-04-24 | 国家计算机网络与信息安全管理中心 | 基于高斯混合模型的刚体目标在线特征分类与跟踪方法 |
WO2018211621A1 (ja) * | 2017-05-17 | 2018-11-22 | inaho株式会社 | 農作業装置、農作業管理システム、及びプログラム |
CN109859234B (zh) * | 2017-11-29 | 2023-03-24 | 深圳Tcl新技术有限公司 | 一种视频人体轨迹跟踪方法、装置及存储介质 |
CN109242884B (zh) * | 2018-08-14 | 2020-11-20 | 西安电子科技大学 | 基于JCFNet网络的遥感视频目标跟踪方法 |
EP3929801A1 (en) | 2020-06-25 | 2021-12-29 | Axis AB | Training of an object recognition neural network |
CN117315521A (zh) * | 2022-06-22 | 2023-12-29 | 脸萌有限公司 | 基于对比学习来处理视频的方法、装置、设备和介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103870839A (zh) * | 2014-03-06 | 2014-06-18 | 江南大学 | 视频目标在线多特征跟踪方法 |
CN105096345A (zh) * | 2015-09-15 | 2015-11-25 | 电子科技大学 | 一种基于动态测量矩阵的目标跟踪方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9437009B2 (en) * | 2011-06-20 | 2016-09-06 | University Of Southern California | Visual tracking in video images in unconstrained environments by exploiting on-the-fly context using supporters and distracters |
-
2016
- 2016-04-28 CN CN201610273862.0A patent/CN105976397B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103870839A (zh) * | 2014-03-06 | 2014-06-18 | 江南大学 | 视频目标在线多特征跟踪方法 |
CN105096345A (zh) * | 2015-09-15 | 2015-11-25 | 电子科技大学 | 一种基于动态测量矩阵的目标跟踪方法及系统 |
Non-Patent Citations (3)
Title |
---|
Consistency-Contrained Nonnegative Coding for Tracking;Xiaolin Tian et al.;《IEEE transactions on circuits and systems for video technology》;20151119;第27卷(第4期);全文 |
基于改进Haar-like特征的压缩跟踪算法;袁建建 等;《兵工自动化》;20140331;第33卷(第3期);全文 |
基于编码模型的目标跟踪算法研究;郑晓利;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160315(第03期);全文 |
Also Published As
Publication number | Publication date |
---|---|
CN105976397A (zh) | 2016-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105976397B (zh) | 一种目标跟踪方法 | |
CN104063719B (zh) | 基于深度卷积网络的行人检测方法及装置 | |
CN109101865A (zh) | 一种基于深度学习的行人重识别方法 | |
CN108133188A (zh) | 一种基于运动历史图像与卷积神经网络的行为识别方法 | |
CN105138998B (zh) | 基于视角自适应子空间学习算法的行人重识别方法及系统 | |
CN111191667B (zh) | 基于多尺度生成对抗网络的人群计数方法 | |
Xiao et al. | Multimodal fusion based on LSTM and a couple conditional hidden Markov model for Chinese sign language recognition | |
CN109977971A (zh) | 基于均值偏移与核相关滤波的尺度自适应目标跟踪系统 | |
CN109255289B (zh) | 一种基于统一式生成模型的跨衰老人脸识别方法 | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
CN104298963B (zh) | 一种鲁棒的基于人脸形状回归模型的多姿态疲劳监测方法 | |
Bu | Human motion gesture recognition algorithm in video based on convolutional neural features of training images | |
CN108960142B (zh) | 基于全局特征损失函数的行人再识别方法 | |
CN103745233B (zh) | 基于空间信息迁移的高光谱图像分类方法 | |
CN109522961A (zh) | 一种基于字典深度学习的半监督图像分类方法 | |
CN110458022A (zh) | 一种基于域适应的可自主学习目标检测方法 | |
CN106096528B (zh) | 一种基于二维耦合边距Fisher分析的跨视角步态识别方法 | |
CN109558814A (zh) | 一种三维矫正和加权相似性度量学习的无约束人脸验证方法 | |
CN105930793B (zh) | 一种基于sae特征可视化学习的人体检测方法 | |
CN110348492A (zh) | 一种基于上下文信息及多特征融合的相关滤波目标跟踪方法 | |
Liu et al. | Gait recognition using deep learning | |
CN114708609B (zh) | 一种基于持续学习的域适应骨架行为识别方法和系统 | |
CN106056146B (zh) | 基于逻辑回归的视觉跟踪方法 | |
CN108038467B (zh) | 一种镜像图与粗细层次结合的稀疏人脸识别方法 | |
CN110751005B (zh) | 融合深度感知特征和核极限学习机的行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |