CN105976397A - 基于半非负优化集成学习的目标跟踪方法 - Google Patents

基于半非负优化集成学习的目标跟踪方法 Download PDF

Info

Publication number
CN105976397A
CN105976397A CN201610273862.0A CN201610273862A CN105976397A CN 105976397 A CN105976397 A CN 105976397A CN 201610273862 A CN201610273862 A CN 201610273862A CN 105976397 A CN105976397 A CN 105976397A
Authority
CN
China
Prior art keywords
sample
matrix
negative
target
positive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610273862.0A
Other languages
English (en)
Other versions
CN105976397B (zh
Inventor
田小林
焦李成
吴策
张小华
缑水平
朱虎明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201610273862.0A priority Critical patent/CN105976397B/zh
Publication of CN105976397A publication Critical patent/CN105976397A/zh
Application granted granted Critical
Publication of CN105976397B publication Critical patent/CN105976397B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/245Classification techniques relating to the decision surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于半非负优化集成学习的目标跟踪方法,主要解决现有技术中目标跟踪准确率低的问题。其技术方案为:1.读取第一帧视频图像的目标位置,选取正负样本包,并在样本包中选取正负样本;2.根据样本训练高斯模型弱分类器,并为每个弱分类器分配权值,选取权值最高的部分弱分类器组成强分类器;3.利用强分类器预测新一帧图像目标位置,并根据目标位置选取样本包;4.对目标进行异常判断,如果发生异常,保持分类器参数不变;如果没有发生异常,更新分类器参数,持续跟踪视频图像序列到最后一帧。本发明具有跟踪准确率高,鲁棒性强的优点,可用于计算机视觉,人机交互领域。

Description

基于半非负优化集成学习的目标跟踪方法
技术领域
本发明属于图像处理技术领域,涉及目标的跟踪方法,可应用于计算机视觉,人机交互和视频监控。
背景技术
目标跟踪是指在给出的一系列视频图像序列中,准确的计算出所跟踪目标在图像中具体的位置坐标。简单来说,目标跟踪就是通过跟踪算法计算出图像序列中目标的二维坐标信息来进行持续的跟踪,并为后续的视频分析和处理提供信息。随着数字计算机技术和多媒体技术的快速发展,摄像机和电脑也越来越多的代替人脑和人眼来处理视觉信息,从而使得计算机视觉领域的研究愈加火热。同时,视频目标跟踪这一综合了图像处理,人工智能,模式识别和机器学习的研究领域,也逐渐形成了一门新的应用技术,在视频监控、医学图像、智能交通、机器人制造等众多与人类密切相关的方面有着极大的应用价值和广泛的发展前景。
西北工业大学提出的专利申请“一种基于稀疏特征选择的目标跟踪方法”(专利申请号201510323582.1,公开号CN104933733A)公开了一种基于稀疏特征选择的目标跟踪方法,该方法包括:首先利用Haar-like特征对目标、背景以及待选目标点进行表示;其次利用稀疏表示具有的特殊性质对高维的Haar-like特征进行特征选择,选择那些对目标和背景具有良好区分性的特征作为样本点的表示;最后利用选好的样本点训练朴素贝叶斯分类器,同时在线进行更新分类,使得分类器能实时反映目标和背景之间关系。该方法虽然在传统的目标跟踪方法的基础上,融入了样本特征的稀疏表示,提高了目标跟踪的速率,但仍然存在的不足是:单独的朴素贝叶斯分类器对于样本的分类准确率较低。
北京工业大学提出的专利申请“基于改进多示例学习算法的运动目标跟踪方法”(专利申请号201310276316.9,公开号CN103325125A)公开了一种基于改进多示例学习算法的运动目标跟踪算法,该方法包括:首先根据压缩感知理论设计随机测量矩阵;其次利用多示例学习算法在当前跟踪结果小领域采样示例构成正包,在其大领域圆环采样示例构成负包;然后在图像平面提取表征目标的特征,并利用随机感知矩阵对其降维;然后利用Online-Boosting算法在线学习弱分类器,并在弱分类器池中选择判别能力较强的弱分类器构成强分类器,用于分类下一帧图像的目标待测图像片;最后当跟踪到新的目标位置时,利用当前跟踪结果与目标模板的相似性分数在线自适应调整分类器更新程度参数,从而完成对分类器的自适应更新。该方法虽然在传统多示例目标跟踪的基础上融入了Boosting分类器学习的方法,提高了目标跟踪的准确率,但仍然存在的不足是:当目标跟踪发生遮挡或者剧烈的形变等异常情况时,分类器仍旧按照之前的规则更新参数,从而降低了发生异常时系统的鲁棒性和准确性。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种半非负优化集成学习的目标跟踪方法,以提高对于目标跟踪的准确性以及目标发生异常时的鲁棒性和准确性。
为实现上述目的,本发明的技术方案包括如下:
(1)输入视频序列,读取第一帧图像目标位置信息作为初始目标信息;
(2)根据当前帧读取的图像目标位置信息,构建高斯模型:
2a)从当前帧读取的图像中选取49个与初始目标框大小相同的图像块作为正样本包,并在初始目标框周围均匀选取49个与初始目标框大小相同的图像块作为负样本包;
2b)对于提取的正负样本包,分别在每个样本包内的M个相同位置提取Haar-like特征,得到正样本矩阵Xp 49×M,负样本矩阵Xn 49×M,则样本矩阵为
2c)对正、负样本分别构建高斯模型,得到正样本均值μ1和方差σ1和负样本均值μ0和方差σ0
μ1=(μ11121j,...,μ1M),σ1=(σ11121j,...,σ1M),
μ0=(μ01010j,...,μ0M),σ0=(σ01020j...,σ0M),
j=1,2...M,将与M个相同位置对应的M组高斯模型参数表示为:(μ11;μ00)。
(3)根据样本的M组高斯模型训练分类器:
3a)对于正负样本包分别设置标签,即将正样本标签设为+1,负样本标签设为-1,并生成真实标签矩阵Y98×1
3b)根据M组高斯模型对应生成M个弱分类器(h1,h2,hj...hM),j=1,2...M,并利用生成的弱分类器对已知样本X中每一个样本xij的标签进行预测,i=1,2...98,生成预测标签矩阵F98×M
3c)根据真实标签矩阵Y和预测标签矩阵F,设计目标函数,计算M个弱分类器的权值W=(w1,w2,wj...wM),其中wj为第j个弱分类器的权值,j=1,2,...M,选取其中权值最大的前N个弱分类器组合成最终的强分类器H,并生成分类器参数其中:
μ 1 t = ( μ 11 t , μ 12 t , μ 1 k t , ... , μ 1 N t ) , σ 1 t = ( σ 11 t , σ 12 t , σ 1 k t , ... , σ 1 N t ) ,
μ 0 t = ( μ 01 t , μ 02 t , μ 0 k t , ... , μ 0 N t ) , σ 0 t = ( σ 01 t , σ 02 t , σ 0 k t , ... , σ 0 N t ) ,
其中,k=1,2...N,t为当前帧图像序列号,对于第一帧图像t=1,t=1,2...end,end为视频图像序列的最后一帧;
(4)循环读取第t+1帧图像,并根据强分类器H预测目标位置:
4a)在图像目标搜索范围内获取n个检测样本包:
S=(s1,s2,sb...sn),其中sb为第b个检测样本包,b=1,2,...n,n为搜索范围内所有像素点的个数;
4b)根据强分类器H分别预测检测样本包S为目标的概率P,得到预测概率
P=(p1,p2,pb...pn),其中pb为第b个样本包sb为目标的概率值;
4c)选取预测概率最大值pa其中a∈[1,n],并将其对应的检测样本包sa的位置作为当前帧目标位置;
(5)对当前帧预测的目标位置,按照2a)选取正负样本包,并在每个样本包中选取与N个弱分类器相对应的位置,提取Harr-like特征,得到当前帧样本矩阵其中为当前帧正样本矩阵,为当前帧负样本矩阵;
(6)计算样本矩阵Xt+1分类的准确率CCRP:
6a)利用3c)所选的N个弱分类器对预测目标位置的样本矩阵Xt+1进行标签预测;
6b)根据预测标签计算正样本的分类准确率CCRP:
C C R P = L e N × L × 100 % ,
其中,N为选取弱分类器的个数,L为训练样本总数,Le为正样本分类正确的个数;
(7)将分类准确率CCRP与设定的阈值T=0.42~0.45进行比较,判断跟踪是否发生异常:
当CCRP>T时,则没有发生异常,并将弱分类器参数更新为其中t为上一帧图像,t+1为当前帧图像;
当CCRP≤T时,则发生异常,保持弱分类器参数不变;
(8)根据当前读取图像个数t,判断视频图像序列是否结束:
当t<end时,则图像序列没有结束,返回步骤(4);
当t=end时,则图像序列结束,计算目标跟踪准确率,并输出结果;
其中,end为最后一帧图像序列号。
本发明与现有技术相比有以下优点:
第一,本发明引入了异常判断的机制,根据异常是否发生,从而对分类器参数采取不同的更新策略,提高了算法的鲁棒性和对跟踪目标的准确性。
第二,本发明采用了弱分类器分配权值的策略,通过优化目标函数,最小化重构误差,再根据权值大小选取弱分类器构建强分类器,提高了目标预测的准确性。
第三,本发明采用了半非负编码的方式对弱分类器权值更新的策略,使得弱分类器的权值能够自适应的调整和更新,增强了视频跟踪的鲁棒性。
附图说明
图1为本发明的实现流程图;
图2为本发明中输入的第一帧视频图像并通过人工标记出的待跟踪目标示意图;
图3为用本发明在目标发生遮挡时的跟踪结果;
图4为用本发明在目标在发生遮挡之后的跟踪结果。
具体实施措施
下面结合附图对发明的技术方案和效果做进一步详细描述。
参照图1,本发明的实现步骤如下:
步骤1,输入视频序列,读取第一帧图像目标位置信息作为初始目标信息。
输入的视频序列来自Benchmark数据集中的David3视频图像序列,读取第一帧图像和图像目标位置信息文件,获取初始目标框位置坐标和初始目标框的长和宽。
步骤2,根据当前帧读取的图像目标位置信息,构建高斯模型。
2a)在读取的图像中,以初始目标框位置坐标为中心,选取上下左右四个方向延伸3个像素点范围内的49个坐标点,作为正样本包位置坐标,按照初始目标框的长和宽获取大小相同的图像块,得到49个正样本包;在所有正样本包范围外,随机选取49个坐标点作为负样本包位置坐标,按照初始目标框的长和宽获取大小相同的图像块,得到49个负样本包;
2b)对于得到的98个样本包,分别在每个样本包内的M=250个相同位置提取Haar-like特征,得到正样本矩阵Xp 49×250,负样本矩阵Xn 49×250,最终得到样本矩阵为
2c)对49个正样本包内相同位置j计算49个相同位置样本均值μ1j和方差σ1j,计算所有正样本,得到正样本均值μ1和方差σ1
μ1=(μ11121j,...,μ1M),σ1=(σ11121j,...,σ1M),
同样,对49个负样本包内相同位置j计算49个相同位置样本均值μ0j和方差σ0j,计算所有负样本,得到负样本均值μ0和方差σ0
μ0=(μ01020j,...,μ0M),σ0=(σ01020j,...,σ0M),
其中,μ1为正样本均值,σ1为正样本方差;μ0为负样本均值,σ0为负样本方差;j=1,2,...,M;
将与M个相同位置对应的M组高斯模型参数表示为:(μ11;μ00)。
步骤3,根据得到的M组高斯模型训练分类器。
3a)对于正负样本包分别设置标签,即将49个正样本包标签设为+1,49个负样本包标签设为-1,并生成真实标签矩阵Y98×1
3b)根据M组高斯模型对应生成M个弱分类器(h1,h2,hj...hM),j=1,2...M,并利用生成的弱分类器对已知样本矩阵X98×250中每一个样本xij的标签进行预测,i=1,2...98,对于任意的样本xij的标签利用弱分类器hj进行预测,生成预测标签矩阵F98×M
3c)根据真实标签矩阵Y98×1和预测标签矩阵F98×M,设计目标函数计算M个弱分类器的权值W=(w1,w2,wj...wM),其中wj为第j个弱分类器hj的权值,j=1,2,...M,选取其中权值最大的前N=50个弱分类器组合成最终的强分类器H,并选取与所选弱分类器对应的高斯模型生成分类器参数
μ 1 t = ( μ 11 t , μ 12 t , μ 1 k t , ... , μ 1 N t ) , σ 1 t = ( σ 11 t , σ 12 t , σ 1 k t , ... , σ 1 N t ) ,
μ 0 t = ( μ 01 t , μ 02 t , μ 0 k t , ... , μ 0 N t ) , σ 0 t = ( σ 01 t , σ 02 t , σ 0 k t , ... , σ 0 N t ) ,
其中,k=1,2...N,t为当前帧序列号,t=1,2...end,end为视频图像序列的最后一帧,对于第一帧图像t=1;为μ1中与所选取的50个弱分类器相对应的元素的集合,为σ1中与所选取的50个弱分类器相对应的元素的集合;为μ0中与所选取的50个弱分类器相对应的元素的集合,为σ0中与所选取的50个弱分类器相对应的元素的集合。
步骤4,循环读取第t+1帧图像,并根据强分类器H预测目标位置坐标。
4a)在图像目标搜索范围内获取n个与初始目标框大小相同的图像块,作为待检测样本包:S=(s1,s2,sb...sn),其中sb为待检测样本包的第b个元素,其中b=1,2,...n,n为搜索范围内所有像素点的个数;
4b)对于待检测样本包S内的每一个样本,利用强分类器H分别预测样本为目标的概率P,得到预测概率P=(p1,p2,pb...pn),其中pb为待检测样本包的第b个元素,sb为目标的概率值;
4c)选取预测概率最大值pa,其中a∈[1,n],并将其对应的检测样本sa的位置作为当前帧目标位置坐标。
步骤5,对当前帧预测的目标位置坐标,按照2a)选取样本包,并在每个样本包中选取与N个弱分类器相对应的位置,提取Harr-like特征,组成当前帧样本矩阵其中为当前帧正样本矩阵,为当前帧负样本矩阵。
步骤6,计算样本矩阵Xt+1分类的准确率CCRP。
6a)利用3c)所选的N个弱分类器对预测目标位置的样本矩阵Xt+1进行标签预测;
6b)根据预测标签计算正样本的分类准确率CCRP:
C C R P = L e N × L × 100 % ,
其中,N为选取弱分类器的个数,L为训练样本总数,Le为正样本分类正确的个数。
步骤7,将分类准确率CCRP与设定的阈值T=0.42~0.45进行比较,判断跟踪是否发生异常:
当CCRP>T时,则没有发生异常,并将弱分类器参数按如下公式更新为
μ 1 t + 1 ← γμ 1 t + ( 1 - γ ) 1 n d Σ k x k + σ 1 t + 1 ← γσ 1 t + ( 1 - γ ) 1 n d Σ k ( x k + - μ 1 t ) 2 ,
μ 0 t + 1 ← γμ 0 t + ( 1 - γ ) 1 n d Σ k x k - σ 1 t + 1 ← γσ 1 t + ( 1 - γ ) 1 n d Σ k ( x k - - μ 0 t ) 2 ,
当CCRP≤T时,则发生异常,保持弱分类器参数不变;
其中,为当前帧正样本矩阵中第k行元素,为当前帧负样本矩阵中第k行元素;表示上一帧分类器参数,为当前帧分类器参数;nd为正样本包的个数,大小为49;γ为更新系数,取值范围是0.85~1,k=1,2,...N,N=50,t为上一帧图像序号,t+1为当前帧图像序号。
步骤8,根据当前读取图像个数t,判断视频图像序列是否结束。
当t<end时,则图像序列没有结束,返回步骤(4);
当t=end时,则图像序列结束,计算目标跟踪准确率,并输出结果;
其中,end为最后一帧图像序列号。
如图2、图3和图4,给出本发明在视频序列“david3”上应用实例,图2是视频图像序列的第一帧图像,并且人工标出跟踪目标的位置;图3是视频序列中当跟踪目标发生遮挡时,利用本发明预测出的目标位置;图4是对视频图像序列发生遮挡之后的图像序列,利用本发明预测出的目标位置。
仿真实验表明,本发明所采用的方法,对于跟踪的目标有较高的准确性,并且对于跟踪进程中的异常,如:遮挡,光照变化,具有较强的鲁棒性。

Claims (7)

1.一种基于半非负优化集成学习的目标跟踪方法,包括:
(1)输入视频序列,读取第一帧图像目标位置信息作为初始目标信息;
(2)根据当前帧读取的图像目标位置信息,构建高斯模型:
2a)从当前帧读取的图像中选取49个与初始目标框大小相同的图像块作为正样本包,并在初始目标框周围均匀选取49个与初始目标框大小相同的图像块作为负样本包;
2b)对于提取的正负样本包,分别在每个样本包内的M个相同位置提取Haar-like特征,得到正样本矩阵Xp 49 × M,负样本矩阵Xn 49 × M,则样本矩阵为
2c)对正、负样本分别构建高斯模型,得到正样本均值μ1和方差σ1和负样本均值μ0和方差σ0
μ1=(μ11121j,...,μ1M),σ1=(σ11121j,...,σ1M),
μ0=(μ01010j,...,μ0M),σ0=(σ01020j...,σ0M),
j=1,2…M,将与M个相同位置对应的M组高斯模型参数表示为:(μ11;μ00)。
(3)根据样本的M组高斯模型训练分类器:
3a)对于正负样本包分别设置标签,即将正样本标签设为+1,负样本标签设为-1,并生成真实标签矩阵Y98 × 1
3b)根据M组高斯模型对应生成M个弱分类器(h1,h2,hj…hM),j=1,2…M,并利用生成的弱分类器对已知样本X中每一个样本xij的标签进行预测,i=1,2…98,生成预测标签矩阵F98 × M
3c)根据真实标签矩阵Y和预测标签矩阵F,设计目标函数,计算M个弱分类器的权值W=(w1,w2,wj…wM),其中wj为第j个弱分类器的权值,j=1,2,…M,选取其中权值最大的前N个弱分类器组合成最终的强分类器H,并生成分类器参数其中:
其中,k=1,2…N,t为当前帧图像序列号,对于第一帧图像t=1,t=1,2…end,end为视频图像序列的最后一帧;
(4)循环读取第t+1帧图像,并根据强分类器H预测目标位置:
4a)在图像目标搜索范围内获取n个检测样本包:
S=(s1,s2,sb…sn),其中sb为第b个检测样本包,b=1,2,…n,n为搜索范围内所有像素点的个数;
4b)根据强分类器H分别预测检测样本包S为目标的概率P,得到预测概率P=(p1,p2,pb…pn),其中pb为第b个样本包sb为目标的概率值;
4c)选取预测概率最大值pa其中a∈[1,n],并将其对应的检测样本包sa的位置作为当前帧目标位置;
(5)对当前帧预测的目标位置,按照2a)选取正负样本包,并在每个样本包中选取与N个弱分类器相对应的位置,提取Harr-like特征,得到当前帧样本矩阵其中为当前帧正样本矩阵,为当前帧负样本矩阵;
(6)计算样本矩阵Xt+1分类的准确率CCRP:
6a)利用3c)所选的N个弱分类器对预测目标位置的样本矩阵Xt+1进行标签预测;
6b)根据预测标签计算正样本的分类准确率CCRP:
其中,N为选取弱分类器的个数,L为训练样本总数,Le为正样本分类正确的个数;
(7)将分类准确率CCRP与设定的阈值T=0.42~0.45进行比较,判断跟踪是否发生异常:
当CCRP>T时,则没有发生异常,并将弱分类器参数更新为 其中t为上一帧图像,t+1为当前帧图像;
当CCRP≤T时,则发生异常,保持弱分类器参数不变;
(8)根据当前读取图像个数t,判断视频图像序列是否结束:
当t<end时,则图像序列没有结束,返回步骤(4);
当t=end时,则图像序列结束,计算目标跟踪准确率,并输出结果;
其中,end为最后一帧图像序列号。
2.根据权利要求1所述的基于半非负优化集成学习的目标跟踪方法,其中步骤2a)中从当前帧读取的图像中选取与初始目标框大小相同的图像块作为正、负样本包,按如下步骤进行:
2a1)采用如下公式选取正负样本包:
其中,Xs+为正样本包,为当前帧预测目标框位置坐标,对于第一帧图像,以人工标记的目标框位置坐标作为l(x)为待获取样本的目标框位置坐标;
以当前帧预测目标框位置坐标为中心,分别向上下左右四个方向延伸q=3个像素点,得到49个正样本目标框位置坐标;
2a2)根据正样本目标框位置坐标获取目标框,目标框的长和宽与初始目标框大小相同,从而得到49个正样本包Xs+,并在每个样本包内选取M个位置,提取Haar-like特征,得到正样本矩阵Xp
2a3)在所有正样本包范围外,均匀选取49个负样本目标框位置坐标,得到负样本包Xs-,并在每个负样本包中与正样本包相对应的M个位置上提取Haar-like特征,得到负样本矩阵Xn,则样本矩阵为
3.根据权利要求1所述的基于半非负优化集成学习的目标跟踪方法,其中步骤3b) 中生成的弱分类器hj,采用如下公式进行:
其中,j=1,2…M,xj为样本矩阵X的第j列;μ1j为正样本均值μ1中第j个值,σ1j为正样本方差σ1中第j个值;μ0j为负样本均值μ0中第j个值,σ0j为负样本方差σ0中第j个值。
4.根据权利要求1所述的基于半非负优化集成学习的目标跟踪方法,其中步骤3b)中的计算预测标签矩阵F,是根据样本矩阵X中元素xij的特征分布确定标签矩阵F中元素Fij
时,则样本xij的预测标签Fij为+1;
时,则样本xij的预测标签Fij为-1;
其中,xij为样本矩阵X中第i行j列的元素,i=1,2…98,j=1,2…M,Fij为标签矩阵F中第i行j列的元素,其值为样本xij的预测标签;μ1j为正样本均值μ1中第j个值,σ1j为正样本方差σ1中第j个值;μ0j为负样本均值μ0中第j个值,σ0j为负样本方差σ0中第j个值。
5.根据权利要求1所述的基于半非负优化集成学习的目标跟踪方法,其中步骤3c)中计算弱分类器的权值W,采用如下公式:
其中,Y为样本真实标签矩阵,F为样本的预测标签矩阵,d为矩阵Y和矩阵F的欧氏距离,λ是一个参数常量,取值范围为0.2~0.5。
6.据权利要求1所述的基于半非负优化集成学习的目标跟踪方法,其中步骤3d)中的强分类器H,采用如下公式计算:
其中,N为选取的弱分类器的个数,k=1,2…N;hk为选取的N个弱分类器中第k个弱分类器,wk为弱分类器hk所对应的权值。
7.据权利要求1所述的基于半非负优化集成学习的目标跟踪方法,其中步骤7)中的对分类器参数的更新,采用如下公式进行:
对于用如下公式更新:
对于用如下公式更新:
其中,为当前帧正样本矩阵中第k行元素,为当前帧负样本矩阵中第k行元素;表示上一帧分类器参数,为当前帧分类器参数;nd为正样本包的个数;γ为更新系数,取值范围是0.85~1,k=1,2…N。
CN201610273862.0A 2016-04-28 2016-04-28 一种目标跟踪方法 Active CN105976397B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610273862.0A CN105976397B (zh) 2016-04-28 2016-04-28 一种目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610273862.0A CN105976397B (zh) 2016-04-28 2016-04-28 一种目标跟踪方法

Publications (2)

Publication Number Publication Date
CN105976397A true CN105976397A (zh) 2016-09-28
CN105976397B CN105976397B (zh) 2019-03-26

Family

ID=56994054

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610273862.0A Active CN105976397B (zh) 2016-04-28 2016-04-28 一种目标跟踪方法

Country Status (1)

Country Link
CN (1) CN105976397B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778831A (zh) * 2016-11-28 2017-05-31 国家计算机网络与信息安全管理中心 基于高斯混合模型的刚体目标在线特征分类与跟踪方法
CN109242884A (zh) * 2018-08-14 2019-01-18 西安电子科技大学 基于JCFNet网络的遥感视频目标跟踪方法
CN109859234A (zh) * 2017-11-29 2019-06-07 深圳Tcl新技术有限公司 一种视频人体轨迹跟踪方法、装置及存储介质
CN110662417A (zh) * 2017-05-17 2020-01-07 inaho株式会社 农作业装置、农作业管理系统以及程序
US11756303B2 (en) 2020-06-25 2023-09-12 Axis Ab Training of an object recognition neural network
WO2023249556A3 (zh) * 2022-06-22 2024-03-07 脸萌有限公司 基于对比学习来处理视频的方法、装置、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103870839A (zh) * 2014-03-06 2014-06-18 江南大学 视频目标在线多特征跟踪方法
US20150286872A1 (en) * 2011-06-20 2015-10-08 University Of Southern California Visual tracking in video images in unconstrained environments by exploiting on-the-fly contxt using supporters and distracters
CN105096345A (zh) * 2015-09-15 2015-11-25 电子科技大学 一种基于动态测量矩阵的目标跟踪方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150286872A1 (en) * 2011-06-20 2015-10-08 University Of Southern California Visual tracking in video images in unconstrained environments by exploiting on-the-fly contxt using supporters and distracters
CN103870839A (zh) * 2014-03-06 2014-06-18 江南大学 视频目标在线多特征跟踪方法
CN105096345A (zh) * 2015-09-15 2015-11-25 电子科技大学 一种基于动态测量矩阵的目标跟踪方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
XIAOLIN TIAN ET AL.: "Consistency-Contrained Nonnegative Coding for Tracking", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 *
袁建建 等: "基于改进Haar-like特征的压缩跟踪算法", 《兵工自动化》 *
郑晓利: "基于编码模型的目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778831A (zh) * 2016-11-28 2017-05-31 国家计算机网络与信息安全管理中心 基于高斯混合模型的刚体目标在线特征分类与跟踪方法
CN106778831B (zh) * 2016-11-28 2020-04-24 国家计算机网络与信息安全管理中心 基于高斯混合模型的刚体目标在线特征分类与跟踪方法
CN110662417A (zh) * 2017-05-17 2020-01-07 inaho株式会社 农作业装置、农作业管理系统以及程序
CN109859234A (zh) * 2017-11-29 2019-06-07 深圳Tcl新技术有限公司 一种视频人体轨迹跟踪方法、装置及存储介质
CN109242884A (zh) * 2018-08-14 2019-01-18 西安电子科技大学 基于JCFNet网络的遥感视频目标跟踪方法
CN109242884B (zh) * 2018-08-14 2020-11-20 西安电子科技大学 基于JCFNet网络的遥感视频目标跟踪方法
US11756303B2 (en) 2020-06-25 2023-09-12 Axis Ab Training of an object recognition neural network
WO2023249556A3 (zh) * 2022-06-22 2024-03-07 脸萌有限公司 基于对比学习来处理视频的方法、装置、设备和介质

Also Published As

Publication number Publication date
CN105976397B (zh) 2019-03-26

Similar Documents

Publication Publication Date Title
CN105976397A (zh) 基于半非负优化集成学习的目标跟踪方法
CN104156734B (zh) 一种基于随机蕨分类器的全自主在线学习方法
CN103996018B (zh) 基于4dlbp的人脸识别方法
CN101488185B (zh) 基于分块矩阵的步态识别方法
CN107862261A (zh) 基于多尺度卷积神经网络的图像人群计数方法
CN111191667B (zh) 基于多尺度生成对抗网络的人群计数方法
CN104978570B (zh) 基于增量学习的行车视频中交通标志的检测和识别方法
CN104850865A (zh) 一种多特征迁移学习的实时压缩跟踪方法
CN104616319B (zh) 基于支持向量机的多特征选择目标跟踪方法
CN106778796A (zh) 基于混合式协同训练的人体动作识别方法及系统
CN103793926B (zh) 基于样本重选择的目标跟踪方法
CN104298963B (zh) 一种鲁棒的基于人脸形状回归模型的多姿态疲劳监测方法
CN105373777A (zh) 一种用于人脸识别的方法及装置
CN103745233B (zh) 基于空间信息迁移的高光谱图像分类方法
CN108446676A (zh) 基于有序编码及多层随机投影的人脸图像年龄判别方法
CN108154133A (zh) 基于非对称联合学习的人脸画像-照片识别方法
CN106056627B (zh) 一种基于局部鉴别性稀疏表示的鲁棒目标跟踪方法
CN105894008A (zh) 结合特征点匹配及深度神经网络检测的目标运动跟踪方法
CN116342942A (zh) 基于多级域适应弱监督学习的跨域目标检测方法
CN114492634B (zh) 一种细粒度装备图片分类识别方法及系统
CN106056146B (zh) 基于逻辑回归的视觉跟踪方法
CN106446804A (zh) 一种基于elm的多粒度虹膜识别方法
CN106485283B (zh) 一种基于Online Boosting的粒子滤波行人目标跟踪方法
CN104050451A (zh) 一种基于多通道Haar-like特征的鲁棒目标跟踪方法
CN105069473A (zh) 面向在线不确定图像识别的多示例加权包学习方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant