CN106296734A - 基于极限学习机和boosting多核学习的目标跟踪算法 - Google Patents

基于极限学习机和boosting多核学习的目标跟踪算法 Download PDF

Info

Publication number
CN106296734A
CN106296734A CN201610637804.1A CN201610637804A CN106296734A CN 106296734 A CN106296734 A CN 106296734A CN 201610637804 A CN201610637804 A CN 201610637804A CN 106296734 A CN106296734 A CN 106296734A
Authority
CN
China
Prior art keywords
represent
sample
formula
time iteration
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610637804.1A
Other languages
English (en)
Other versions
CN106296734B (zh
Inventor
孙锐
张东东
王旭
高隽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Keda Qingtian Technology Co.,Ltd.
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN201610637804.1A priority Critical patent/CN106296734B/zh
Publication of CN106296734A publication Critical patent/CN106296734A/zh
Application granted granted Critical
Publication of CN106296734B publication Critical patent/CN106296734B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于极限学习机和boosting多核学习的目标跟踪算法,其特征包括:1多次boosting迭代得到优秀的分类器,将每次boosting迭代中通过多核学习得到的弱分类器组合成强分类器,再用强分类器对特征进行分类。2为了进一步减少计算量和提升分类性能,不同于传统多核学习以支持向量机(SVM)为基分类器,而采用极限学习机作为基分类器,极限学习机结构简单,训练速度非常快,并且比SVM有更好的泛化能力。本发明能使多核分类器进行快速分类,从而使跟踪算法在复杂场景下也能保证跟踪的鲁棒性和实时性。

Description

基于极限学习机和boosting多核学习的目标跟踪算法
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于极限学习机和boosting多核学习的目标跟踪算法。
背景技术
目标跟踪作为计算机视觉的一个重要领域,在很多实际应用方面都起着至关重要的作用,例如视频监控、移动识别、交通管理、人机交互、医学图像诊断等等。但是由于光照变化、形态变化、遮挡、复杂背景、尺度变化等问题,如何鲁棒的跟踪目标仍然是个具有挑战性的研究课题。
鲁棒的目标跟踪方法要求分类器具有优秀的分类能力,很多算法采用单个核函数的分类方法,但是实际数据可能来源不同或者表示方式不同,有些情况下单个核函数并不能很好的对数据进行分类。多核学习正是一种通过线性组合多个核函数来达到更好的分类性能而提出的,传统的多核学习一般都是基于SVM分类器,具有良好的分类性能。现有技术将多核学习应用到目标跟踪,采用的基分类器就是SVM,由于SVM本身计算复杂,使目标跟踪很难达到实时跟踪,并且传统的多核学习一般都要解很复杂的最优化问题,计算量非常大。同时,目标跟踪数据量都很大,对实时性要求高,因此传统多核学习无法直接应用到目标跟踪。
另外,目标跟踪要想达到实时鲁棒的跟踪,算法中采取的分类器应该满足低计算量和能够快速适应动态环境变化。当前大部分算法都无法同时满足运算速度和学习准确度,例如朴素贝叶斯分类器具有快速的分类速度,但由于分类器太过简单,所以通常都无法达到很好的分类性能。另一方面,基于支持向量机的分类器一般分类效果都很好,但由于需要解大量的多项式问题使得计算量会非常大。
发明内容
本发明针对传统多核学习使用SVM做为基核分类器无法很好的应用到目标跟踪的问题,提出一种基于极限学习机和boosting多核学习的目标跟踪算法,以期能使多核分类器进行快速分类,从而使跟踪算法在复杂场景下也能保证跟踪的鲁棒性和实时性。
本发明为解决技术问题采用如下技术方案:
本发明一种基于极限学习机和boosting多核学习的目标跟踪算法的特点是按如下步骤进行:
步骤1、对任意一个含有S帧的视频图像序列的第一帧图像手动选择跟踪目标的初始位置,记为x(1)=(x1,y1,c11),x1表示所述第一帧图像中目标的水平位置;y1表示所述第一帧图像中目标的垂直位置;c1表示所述第一帧图像中目标的矩形窗大小;θ1表示所述第一帧图像中目标的旋转角度;
步骤2、令l(x(1))表示所述第一帧图像初始位置x(1)的中心位置;利用式(1)对所述第一帧图像初始位置x(1)的中心位置l(x(1))进行正样本采样,从而获得α个正样本所组成的正样本集合X+
X + = { x i + | 0 &le; l ( x i + ) - l ( x ( 1 ) ) < r 1 } i = 1 &alpha; - - - ( 1 )
式(1)中,表示第i个正样本;表示所述第i个正样本的中心位置;r1表示内采样半径;1≤i≤α;
利用式(2)对所述第一帧图像初始位置x(1)的中心位置l(x(1))进行负样本采样,从而获得β个负样本所组成的负样本集合X-
X - = { x j - | r 1 &le; l ( x j - ) - l ( x ( 1 ) ) < r 2 } j = 1 &beta; - - - ( 2 )
式(2)中,表示第j个负样本;表示所述第j个负样本的中心位置;r2表示外采样半径;1≤j≤β;
步骤3、利用HOG局部特征描述子对所述正样本集合X+和负样本集合X-分别进行特征提取,得到HOG局部特征xn表示第n个HOG局部特征;yn表示所述第n个HOG局部特征xn的样本标签,并有:yn=+1表示正样本;yn=-1表示负样本;D表示所有正样本和负样本的总数,1≤n≤D;
步骤4、定义迭代次数为t,并初始化t=1;将所述HOG局部特征作为训练数据;
步骤5、初始化所述训练数据的第t次迭代下第n个HOG局部特征的分布权值为:Bt(n)=1/D;
步骤6、随机给定M个不同核函数集合Km(x)表示第m个ELM核函数;并有:Km(x)=km(x,xn);x表示ELM核函数的自变量;km(·)表示ELM核函数的内积;
步骤7、初始化第t次迭代下ELM核函数集合的采样概率为:Pt(m)=1;并以采样概率Pt(m)对所述M个不同核函数集合进行采样,得到第t次迭代下用于训练的核函数数目为Mt
步骤8、利用多核boosting分类器得到第t次迭代下的分类器;
步骤8.1、利用式(3)所示的极限学习机对所述第t次迭代下Mt个核函数进行训练,得到第t次迭代下的第φ个分类器
f t &phi; ( z ) = R t &phi; ( I t &phi; / C + &Omega; ) - 1 Y - - - ( 3 )
式(3)中,C为偏置量,φ表示用于训练的核函数或分类器的序号,并有:1≤φ≤Mt是第t次迭代下第φ个ELM核函数Kφ(z)对所有D个HOG局部特征分别训练得到的列向量,并有 表示第t次迭代下的第φ个ELM核函数Kφ(z)的自变量z与第n个HOG局部特征xn的内积;是Mt×Mt维单位矩阵;Ω=HHT表示极限学习机隐藏层输出矩阵H与其转置的乘积;并有:其中L表示隐藏层节点的个数;{a1,…,aL}表示极限学习机隐藏层L个节点所对应的输入权值,{b1,…,bL}表示极限学习机隐藏层L个节点所对应的阈值,{G(a1,b1,xn),…,G(aL,bL,xn)}表示极限学习机隐藏层L个节点所对应的激活函数;Y代表样本标签组成的列矩阵,并有:
步骤8.2、利用式(4)计算所述第t次迭代下第φ个分类器的分类误差
&epsiv; t &phi; = &Sigma; n = 1 D B t ( n ) w h e n f t &phi; ( x n ) &NotEqual; y n - - - ( 4 )
步骤8.3、利用式(5)计算所述第t次迭代下的第φ个分类器的组合权值
&lambda; t &phi; = 1 2 l n ( 1 - &epsiv; t &phi; &epsiv; t &phi; ) - - - ( 5 )
步骤8.4、利用式(6)组合第t次迭代下的Mt个分类器,从而得到第t次迭代下的强分类器ht(z):
h t ( z ) = s i g n ( &Sigma; &phi; = 1 M t &lambda; t &phi; f t &phi; ( z ) ) - - - ( 6 )
式(6),sign(·)表示符号函数;
步骤8.5、利用式(7)和式(8)分别计算所述第t次迭代下强分类器ht(z)的分类误差εt和权值λt
&epsiv; t = &Sigma; n = 1 D B t ( n ) w h e n h t ( x n ) &NotEqual; y n - - - ( 7 )
&lambda; t = 1 2 l n ( 1 - &epsiv; t &epsiv; t ) - - - ( 8 )
步骤8.6、利用式(9)和式(10)更新第t+1次迭代的分布权值Bt+1(n)和ELM核函数的采样概率密度Pt+1(m):
B t + 1 ( n ) = B t ( n ) Z t &times; e - &lambda; t i f h t ( x n ) = y n e &lambda; t i f h t ( x n ) &NotEqual; y n - - - ( 9 )
P t + 1 ( m ) = P t ( m ) &tau; &epsiv; t - - - ( 10 )
式(9)和式(10)中,Zt是第t次迭代下所有HOG局部特征的分布权值Bt的归一化参数,τ为(0,1)之间的常量;
步骤9、将t+1赋值给t,并返回步骤8执行,直到t=T为止,从而获得T次迭代后的T个强分类器{h1(z),h2(z),…,ht(z),…,hT(z)};利用式(11)将T次迭代后的T个强分类器组合成最终的强分类器h(z):
h ( z ) = s i g n ( &Sigma; t = 1 T h t ( z ) &lambda; t ) - - - ( 11 )
步骤10、对于含有S帧的视频图像序列,令s表示当前帧图像;并初始化s=2;预测当前帧图像s的目标位置:
步骤10.1、载入当前帧图像s,在当前帧图像s中,以s-1帧图像跟踪目标x(s-1)的中心位置l(x(s-1))为中心,在半径为R的圆内,取出与s-1帧图像跟踪目标x(s-1)的矩形窗cs-1大小相同的个矩形框作为检测样本
步骤10.2分别提取当前帧图像s的个检测样本的HOG特征;
步骤10.3通过所述最终强分类器h(z)对当前帧图像的个检测样本的HOG特征进行分类,计算当前帧图像个检测样本的分类误差,取出分类误差最小的检测样本,并将分类误差最小的检测样本作为当前帧图像待跟踪目标,并记为x(s)
步骤11、将s+1赋值给s,并返回步骤10.1执行,直至s=S为止,从而获得整个视频序列的目标跟踪位置{x(1),x(2),…,x(s),…,x(S)}。
与已有技术相比,本发明有益效果体现在:
1、本发明采用基于极限学习机的分类器对特征进行快速并准确的分类。ELM具有结构简单,计算速度快的优势,它对比SVM具有更好的泛化能力。极限学习机最初被用来解决单隐藏层前馈神经网络,与支持向量机或其它神经网络算法不同的是极限学习机的隐藏层参数不需要迭代调整,因而有很快的训练速度,可以满足实时性和鲁棒性的要求。
2、本发明将传统多核学习嵌入到boosting学习的框架中,使得分类的结果更加准确,分类速度相对传统多核学习有明显改善。Boosting算法是一种将一系列弱分类器组合成强分类器的方法。将多核学习应用到boosting算法的框架内,每个核函数分别训练一个基分类器,核函数和分类器的组合权值都可以在boosting算法学习过程中得到。相对常规的多核学习,boosting算法不需要解复杂的最优化问题,因此可以快速有效的得到分类器。另外与其他多核学习算法最终只得到一个基于核的分类器不同,多核学习可以得到多个基于核的分类器并根据分类误差赋予这些分类器不同的权值,组合得到最终的强分类器,从而使增强了分类器模型的稳定性。`
3、本发明针对目标跟踪数据量大,在核函数集合很大的情况下根据分类误差进行采样,减少了训练分类器的时间,从而很好的满足了目标跟踪对于实时性的要求。
4、本发明采用极限学习机与boosting多核学习的方法应用于目标跟踪,良好的分类效果使得即使在复杂场景下也能准确快速的跟踪目标,从而增强了目标跟踪的准确性和可靠性。
附图说明
图1为本发明的boosting多核学习分类器的算法流程图。
具体实施方式
本实施例中,如图1所示,一种基于极限学习机和boosting多核学习的目标跟踪算法是按如下步骤进行:
步骤1、对任意一个含有S帧的视频图像序列的第一帧图像手动选择跟踪目标的初始位置,记为x(1)=(x1,y1,c11),x1表示所述第一帧图像中目标的水平位置;y1表示所述第一帧图像中目标的垂直位置;c1表示所述第一帧图像中目标的矩形窗大小;θ1表示所述第一帧图像中目标的旋转角度;
步骤2、令l(x(1))表示所述第一帧图像初始位置x(1)的中心位置;利用式(1)对所述第一帧图像初始位置x(1)的中心位置l(x(1))进行正样本采样,从而获得α个正样本所组成的正样本集合X+
X + = { x i + | 0 &le; l ( x i + ) - l ( x ( 1 ) ) < r 1 } i = 1 &alpha; - - - ( 1 )
式(1)中,表示第i个正样本;表示所述第i个正样本的中心位置;r1表示内采样半径;1≤i≤α;
利用式(2)对所述第一帧图像初始位置x(1)的中心位置l(x(1))进行负样本采样,从而获得β个负样本所组成的负样本集合X-
X - = { x j - | r 1 &le; l ( x j - ) - l ( x ( 1 ) ) < r 2 } j = 1 &beta; - - - ( 2 )
式(2)中,表示第j个负样本;表示所述第j个负样本的中心位置;r2表示外采样半径;1≤j≤β;
步骤3、利用HOG局部特征描述子对所述正样本集合X+和负样本集合X-分别进行特征提取,得到HOG局部特征xn表示第n个HOG局部特征;yn表示所述第n个HOG局部特征xn的样本标签,并有:yn=+1表示正样本;yn=-1表示负样本;D表示所有正样本和负样本的总数,1≤n≤D;
目前,在计算机视觉和模式识别等领域中,可用于特征提取的方法很多,HOG是现阶段单一特征中性能较好的一种,主要用来描述图像的局部纹理特征且方法简单实用,因此较为常用,通常通过计算和统计图像局部区域的梯度方向直方图来构成特征。
步骤4、定义迭代次数为t,并初始化t=1;将所述HOG局部特征作为训练数据;
步骤5、初始化所述训练数据的第t次迭代下第n个HOG局部特征的分布权值为:Bt(n)=1/D;
步骤6、随机给定M个不同核函数集合Km(x)表示第m个ELM核函数;并有:Km(x)=km(x,xn);x表示ELM核函数的自变量;km(·)表示ELM核函数的内积;
基于核的学习算法关键在于如何合理的选择核函数。实际应用中,由于数据可能有多个来源或者数据有多种表示方式,使用单个核函数的算法无法有效解决问题。多核学习通过组合多个核函数在很多情况下具有更好的适应力和灵活性。核函数的选择有高斯函数、多项式函数、仿射基函数、sigmoid核等。
步骤7、初始化第t次迭代下ELM核函数集合的采样概率为:Pt(m)=1;并以采样概率Pt(m)对所述M个不同核函数集合进行采样,得到第t次迭代下用于训练的核函数数目为Mt
极限学习机(extreme learning machine,ELM)是一种近年来比较流行的机器学习方法,它对于单隐藏层前馈网络具有很有效的解。不同于传统的基于反向传播的神经网络算法和支持向量机,ELM的隐藏层参数是随机产生的并且不需要调整,因此隐藏层的节点可以在训练样本获取前建立好。黄广斌等已经证明了即使不更新隐藏层节点,通过随机产生隐藏层神经元和由正则化最小均方误差调整输出权重可以保持ELM的全局近似能力。另外,在ELM中解正则化最小均方问题也比在SVM中的多项式问题和传统BP算法中的梯度问题快许多。因此ELM相对于支持向量机有更快的训练速度、更好的泛化性能和更优全局的分类能力。
步骤8、利用多核boosting分类器得到第t次迭代下的分类器;
Boosting算法是一种将一系列弱分类器组合成强分类器的方法。将多核学习应用到boosting算法的框架内,每个核函数分别训练一个基分类器,核函数和分类器的组合权值都可以在boosting算法学习过程中得到。相对常规的多核学习,boosting算法不需要解复杂的最优化问题,因此可以快速有效的得到分类器。另外与其他多核学习算法最终只得到一个基核的分类器不同,多核学习可以得到多个基核的分类器并赋予这些分类器不同的权值,组合得到最终的强分类器。
步骤8.1、利用式(3)所示的极限学习机对所述第t次迭代下Mt个核函数进行训练,得到第t次迭代下的第φ个分类器
f t &phi; ( z ) = R t &phi; ( I t &phi; / C + &Omega; ) - 1 Y - - - ( 3 )
式(3)中,C为偏置量,φ表示用于训练的核函数或分类器的序号,并有:1≤φ≤Mt是第t次迭代下第φ个ELM核函数Kφ(z)对所有D个HOG局部特征分别训练得到的列向量,并有 表示第t次迭代下的第φ个ELM核函数Kφ(z)的自变量z与第n个HOG局部特征xn的内积;是Mt×Mt维单位矩阵;Ω=HHT表示极限学习机隐藏层输出矩阵H与其转置的乘积;并有:其中L表示隐藏层节点的个数;{a1,…,aL}表示极限学习机隐藏层L个节点所对应的输入权值,{b1,…,bL}表示极限学习机隐藏层L个节点所对应的阈值,{G(a1,b1,xn),…,G(aL,bL,xn)}表示极限学习机隐藏层L个节点所对应的激活函数;Y代表样本标签组成的列矩阵,并有:
步骤8.2、利用式(4)计算所述第t次迭代下第φ个分类器的分类误差
&epsiv; t &phi; = &Sigma; n = 1 D B t ( n ) w h e n f t &phi; ( x n ) &NotEqual; y n - - - ( 4 )
式(4)表示对分类结果与样本标签不一致的样本分布权值累加得到分类误差,分类结果正确的样本不进行累加;
步骤8.3、利用式(5)计算所述第t次迭代下的第φ个分类器的组合权值
&lambda; t &phi; = 1 2 l n ( 1 - &epsiv; t &phi; &epsiv; t &phi; ) - - - ( 5 )
步骤8.4、利用式(6)组合第t次迭代下的Mt个分类器,从而得到第t次迭代下的强分类器ht(z):
h t ( z ) = s i g n ( &Sigma; &phi; = 1 M t &lambda; t &phi; f t &phi; ( z ) ) - - - ( 6 )
式(6),sign(·)表示符号函数;
步骤8.5、利用式(7)和式(8)分别计算所述第t次迭代下强分类器ht(z)的分类误差εt和权值λt
&epsiv; t = &Sigma; n = 1 D B t ( n ) w h e n h t ( x n ) &NotEqual; y n - - - ( 7 )
&lambda; t = 1 2 l n ( 1 - &epsiv; t &epsiv; t ) - - - ( 8 )
步骤8.6、利用式(9)和式(10)更新第t+1次迭代的分布权值Bt+1(n)和ELM核函数的采样概率密度Pt+1(m):
B t + 1 ( n ) = B t ( n ) Z t &times; e - &lambda; t i f h t ( x n ) = y n e &lambda; t i f h t ( x n ) &NotEqual; y n - - - ( 9 )
P t + 1 ( m ) = P t ( m ) &tau; &epsiv; t - - - ( 10 )
式(9)和式(10)中,Zt是第t次迭代下所有HOG局部特征的分布权值Bt的归一化参数,τ为(0,1)之间的常量,这里取值为0.3;
对样本分布权值的更新的思想是于错误分类的数据在下一次迭代过程中赋予更大的权值,这样就会减少下次分类错误的概率,直至达到满意的分类效果。
步骤9、将t+1赋值给t,并返回步骤8执行,直到t=T为止,从而获得T次迭代后的T个强分类器{h1(z),h2(z),…,ht(z),…,hT(z)};利用式(11)将T次迭代后的T个强分类器组合成最终的强分类器h(z):
h ( z ) = s i g n ( &Sigma; t = 1 T h t ( z ) &lambda; t ) - - - ( 11 )
步骤10、对于含有S帧的视频图像序列,令s表示当前帧图像;并初始化s=2;预测当前帧图像s的目标位置:
步骤10.1、载入当前帧图像s,在当前帧图像s中,以s-1帧图像跟踪目标x(s-1)的中心位置l(x(s-1))为中心,在半径为R的圆内,取出与s-1帧图像跟踪目标x(s-1)的矩形窗cs-1大小相同的个矩形框作为检测样本R可以是10-40内的随机值,这里取R=25;
步骤10.2分别提取当前帧图像s的个检测样本的HOG特征;
步骤10.3通过所述最终强分类器h(z)对当前帧图像的个检测样本的HOG特征进行分类,计算当前帧图像个检测样本的分类误差,取出分类误差最小的检测样本,并将该检测样本作为当前帧图像待跟踪目标,并记为x(s)
步骤11、将s+1赋值给s,并返回步骤10.1执行,直至s=S为止,从而获得整个视频序列的目标跟踪位置{x(1),x(2),…,x(s),…,x(S)}。

Claims (1)

1.一种基于极限学习机和boosting多核学习的目标跟踪算法,其特征是按如下步骤进行:
步骤1、对任意一个含有S帧的视频图像序列的第一帧图像手动选择跟踪目标的初始位置,记为x(1)=(x1,y1,c11),x1表示所述第一帧图像中目标的水平位置;y1表示所述第一帧图像中目标的垂直位置;c1表示所述第一帧图像中目标的矩形窗大小;θ1表示所述第一帧图像中目标的旋转角度;
步骤2、令l(x(1))表示所述第一帧图像初始位置x(1)的中心位置;利用式(1)对所述第一帧图像初始位置x(1)的中心位置l(x(1))进行正样本采样,从而获得α个正样本所组成的正样本集合X+
X + = { x i + | 0 &le; l ( x i + ) - l ( x ( 1 ) ) < r 1 } i = 1 &alpha; - - - ( 1 )
式(1)中,表示第i个正样本;表示所述第i个正样本的中心位置;r1表示内采样半径;1≤i≤α;
利用式(2)对所述第一帧图像初始位置x(1)的中心位置l(x(1))进行负样本采样,从而获得β个负样本所组成的负样本集合X-
X - = { x j - | r 1 &le; l ( x j - ) - l ( x ( 1 ) ) < r 2 } j = 1 &beta; - - - ( 2 )
式(2)中,表示第j个负样本;表示所述第j个负样本的中心位置;r2表示外采样半径;1≤j≤β;
步骤3、利用HOG局部特征描述子对所述正样本集合X+和负样本集合X-分别进行特征提取,得到HOG局部特征xn表示第n个HOG局部特征;yn表示所述第n个HOG局部特征xn的样本标签,并有:yn=+1表示正样本;yn=-1表示负样本;D表示所有正样本和负样本的总数,1≤n≤D;
步骤4、定义迭代次数为t,并初始化t=1;将所述HOG局部特征作为训练数据;
步骤5、初始化所述训练数据的第t次迭代下第n个HOG局部特征的分布权值为:Bt(n)=1/D;
步骤6、随机给定M个不同核函数集合Km(x)表示第m个ELM核函数;并有:Km(x)=km(x,xn);x表示ELM核函数的自变量;km(·)表示ELM核函数的内积;
步骤7、初始化第t次迭代下ELM核函数集合的采样概率为:Pt(m)=1;并以采样概率Pt(m)对所述M个不同核函数集合进行采样,得到第t次迭代下用于训练的核函数数目为Mt
步骤8、利用多核boosting分类器得到第t次迭代下的分类器;
步骤8.1、利用式(3)所示的极限学习机对所述第t次迭代下Mt个核函数进行训练,得到第t次迭代下的第φ个分类器
f t &phi; ( z ) = R t &phi; ( I t &phi; / C + &Omega; ) - 1 Y - - - ( 3 )
式(3)中,C为偏置量,φ表示用于训练的核函数或分类器的序号,并有:1≤φ≤Mt是第t次迭代下第φ个ELM核函数Kφ(z)对所有D个HOG局部特征分别训练得到的列向量,并有 表示第t次迭代下的第φ个ELM核函数Kφ(z)的自变量z与第n个HOG局部特征xn的内积;是Mt×Mt维单位矩阵;Ω=HHT表示极限学习机隐藏层输出矩阵H与其转置的乘积;并有:其中L表示隐藏层节点的个数;{a1,…,aL}表示极限学习机隐藏层L个节点所对应的输入权值,{b1,…,bL}表示极限学习机隐藏层L个节点所对应的阈值,{G(a1,b1,xn),…,G(aL,bL,xn)}表示极限学习机隐藏层L个节点所对应的激活函数;Y代表样本标签组成的列矩阵,并有:
步骤8.2、利用式(4)计算所述第t次迭代下第φ个分类器的分类误差
&epsiv; t &phi; = &Sigma; n = 1 D B t ( n ) w h e n f t &phi; ( x n ) &NotEqual; y n - - - ( 4 )
步骤8.3、利用式(5)计算所述第t次迭代下的第φ个分类器的组合权值
&lambda; t &phi; = 1 2 l n ( 1 - &epsiv; t &phi; &epsiv; t &phi; ) - - - ( 5 )
步骤8.4、利用式(6)组合第t次迭代下的Mt个分类器,从而得到第t次迭代下的强分类器ht(z):
h t ( z ) = s i g n ( &Sigma; &phi; = 1 M t &lambda; t &phi; f t &phi; ( z ) ) - - - ( 6 )
式(6),sign(·)表示符号函数;
步骤8.5、利用式(7)和式(8)分别计算所述第t次迭代下强分类器ht(z)的分类误差εt和权值λt
&epsiv; t = &Sigma; n = 1 D B t ( n ) w h e n h t ( x n ) &NotEqual; y n - - - ( 7 )
&lambda; t = 1 2 l n ( 1 - &epsiv; t &epsiv; t ) - - - ( 8 )
步骤8.6、利用式(9)和式(10)更新第t+1次迭代的分布权值Bt+1(n)和ELM核函数的采样概率密度Pt+1(m):
B t + 1 ( n ) = B t ( n ) Z t &times; e - &lambda; t i f h t ( x n ) = y n e &lambda; t i f h t ( x n ) &NotEqual; y n - - - ( 9 )
P t + 1 ( m ) = P t ( m ) &tau; &epsiv; t - - - ( 10 )
式(9)和式(10)中,Zt是第t次迭代下所有HOG局部特征的分布权值Bt的归一化参数,τ为(0,1)之间的常量;
步骤9、将t+1赋值给t,并返回步骤8执行,直到t=T为止,从而获得T次迭代后的T个强分类器{h1(z),h2(z),…,ht(z),…,hT(z)};利用式(11)将T次迭代后的T个强分类器组合成最终的强分类器h(z):
h ( z ) = s i g n ( &Sigma; t = 1 T h t ( z ) &lambda; t ) - - - ( 11 )
步骤10、对于含有S帧的视频图像序列,令s表示当前帧图像;并初始化s=2;预测当前帧图像s的目标位置:
步骤10.1、载入当前帧图像s,在当前帧图像s中,以s-1帧图像跟踪目标x(s-1)的中心位置l(x(s-1))为中心,在半径为R的圆内,取出与s-1帧图像跟踪目标x(s-1)的矩形窗cs-1大小相同的个矩形框作为检测样本
步骤10.2分别提取当前帧图像s的个检测样本的HOG特征;
步骤10.3通过所述最终强分类器h(z)对当前帧图像的个检测样本的HOG特征进行分类,计算当前帧图像个检测样本的分类误差,取出分类误差最小的检测样本,并将分类误差最小的检测样本作为当前帧图像待跟踪目标,并记为x(s)
步骤11、将s+1赋值给s,并返回步骤10.1执行,直至s=S为止,从而获得整个视频序列的目标跟踪位置{x(1),x(2),…,x(s),…,x(S)}。
CN201610637804.1A 2016-08-05 2016-08-05 基于极限学习机和boosting多核学习的目标跟踪方法 Active CN106296734B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610637804.1A CN106296734B (zh) 2016-08-05 2016-08-05 基于极限学习机和boosting多核学习的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610637804.1A CN106296734B (zh) 2016-08-05 2016-08-05 基于极限学习机和boosting多核学习的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN106296734A true CN106296734A (zh) 2017-01-04
CN106296734B CN106296734B (zh) 2018-08-28

Family

ID=57665852

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610637804.1A Active CN106296734B (zh) 2016-08-05 2016-08-05 基于极限学习机和boosting多核学习的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN106296734B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106447691A (zh) * 2016-07-19 2017-02-22 西安电子科技大学 基于加权多示例学习的加权极限学习机视频目标跟踪方法
CN106815576A (zh) * 2017-01-20 2017-06-09 中国海洋大学 基于连续时空置信图和半监督极限学习机的目标追踪方法
CN107147603A (zh) * 2017-05-05 2017-09-08 西安电子科技大学 基于多神经网络的dbpsk解调方法
CN107679455A (zh) * 2017-08-29 2018-02-09 平安科技(深圳)有限公司 目标跟踪装置、方法及计算机可读存储介质
CN113469257A (zh) * 2021-07-07 2021-10-01 云南大学 一种配电变压器故障检测方法和系统
WO2022141201A1 (zh) * 2020-12-30 2022-07-07 深圳高性能医疗器械国家研究院有限公司 一种基于dce-mri的乳腺癌分级方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6532305B1 (en) * 1998-08-04 2003-03-11 Lincom Corporation Machine learning method
CN102750550A (zh) * 2012-06-06 2012-10-24 初红霞 基于视频的多目标跟踪方法及装置
CN104992453A (zh) * 2015-07-14 2015-10-21 国家电网公司 基于极限学习机的复杂背景下目标跟踪方法
CN105719292A (zh) * 2016-01-20 2016-06-29 华东师范大学 利用两层级联的Boosting分类算法实现视频目标跟踪的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6532305B1 (en) * 1998-08-04 2003-03-11 Lincom Corporation Machine learning method
CN102750550A (zh) * 2012-06-06 2012-10-24 初红霞 基于视频的多目标跟踪方法及装置
CN104992453A (zh) * 2015-07-14 2015-10-21 国家电网公司 基于极限学习机的复杂背景下目标跟踪方法
CN105719292A (zh) * 2016-01-20 2016-06-29 华东师范大学 利用两层级联的Boosting分类算法实现视频目标跟踪的方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106447691A (zh) * 2016-07-19 2017-02-22 西安电子科技大学 基于加权多示例学习的加权极限学习机视频目标跟踪方法
CN106815576A (zh) * 2017-01-20 2017-06-09 中国海洋大学 基于连续时空置信图和半监督极限学习机的目标追踪方法
CN107147603A (zh) * 2017-05-05 2017-09-08 西安电子科技大学 基于多神经网络的dbpsk解调方法
CN107147603B (zh) * 2017-05-05 2019-10-08 西安电子科技大学 基于多神经网络的dbpsk解调方法
CN107679455A (zh) * 2017-08-29 2018-02-09 平安科技(深圳)有限公司 目标跟踪装置、方法及计算机可读存储介质
WO2022141201A1 (zh) * 2020-12-30 2022-07-07 深圳高性能医疗器械国家研究院有限公司 一种基于dce-mri的乳腺癌分级方法
CN113469257A (zh) * 2021-07-07 2021-10-01 云南大学 一种配电变压器故障检测方法和系统

Also Published As

Publication number Publication date
CN106296734B (zh) 2018-08-28

Similar Documents

Publication Publication Date Title
CN106296734A (zh) 基于极限学习机和boosting多核学习的目标跟踪算法
CN106203432B (zh) 一种基于卷积神经网显著性图谱的感兴趣区域的定位系统
CN109344736B (zh) 一种基于联合学习的静态图像人群计数方法
KR102224253B1 (ko) 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법
WO2019237240A1 (zh) 一种增强型生成式对抗网络以及目标样本识别方法
CN108399406A (zh) 基于深度学习的弱监督显著性物体检测的方法及系统
CN110929577A (zh) 一种基于YOLOv3的轻量级框架改进的目标识别方法
CN108764308A (zh) 一种基于卷积循环网络的行人重识别方法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN109743642B (zh) 基于分层循环神经网络的视频摘要生成方法
CN108846426A (zh) 基于深度双向lstm孪生网络的极化sar分类方法
CN106570893A (zh) 一种基于相关滤波的快速稳健视觉跟踪方法
CN110728698A (zh) 一种基于复合循环神经网络系统的多目标跟踪模型
CN109598220A (zh) 一种基于多元输入多尺度卷积的人数统计方法
CN112200262B (zh) 支持多任务和跨任务的小样本分类训练方法及装置
Liu et al. SK-MobileNet: a lightweight adaptive network based on complex deep transfer learning for plant disease recognition
Lopez-Lopez et al. Incremental learning from low-labelled stream data in open-set video face recognition
Sun et al. Optimized light-weight convolutional neural networks for histopathologic cancer detection
Ke et al. Mango varieties classification-based optimization with transfer learning and deep learning approaches
CN112862084B (zh) 基于深度迁移融合学习的交通流量预测方法
CN104463207A (zh) 知识自编码网络及其极化sar影像地物分类方法
CN117765432A (zh) 一种基于动作边界预测的中学理化生实验动作检测方法
Kim et al. Matching video net: Memory-based embedding for video action recognition
Xu et al. Compressed YOLOv5 for oriented object detection with integrated network slimming and knowledge distillation
Durasov et al. Enabling Uncertainty Estimation in Iterative Neural Networks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210928

Address after: 230001 1101, building B, Xiangfeng Creative Park, 211 Xiangzhang Avenue, Hefei, Anhui

Patentee after: Anhui Keda Qingtian Technology Co.,Ltd.

Address before: Tunxi road in Baohe District of Hefei city of Anhui Province, No. 193 230009

Patentee before: Hefei University of Technology