CN106355204B - 基于贝叶斯学习和增量子空间学习的目标跟踪方法 - Google Patents

基于贝叶斯学习和增量子空间学习的目标跟踪方法 Download PDF

Info

Publication number
CN106355204B
CN106355204B CN201610788786.7A CN201610788786A CN106355204B CN 106355204 B CN106355204 B CN 106355204B CN 201610788786 A CN201610788786 A CN 201610788786A CN 106355204 B CN106355204 B CN 106355204B
Authority
CN
China
Prior art keywords
indicate
particle
sample
target
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610788786.7A
Other languages
English (en)
Other versions
CN106355204A (zh
Inventor
何发智
李康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Fuguang Information Technology Co ltd
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201610788786.7A priority Critical patent/CN106355204B/zh
Publication of CN106355204A publication Critical patent/CN106355204A/zh
Application granted granted Critical
Publication of CN106355204B publication Critical patent/CN106355204B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于贝叶斯学习和增量子空间学习的目标跟踪方法,混合两种子算法分别产生一个跟踪结果,本发明定义了这两个候选跟踪结果的可信度度量,最终算法选择可信度最高的算法作为跟踪结果;本发明通过降低判别算法的学习率和暂停更新产生模型算法来避免引入更多的噪声.克服了目标在遭受遮挡和巨大形变后跟踪漂移的问题。

Description

基于贝叶斯学习和增量子空间学习的目标跟踪方法
技术领域
本发明属于计算机视觉和模式识别领域,尤其涉及一种基于贝叶斯学习和增量子空间学习的目标跟踪方法。
背景技术
目标跟踪在实时监控,运动捕捉,视频分析和娱乐等领域有着广泛的应用,是计算机视觉中最为活跃的领域之一。近年来国内外有大量的跟踪算法被开发出来,但是由于目标本身的信息不足,以及光照变化、遮挡、目标旋转等各种因素的影响,开发出具有鲁棒效果的跟踪算法仍然是一项具有挑战性的研究课题。
无模型的目标跟踪仅给出目标在第1帧中的位置,跟踪算法负责在余下的视频序列中找出目标的位置。目前有大量的算法关注目标的静态外观模型,但是由于目标信息的不足,当目标遭受剧烈形变的时候回跟踪失败。自适应外观模型的跟踪算法通常在跟踪过程中动态根性分类器,能够适应目标新的变化,具有更好的鲁棒性,已经成为当前目标跟踪研究的主流方向。
随着今年来机器学习的发展,大量的机器学习算法被应用到目标跟踪上来。根据外观模型的不同,跟踪算法可以分为判别模型和产生模型两大类。
判别模型跟踪算法将跟踪问题看成分类问题,它使用训练样本训练分类器将目标和背景分开,然后再候选样本中选择具有最大分类相应的样本作为目标。产生模型跟踪算法通过训练样本学习到目标的外观,然后再候选样本中选择重构误差最小的样本作为目标。在产生模型的跟踪算法中一般使用粒子滤波跟踪框架,它不受系统满足线性和高斯分布的限制,能够处理多峰问题,并且使用灵活易于实现。
一般来说,如果目标的外观变化不大,生成算法能够得到更准确的目标位置。但是,当目标所处于的环境比较复杂时,判别算法能够得到更鲁棒的跟踪结果。这是由于判别算法使用了背景信息避免跟踪漂移。
发明内容
为了解决上述问题,本发明提出了混合一种判别模型算法和一种生成模型算法。在跟踪过程中,这两种子算法分别产生一个跟踪结果,本发明定义了这两个候选跟踪结果的可信度度量,最终算法选择可信度最高的算法作为跟踪结果。
当跟踪结果不准确时,背景信息以误差的形式被引入到目标的模型更新中,从而造成跟踪漂移。为了解决这一问题,当跟踪结果的可信度降低时,通过降低判别算法的学习率和暂停更新产生模型算法来避免引入更多的噪声.克服了目标在遭受遮挡和巨大形变后跟踪漂移的问题。
本发明采用如下的技术方案,一种基于贝叶斯学习和增量子空间学习的目标跟踪方法,包括下列步骤:
步骤1,初始化;所述的初始化包括下列步骤;
步骤1.1,初始化第一帧目标位置;令t=1表示进入第1帧,用矩形框标注出目标的初始位置Rg=gx,gy,gw,gh,其中gx,gy表示目标矩形框的中心位置坐标,gw,gh是目标矩形框的宽和高;
步骤1.2,初始化粒子和运动参数;令表示描述粒子状态的向量变量,上标(i)表示第i个粒子,表示粒子所表示的x和y方向的位置坐标,表示粒子所表示的方框在x和y方向的尺度;
初始化粒子的状态为:则粒子所表示的矩形框可以表示为:表示t时刻的目标的状态向量,并将其初始化为当跟踪进行时,粒子的每一维都会以其当前状态为中心做随机运动;假设粒子的运动变化量服从均值为0协方差矩阵为Ω的正态分布,即其中Ω=diag σx,σy,σw,σh是一个对角矩阵,σxy表示粒子在x,y方向运动的标准差,σwh表示粒子在宽度和高度变化率上的标准差;
步骤1.3,初始化均值类哈尔特征模板;从粒子或者样本中提取第i个类哈尔特征的公式为:其中x′ij表示在x所表示的矩形框内随机选取的小矩形框,sum x′ij为x′ij所表示的矩形框内所有像素的灰度值之和,pixn x′ij为x′ij所表示的矩形框内像素的个数,wij是0~1之间的随机权值,如果目标的尺度发生变化,当使用该模板提取样本特征时,x′ij所表示的小矩形框也要成比例地变化,ni表示第i个类哈尔特征中包含的小矩形框数量;
步骤1.4初始化贝叶斯分类器;
步骤1.5初始化增量子空间学习算法的参数;为样本均值,其中为从所表示的矩形框中提取的特征;
步骤2,目标跟踪;
步骤2.1,令t=t+1更新时间参数,读取新一帧图像.粒子进行移动并更新粒子参数
步骤2.2,使用贝叶斯分类器对步骤2.1移动后的粒子进行分类,分类值最高的粒子作为贝叶斯分类器跟踪到的目标状态其中H(·)表示贝叶斯分类器函数,表示粒子的分类器响应值;
步骤2.3,使用增量学习算法对目标进行跟踪;定义其中表示第t帧的第i个粒子,I(x)是一个特征提取函数,它的作用是将x对应的图像块拉伸成列向量,为样本均值;则粒子在子空间中的坐标为,其中表示样本在子空间中坐标分布方差的无偏估计,(∑是一个对角矩阵,与1.5相同);U是一个矩阵,其每一列表示子空间的一个基向量;y(·)是本发明定义的一个函数;则粒子的重构误差为:最终根据重构误差选择第t时刻的跟踪结果为:
步骤2.4,对结果进行选择,得出当前帧的目标状态;所述的步骤2.4包括下列步骤:
步骤2.4.1,令表示t时刻使用贝叶斯跟踪算法求得的粒子分类响应的最大值;
步骤2.4.2,令表示t时刻使用子空间学习算法求得的粒子的最小重构误差值;
步骤2.4.3,ΔHt=|Ht-Ht-1|,Δδt=|δtt-1|为其对应的一阶差分;
步骤2.4.4,如果Ht>0且δt>40,则t时刻的目标状态为:步骤2.4.5,如果Ht≤0且δt≤40,则t时刻的目标状态为:
步骤2.4.6,其他情况,如果ΔHt/Ht-1<Δδtt-1,则否则令
步骤3,更新贝叶斯算法和子空间学习算法;所述的步骤3包括下列步骤:
步骤3.1,更新CT的分类器;所述的步骤3.1包括下列步骤:
步骤3.1.1,根据当前跟踪到的目标状态,计算出t当前时刻正样本和负样本的均值和方差
步骤3.1.2,则更新贝叶斯分类器的参数为:
步骤3.2,如果δt>12且Δδt<3则对子空间学习模型进行更新,否则不进行更新;更新子空间学习的策略为:
步骤3.2.1,计算其中f=0.95是遗忘因子,n=t-1为已有的训练样本的数量,构建矩阵:计算其中是QR分解的正交矩阵;
步骤3.2.2,构建矩阵对于构建的矩阵R根据SVD分解计算得其中U′表示左奇异矩阵,Σ′是对角线元素为奇异值的对角矩阵,V′为右奇异矩阵,则更新子空间学习参数:且Σ=Σ′;
步骤4,判断t时刻是否为最后一帧,是则结束,如果t时刻不是最后一帧则转到步骤2。
所述的步骤1.4初始化贝叶斯分类器包括下列步骤:
步骤1.4.1,提取正样本:在当前目标位置的周围采集正样本集合其中,l x是返回样本x的中心位置坐标,表示样本x与t时刻目标位置的距离,α为采样半径;
步骤1.4.2,提取负样本:在当前目标位置周围同心圆范围内采集负样本集合其中rin为采样同心圆的内半径,ron为采样同心圆的外半径;
步骤1.4.3,正负样本的特征服从高斯分布,则正样本集中第i个特征的后验概率密度服从其中y=1表示正样本标签,xj∈X+表示正样本集第i个特征的均值,表示正样本集第i个特征的标准差,N表示正样本的数量;负样本集中第i个特征的后验概率密度服从其中y=0表示负样本标签表示负样本集第i个特征的均值,,xj∈X-表示负样本集中第i特征的标准差,L表示负样本的数量;
步骤1.4.4,贝叶斯的分类器为:
其中nf表示从候选样本中提取的类哈尔特征的数量,p(fi(x)|y=0)表示样本x的第i个特征属于负样本的概率,p(fi(x)|y=1)表示样本x的第i个特征属于正样本的概率。
所述的步骤1.5中,从矩形框中提取特征的具体提取方法为:将x*所表示的矩形框中进行降采样至32×32的像素块,然后将此像素块按列像素排列成一个1024行的列向量.初始化U=1,0,0,...T,Σ=0.其中U是一个列正交的单位矩阵,其每一列表示子空间的基坐标,Σ是一个对角矩阵。
所述的步骤3.1.1中,计算出t当前时刻正样本和负样本的均值和方差使用步骤1.4.1至1.4.3的方法计算得出。
本发明的有益效果是:一种基于贝叶斯学习和增量子空间学习的目标跟踪方法,混合两种子算法分别产生一个跟踪结果,本发明定义了这两个候选跟踪结果的可信度度量,最终算法选择可信度最高的算法作为跟踪结果;本发明通过降低判别算法的学习率和暂停更新产生模型算法来避免引入更多的噪声.克服了目标在遭受遮挡和巨大形变后跟踪漂移的问题。
附图说明
图1为本发明流程图。
具体实施方式
如图1,一种基于贝叶斯学习和增量子空间学习的目标跟踪方法,包括下列步骤:
步骤1,初始化;所述的初始化包括下列步骤;
步骤1.1,初始化第一帧目标位置;令t=1表示进入第1帧,用矩形框标注出目标的初始位置Rg=gx,gy,gw,gh,其中gx,gy表示目标矩形框的中心位置坐标,gw,gh是目标矩形框的宽和高;
步骤1.2,初始化粒子和运动参数;令表示描述粒子状态的向量变量,上标(i)表示第i个粒子,表示粒子所表示的x和y方向的位置坐标,表示粒子所表示的方框在x和y方向的尺度;
初始化粒子的状态为:则粒子所表示的矩形框可以表示为:表示t时刻的目标的状态向量,并将其初始化为当跟踪进行时,粒子的每一维都会以其当前状态为中心做随机运动;假设粒子的运动变化量服从均值为0协方差矩阵为Ω的正态分布,即其中Ω=diag σxywh是一个对角矩阵,σxy表示粒子在x,y方向运动的标准差,σwh表示粒子在宽度和高度变化率上的标准差;
步骤1.3,初始化均值类哈尔特征模板;从粒子或者样本中提取第i个类哈尔特征的公式为:其中x′ij表示在x所表示的矩形框内随机选取的小矩形框,sum x′ij为x′ij所表示的矩形框内所有像素的灰度值之和,pixn x′ij为x′ij所表示的矩形框内像素的个数,wij是0~1之间的随机权值,如果目标的尺度发生变化,当使用该模板提取样本特征时,x′ij所表示的小矩形框也要成比例地变化,ni表示第i个类哈尔特征中包含的小矩形框数量;
步骤1.4初始化贝叶斯分类器;
所述的步骤1.4初始化贝叶斯分类器包括下列步骤:
步骤1.4.1,提取正样本:在当前目标位置的周围采集正样本集合其中,l x是返回样本x的中心位置坐标,表示样本x与t时刻目标位置的距离,α为采样半径;
步骤1.4.2,提取负样本:在当前目标位置周围同心圆范围内采集负样本集合其中rin为采样同心圆的内半径,ron为采样同心圆的外半径;
步骤1.4.3,正负样本的特征服从高斯分布,则正样本集中第i个特征的后验概率密度服从其中y=1表示正样本标签,xj∈X表示正样本集第i个特征的均值,表示正样本集第i个特征的标准差,N表示正样本的数量;负样本集中第i个特征的后验概率密度服从其中y=0表示负样本标签表示负样本集第i个特征的均值,,xj∈X表示负样本集中第i特征的标准差,L表示负样本的数量;
步骤1.4.4,贝叶斯的分类器为:
其中nf表示从候选样本中提取的类哈尔特征的数量,p(fi(x)|y=0)表示样本x的第i个特征属于负样本的概率,p(fi(x)|y=1)表示样本x的第i个特征属于正样本的概率。
步骤1.5初始化增量子空间学习算法的参数;为样本均值,其中I为从所表示的矩形框中提取的特征;从矩形框中提取特征的具体提取方法为:将x*所表示的矩形框中进行降采样至32×32的像素块,然后将此像素块按列像素排列成一个1024行的列向量.初始化U=1,0,0,...T,Σ=0.其中U是一个列正交的单位矩阵,其每一列表示子空间的基坐标,Σ是一个对角矩阵。
步骤2,目标跟踪;
步骤2.1,令t=t+1更新时间参数,读取新一帧图像.粒子进行移动并更新粒子参数
步骤2.2,使用贝叶斯分类器对步骤2.1移动后的粒子进行分类,分类值最高的粒子作为贝叶斯分类器跟踪到的目标状态其中H(·)表示贝叶斯分类器函数,表示粒子的分类器响应值;
步骤2.3,使用增量学习算法对目标进行跟踪;定义其中表示第t帧的第i个粒子,I(x)是一个特征提取函数,它的作用是将x对应的图像块拉伸成列向量,为样本均值;则粒子在子空间中的坐标为,其中表示样本在子空间中坐标分布方差的无偏估计,(Σ是一个对角矩阵,与1.5相同);U是一个矩阵,其每一列表示子空间的一个基向量;y(·)是本发明定义的一个函数;则粒子的重构误差为:最终根据重构误差选择第t时刻的跟踪结果为:
步骤2.4,对结果进行选择,得出当前帧的目标状态;所述的步骤2.4包括下列步骤:
步骤2.4.1,令表示t时刻使用贝叶斯跟踪算法求得的粒子分类响应的最大值;
步骤2.4.2,令表示t时刻使用子空间学习算法求得的粒子的最小重构误差值;
步骤2.4.3,ΔHt=|Ht-Ht-1|Δδt=|δtt-1|为其对应的一阶差分;
步骤2.4.4,如果Ht>0且δt>40,则t时刻的目标状态为:步骤2.4.5,如果Ht≤0且δt≤40,则t时刻的目标状态为:
步骤2.4.6,其他情况,如果ΔHt/Ht-1<Δδtt-1,则否则令
步骤3,更新贝叶斯算法和子空间学习算法;所述的步骤3包括下列步骤:
步骤3.1,更新CT的分类器;所述的步骤3.1包括下列步骤:
步骤3.1.1,根据当前跟踪到的目标状态,计算出t当前时刻正样本和负样本的均值和方差使用步骤1.4.1至1.4.3的方法计算得出。
步骤3.1.2,则更新贝叶斯分类器的参数为:
步骤3.2,如果δt<12且δt<3则对子空间学习模型进行更新,否则不进行更新;更新子空间学习的策略为:
步骤3.2.1,计算其中f=0.95是遗忘因子,n=t-1为已有的训练样本的数量,构建矩阵:计算其中是QR分解的正交矩阵;
步骤3.2.2,构建矩阵对于构建的矩阵R根据SVD分解计算得其中U′表示左奇异矩阵,Σ′是对角线元素为奇异值的对角矩阵,V′为右奇异矩阵,则更新子空间学习参数:且Σ=Σ′;
步骤4,判断t时刻是否为最后一帧,是则结束,如果t时刻不是最后一帧则转到步骤2。

Claims (4)

1.一种基于贝叶斯学习和增量子空间学习的目标跟踪方法,其特征在于,包括下列步骤:
步骤1,初始化;所述的初始化包括下列步骤;
步骤1.1,初始化第一帧目标位置;令t=1表示进入第1帧,用矩形框标注出目标的初始位置Rg=(gx,gy,gw,gh),其中gx,gy表示目标矩形框的中心位置坐标,gw,gh是目标矩形框的宽和高;
步骤1.2,初始化粒子和运动参数;令表示描述粒子状态的向量变量,上标(i)表示第i个粒子,表示粒子所表示的x和y方向的位置坐标,表示粒子所表示的方框在x和y方向的尺度;
初始化粒子的状态为:则粒子所表示的矩形框可以表示为:表示t时刻的目标的状态向量,并将其初始化为当跟踪进行时,粒子的每一维都会以其当前状态为中心做随机运动;假设粒子的运动变化量服从均值为0协方差矩阵为Ω的正态分布,即其中Ω=diag(σxywh)是一个对角矩阵,σxy表示粒子在x,y方向运动的标准差,σwh表示粒子在宽度和高度变化率上的标准差;
步骤1.3,初始化均值类哈尔特征模板;从粒子或者样本中提取第i个类哈尔特征的公式为:其中x′ij表示在x所表示的矩形框内随机选取的小矩形框,sum(x′ij)为x′ij所表示的矩形框内所有像素的灰度值之和,pixn(x′ij)为x′ij所表示的矩形框内像素的个数,wij是0~1之间的随机权值,如果目标的尺度发生变化,当使用该模板提取样本特征时,x′ij所表示的小矩形框也要成比例地变化,ni表示第i个类哈尔特征中包含的小矩形框数量;
步骤1.4初始化贝叶斯分类器;
步骤1.5初始化增量子空间学习算法的参数;为样本均值,其中为从所表示的矩形框中提取的特征;
步骤2,目标跟踪;
步骤2.1,令t=t+1更新时间参数,读取新一帧图像.粒子进行移动并更新粒子参数
步骤2.2,使用贝叶斯分类器对步骤2.1移动后的粒子进行分类,分类值最高的粒子作为贝叶斯分类器跟踪到的目标状态其中H(·)表示贝叶斯分类器函数,表示粒子的分类器响应值;
步骤2.3,使用增量学习算法对目标进行跟踪;定义其中表示第t帧的第i个粒子,I(x)是一个特征提取函数,它的作用是将x对应的图像块拉伸成列向量,为样本均值;则粒子在子空间中的坐标为 其中表示样本在子空间中坐标分布方差的无偏估计,∑是一个对角矩阵;U是一个矩阵,其每一列表示子空间的一个基向量;y(·)是定义的一个函数;则粒子的重构误差为:最终根据重构误差选择第t时刻的跟踪结果为:
步骤2.4,对结果进行选择,得出当前帧的目标状态;所述的步骤2.4包括下列步骤:
步骤2.4.1,令表示t时刻使用贝叶斯跟踪算法求得的粒子分类响应的最大值;
步骤2.4.2,令表示t时刻使用子空间学习算法求得的粒子的最小重构误差值;
步骤2.4.3,ΔHt=|Ht-Ht1|,Δδt=|δtt-1|为其对应的一阶差分;
步骤2.4.4,如果Ht>0且δt>40,则t时刻的目标状态为:
步骤2.4.5,如果Ht≤0且δt≤40,则t时刻的目标状态为:
步骤2.4.6,其他情况,如果ΔHt/Ht-1<Δδtt-1,则否则令
步骤3,更新贝叶斯算法和子空间学习算法;所述的步骤3包括下列步骤:
步骤3.1,更新CT的分类器;所述的步骤3.1包括下列步骤:
步骤3.1.1,根据当前跟踪到的目标状态,计算出t当前时刻正样本和负样本的均值和方差
步骤3.1.2,则更新贝叶斯分类器的参数为:
步骤3.2,如果δt<12且Δδt<3则对子空间学习模型进行更新,否则不进行更新;更新子空间学习的策略为:
步骤3.2.1,计算其中f=0.95是遗忘因子,n=t-1为已有的训练样本的数量,构建矩阵:计算其中是QR分解的正交矩阵;
步骤3.2.2,构建矩阵对于构建的矩阵R根据SVD分解计算得其中U′表示左奇异矩阵,∑′是对角线元素为奇异值的对角矩阵,V′为右奇异矩阵,则更新子空间学习参数:且∑=∑′;
步骤4,判断t时刻是否为最后一帧,是则结束,如果t时刻不是最后一帧则转到步骤2。
2.根据权利要求1所述的一种基于贝叶斯学习和增量子空间学习的目标跟踪方法,其特征在于,所述的步骤1.4初始化贝叶斯分类器包括下列步骤:
步骤1.4.1,提取正样本:在当前目标位置的周围采集正样本集合其中,l(x)是返回样本x的中心位置坐标,表示样本x与t时刻目标位置的距离,α为采样半径;
步骤1.4.2,提取负样本:在当前目标位置周围同心圆范围内采集负样本集合其中rin为采样同心圆的内半径,ron为采样同心圆的外半径;
步骤1.4.3,正负样本的特征服从高斯分布,则正样本集中第i个特征的后验概率密度服从x∈X+;其中y=1表示正样本标签,xj∈X+表示正样本集第i个特征的均值,表示正样本集第i个特征的标准差,N表示正样本的数量;负样本集中第i个特征的后验概率密度服从其中y=0表示负样本标签表示负样本集第i个特征的均值,xj∈X-表示负样本集中第i特征的标准差,L表示负样本的数量;
步骤1.4.4,贝叶斯的分类器为:
其中nf表示从候选样本中提取的类哈尔特征的数量,p(fi(x)|y=0)表示样本x的第i个特征属于负样本的概率,p(fi(x)|y=1)表示样本x的第i个特征属于正样本的概率。
3.根据权利要求1所述的一种基于贝叶斯学习和增量子空间学习的目标跟踪方法,其特征在于,所述的步骤1.5中,从矩形框中提取特征的具体提取方法为:将x*所表示的矩形框中进行降采样至32×32的像素块,然后将此像素块按列像素排列成一个1024行的列向量;初始化U=(1,0,0,...)T,其中U是一个列正交的单位矩阵,其每一列表示子空间的基坐标,∑是一个对角矩阵。
4.根据权利要求2所述的一种基于贝叶斯学习和增量子空间学习的目标跟踪方法,其特征在于,所述的步骤3.1.1中,计算出t当前时刻正样本和负样本的均值和方差使用步骤1.4.1至1.4.3的方法计算得出。
CN201610788786.7A 2016-08-31 2016-08-31 基于贝叶斯学习和增量子空间学习的目标跟踪方法 Active CN106355204B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610788786.7A CN106355204B (zh) 2016-08-31 2016-08-31 基于贝叶斯学习和增量子空间学习的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610788786.7A CN106355204B (zh) 2016-08-31 2016-08-31 基于贝叶斯学习和增量子空间学习的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN106355204A CN106355204A (zh) 2017-01-25
CN106355204B true CN106355204B (zh) 2019-08-20

Family

ID=57856296

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610788786.7A Active CN106355204B (zh) 2016-08-31 2016-08-31 基于贝叶斯学习和增量子空间学习的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN106355204B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729800A (zh) * 2017-06-29 2018-02-23 中国联合网络通信集团有限公司 移动目标跟踪方法及系统
WO2019241963A1 (zh) * 2018-06-21 2019-12-26 深圳大学 基于高阶累积量的目标跟踪方法、装置及存储介质
CN109711239B (zh) * 2018-09-11 2023-04-07 重庆邮电大学 基于改进混合增量动态贝叶斯网络的视觉注意力检测方法
CN111027476A (zh) * 2019-12-10 2020-04-17 电子科技大学 基于增量学习算法的人脸识别跟踪器
CN114037993B (zh) * 2021-09-26 2023-06-23 佛山中科云图智能科技有限公司 变电站指针仪表读数方法、装置、存储介质以及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101339655A (zh) * 2008-08-11 2009-01-07 浙江大学 基于目标特征和贝叶斯滤波的视觉跟踪方法
CN101916448A (zh) * 2010-08-09 2010-12-15 云南清眸科技有限公司 一种基于贝叶斯框架及lbp的运动目标检测方法
CN103793926A (zh) * 2014-02-27 2014-05-14 西安电子科技大学 基于样本重选择的目标跟踪方法
CN104598935A (zh) * 2014-12-29 2015-05-06 天津瑞为拓新科技发展有限公司 一种基于增量子空间学习算法的人脸识别方法
CN105225253A (zh) * 2015-09-22 2016-01-06 济南大学 一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法
CN105654069A (zh) * 2016-02-03 2016-06-08 江南大学 基于Lp范数正则化的增量子空间目标跟踪方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101339655A (zh) * 2008-08-11 2009-01-07 浙江大学 基于目标特征和贝叶斯滤波的视觉跟踪方法
CN101339655B (zh) * 2008-08-11 2010-06-09 浙江大学 基于目标特征和贝叶斯滤波的视觉跟踪方法
CN101916448A (zh) * 2010-08-09 2010-12-15 云南清眸科技有限公司 一种基于贝叶斯框架及lbp的运动目标检测方法
CN103793926A (zh) * 2014-02-27 2014-05-14 西安电子科技大学 基于样本重选择的目标跟踪方法
CN103793926B (zh) * 2014-02-27 2016-06-29 西安电子科技大学 基于样本重选择的目标跟踪方法
CN104598935A (zh) * 2014-12-29 2015-05-06 天津瑞为拓新科技发展有限公司 一种基于增量子空间学习算法的人脸识别方法
CN105225253A (zh) * 2015-09-22 2016-01-06 济南大学 一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法
CN105654069A (zh) * 2016-02-03 2016-06-08 江南大学 基于Lp范数正则化的增量子空间目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
a multiple template approach for robust tracking of fast motion target;jun sun等;《applied mathematics-A journal of chinese universities》;20160605;第31卷(第2期);第177-197页
基于MPA多子空间增量学习的目标跟踪算法;李康等;《中国科学:信息科学》;20160420;第46卷(第4期);第476-495页
贝叶斯分类器集成的增量学习方法;张全新等;《北京理工大学学报》;20080515;第28卷(第5期);第397-400页

Also Published As

Publication number Publication date
CN106355204A (zh) 2017-01-25

Similar Documents

Publication Publication Date Title
CN106355204B (zh) 基于贝叶斯学习和增量子空间学习的目标跟踪方法
CN108986140B (zh) 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN106682598B (zh) 一种基于级联回归的多姿态的人脸特征点检测方法
CN104115192B (zh) 三维近距离交互的改进或与其有关的改进
CN104616319B (zh) 基于支持向量机的多特征选择目标跟踪方法
CN107609460A (zh) 一种融合时空双重网络流和attention机制的人体行为识别方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN106600626B (zh) 三维人体运动捕获方法与系统
CN104298974B (zh) 一种基于深度视频序列的人体行为识别方法
CN107944443A (zh) 一种基于端到端深度学习进行对象一致性检测方法
JP2009514109A (ja) 人体モーションの追跡に関する判別モーションモデリング
CN102737251A (zh) 图像处理设备、图像处理方法、程序和记录介质
CN107679516B (zh) 基于多尺度高斯-马尔科夫随机场模型的下肢运动识别方法
CN106326938B (zh) 基于弱监督学习的sar图像目标鉴别方法
CN106296734B (zh) 基于极限学习机和boosting多核学习的目标跟踪方法
CN105608710B (zh) 一种非刚性人脸检测和追踪定位方法
CN107944428A (zh) 一种基于超像素集的室内场景语义标注方法
CN103985143A (zh) 基于字典学习的视频中判别性在线目标跟踪方法
CN106204651A (zh) 一种基于改进的判决与生成联合模型的目标跟踪方法
CN114241422A (zh) 一种基于ESRGAN和改进YOLOv5s的学生课堂行为检测方法
CN106682585A (zh) 一种基于kinect2的动态手势识别方法
CN108182694A (zh) 一种基于插值的运动估计与自适应视频重建方法
CN103456017B (zh) 基于种子集的半监督权重核模糊聚类的图像分割方法
Zhang et al. Class relatedness oriented-discriminative dictionary learning for multiclass image classification
CN109086667A (zh) 基于智能终端的相似活动识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210408

Address after: No.8, Huyue East Road, Longchi street, Liuhe District, Nanjing City, Jiangsu Province

Patentee after: Nanjing Beidou innovation and Application Technology Research Institute Co.,Ltd.

Address before: 430072 Hubei Province, Wuhan city Wuchang District of Wuhan University Luojiashan

Patentee before: WUHAN University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230703

Address after: No.8, Huyue East Road, Longchi street, Liuhe District, Nanjing City, Jiangsu Province

Patentee after: Nanjing Fuguang Information Technology Co.,Ltd.

Address before: No.8, Huyue East Road, Longchi street, Liuhe District, Nanjing City, Jiangsu Province

Patentee before: Nanjing Beidou innovation and Application Technology Research Institute Co.,Ltd.