CN103325125B - 基于改进多示例学习算法的运动目标跟踪方法 - Google Patents
基于改进多示例学习算法的运动目标跟踪方法 Download PDFInfo
- Publication number
- CN103325125B CN103325125B CN201310276316.9A CN201310276316A CN103325125B CN 103325125 B CN103325125 B CN 103325125B CN 201310276316 A CN201310276316 A CN 201310276316A CN 103325125 B CN103325125 B CN 103325125B
- Authority
- CN
- China
- Prior art keywords
- target
- sigma
- weak classifier
- feature
- bag
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉与模式识别领域,公开了一种基于改进的多示例学习算法的目标跟踪方法。首先根据压缩感知理论设计随机测量矩阵。然后利用多示例学习算法在当前跟踪结果小邻域内采样示例构成正包,同时在其大邻域圆环内采样示例构成负包。对每个示例,在图像平面提取表征目标的特征,并利用随机感知矩阵对其降维。根据提取的示例特征在线学习弱分类器,并在弱分类器池中选择判别能力较强的弱分类器构成强分类器。最后,当跟踪到新的目标位置时,利用当前跟踪结果与目标模板的相似性分数在线自适应调整分类器更新程度参数。本发明解决了现有算法中跟踪效果易受光照改变、姿态变化、复杂背景干扰、目标快运动等影响的问题。
Description
技术领域
本发明属于计算机视觉与模式识别领域,涉及一种复杂环境下的自适应目标跟踪方法,尤其涉及一种基于改进多示例学习算法的运动目标跟踪方法。
背景技术
目标跟踪是指在视频序列的每一帧图像中找到感兴趣目标所处的位置。目标跟踪在智能人机交互、视频监控、车载导航等领域有着重要的研究价值和广泛的发展前景。目前,众多国内外学者致力于目标跟踪的研究并取得了一定的成就。然而,目标跟踪技术的发展仍然受光照强度、天气变化、目标外观改变、目标快速运动、遮挡、复杂背景干扰等因素制约。
一个有效的目标模型对目标跟踪起着至关重要的作用。常用的目标模型主要分两类:静态模型和自适应外观模型。前者在跟踪的初始阶段利用第一帧图像信息建立目标模型,跟踪过程中根据建立好的目标模型在后续帧图像中搜索目标。当目标外观改变较大或者背景信息对目标模型造成干扰时,该方法易造成跟踪失败。
自适应外观模型方法将跟踪问题看成从背景中分离出目标的二值分类问题。在跟踪过程中目标模型能够不断改变以适应目标外观变化。为了获得更好的跟踪性能,在跟踪过程中判别分类器同时结合目标和背景信息以更新目标模型。目标模型更新中的关键问题是如何选取正、负样本。最常用的方法是将当前跟踪结果作为正样本,在当前跟踪结果的邻域内采集多个负样本,利用采集的正负样本训练判别分类器。然而,当跟踪结果不准确时,背景信息以误差的形式被引入到目标的模型更新中,从而造成跟踪漂移。为解决这一问题,在当前跟踪结果的小邻域范围内采集多个正样本代替单个正样本用于更新目标模型。然而,该方法中多个样本无序组合,使得判别分类器在目标模型更新过程中变得混乱,从而影响跟踪性能。半监督学习算法被用来解决上述问题。该方法在视频的初始帧标记样本,在跟踪过程中样本处于未标识状态。然而,该方法忽略了跟踪过程中的一些有用信息,尤其是目标的运动信息。同时,该方法无法解决目标检测本身存在的歧义性问题。
近年来,多示例学习算法被用于目标跟踪中。在多示例学习中,样本被表示为由多个示例组成的包。每个包被标记为正或负,而示例没有标记。若一个包中至少有一个示例为正,则该包为正包;若包中所有示例均为负,则该包为负包。多示例学习的目的是通过对多个包组成的训练集进行学习得到判别分类器,然后用该分类器尽可能准确地预测测试包及示例的标记。在多示例学习算法中,学习过程通过寻找包中最正确的示例确定跟踪目标,克服了目标检测过程中存在的歧义性问题。
发明内容
为了实现复杂环境下的运动目标跟踪,本发明提出了一种基于改进多示例学习算法的运动目标跟踪方法。
本发明采用如下的技术方案:
本发明首先根据压缩感知理论设计随机测量矩阵。然后利用多示例学习算法在当前跟踪结果小邻域内采样示例构成正包,同时在其大邻域圆环内采样示例构成负包。对每个示例,在图像平面提取表征目标的特征,并利用随机感知矩阵对其降维,降维后的特征既能有效地描述目标,同时节省了运算时间。根据提取的示例特征,利用Online Boosting算法在线学习弱分类器,并在弱分类器池中选择判别能力较强的弱分类器构成强分类器,提高了目标跟踪的鲁棒性。训练好的强分类器用于分类下一帧图像的目标待测图像片。最后,当跟踪到新的目标位置时,利用当前跟踪结果与目标模板的相似性分数在线自适应调整分类器更新程度参数,从而完成对分类器的自适应更新,提高了由于光照、复杂背景、遮挡等造成外观改变时目标跟踪的准确性。
本发明的特征在于采取以下步骤:
步骤一,进行初始化。
①在视频的初始帧通过手动框选方法确定目标位置
②设计一个满足RIP(restricted isometry property,有限等距性质)条件的稀疏随机测量矩阵矩阵R中各元素rij为:
式中,s以平均概率在{2,3,4}中随机选取。
这里应用了压缩感知理论,一个满足RIP条件的稀疏随机测量矩阵不会把两个不同的稀疏信号映射到同一个采样几何中。
通过该矩阵对原图像特征空间做投影可以得到一个低维压缩子空间。
步骤二,提取正、负包。
在多示例学习中,训练集由有标记的包组成,一个包中包含多个示例。一个包中若至少有一个示例为正,则该包为正包;若一个包中所有示例均为负,则该包为负包。多示例学习的目的是通过对多个包组成的训练集进行学习得到分类器,然后用该分类器尽可能准确的预测测试包及示例的标记。
正负包的提取步骤如下:
①提取正包:在以当前帧目标位置为圆心、r为半径的圆内采样约N个示例x组成正包Xr,即l(x)为采样示例所在位置;
②提取负包:在以当前帧目标位置为圆心、r为内圆半径、β为外圆半径的圆环内采样约L个示例组成负包Xr,β,即:
③提取图像特征:在图像平面提取正包和负包中各示例的Haar-like特征Z=(z1,z2,...,zQ)。
④特征降维:利用随机测量矩阵将提取的特征从高维图像空间降到低维空间,得到表征目标的压缩特征:
V=RZ (2)
式中,V=(v1,v2,...,vM),M<<Q是低维子空间的特征向量。则实际提取的特征为:
式中,vi,i∈(1,M)为降维后的压缩特征;rectsij为在示例中随机选取的图像块;Nr为图像块的数目,在{2,3,4}中随机选取;rij为随机测量矩阵的元素值,在{-1,1}中等概率随机选取。
步骤三,训练分类器。
在线多示例学习的思想是将多示例的学习算法与在线学习(Online Boosting)框架相结合。Online Boosting方法根据特征训练弱分类器,然后选择分类能力强的弱分类器组合成一个强分类器。在Online Boosting方法中,各弱分类器在线调节自身参数,使得分类正确率高的弱分类器具有较高的权重,而分类正确率低的弱分类器具有较低的权重,进而适应时变的环境。
由步骤二提取的各示例中,每个示例都由M个压缩特征描述。对于每个压缩特征训练一个弱分类器,一共训练M个弱分类器。然后,由Boosting算法选取判别能力最强的K(K<<M)个弱分类器构成强分类器。换句话说,Boosting算法在M个压缩特征组成的特征池中选取了K个判别能力最强的特征用于目标跟踪。
分类器的具体训练步骤如下:
①训练弱分类器。
假设正、负示例的先验概率相等,即:p(y=1)=p(y=0),p(y=1)是正示例的先验概率,p(y=0)是负示例的先验概率。则由所有示例的第k个压缩特征训练得到第k个弱分类器hk(x):
式中,hk(x)为第k个弱分类器,x表示所有示例,vk为由步骤二提取的第k个特征,y∈{0,1}表示示例标签,p(y=1|vk(x))表示正包中所有示例的第k个压缩特征的概率,p(y=0|vk(x))为负包中所有示例的第k个压缩特征的概率。
正、负示例特征服从高斯分布,即:
式中,xij为第i个包中第j个示例,vk(xij)为示例xij的第k个压缩特征。是第k个弱分类器的参数,是正包中所有示例的第k个特征的均值, 是正包中所有示例的第k个特征的方差。 是负包中所有示例的第k个特征的均值,是负包中所有示例的第k个特征的方差,L=65为负包中示例个数。
共训练得到M个弱分类器,组成弱分类器池
②初始化强分类器H0=0,令k=1;
③当k≤K时,计算
式中,为第i个包中第j个示例的概率,yi∈{0,1}为包的标识。为在弱分类器池中选取k-1个弱分类器所构成的强分类器。
否则转到步骤⑩;
④初始化Lm=0,其中m=1,...,M;
⑤令m=1;
⑥当m≤M时,令i=0,否则转到步骤⑨;
⑦当i≤1时,令j=0,否则令m=m+1,并转到步骤⑥;
⑧当j≤N+L-1时,循环计算j=j+1,及弱分类器与极大似然概率的内积:
否则,令i=i+1,并转到步骤⑦;
⑨根据最大化弱分类器与极大似然概率的内积的原则,在弱分类器池中选择具有最低错误率的K个弱分类器:Hk=Hk+hk(x)。
令k=k+1,并转到步骤③;
⑩输出强分类器:H(x)=Σkhk(x)。
步骤四,目标跟踪。
本发明根据相似性分数最大原则,利用步骤三学习得到的强分类器在目标候选集中将目标从背景中分离出来。具体步骤如下:
①提取样本候选集:新一帧图像中,在以前一帧目标位置为中心,S为半径的圆内采样候选样本x组成候选样本集XS,即:
②提取候选样本特征:按照步骤二的第③、④步骤提取各样本的压缩特征。
③跟踪目标:利用步骤三中得到的强分类器对采集的候选样本分类,计算出与目标相似性分数最大的样本作为当前目标的位置
式中,H(x)为相似性分数,最大值为Hmax。
步骤五,更新分类器。
根据当前跟踪结果与目标模型的相似性分数Hmax更新分类器。具体方法如下:
①提取正包:当跟踪到新目标时,按步骤二在跟踪目标小邻域(半径为r)范围内采样N个示例作为正包;
②提取特征:按照步骤二的步骤③、④对每个示例提取表征目标的压缩特征V=(v1,...,vM);
③更新分类器:按照如下规则在线更新弱分类器参数
式中,λ为更新程度,其值越小表示更新速度越快,目标模板特征在分类器更新中所占比例越少。是正包中所有示例的第k个特征的均值。是正包中所有示例的第k个特征的方差;
④提取负包:按步骤二在以当前跟踪位置为圆心、r为内圆半径、β为外圆半径的圆环中提取L个示例组成负包;
⑤提取特征:按照步骤二的步骤③、④对对每个示例提取表征目标的压缩特征V=(v1,...,vM);
⑥更新分类器:按照如下规则在线更新弱分类器参数
式中,为负包中所有示例的第k个特征的均值。为负包中所有示例的第k个特征的方差。
为克服由于光照强度、天气变化、目标快速运动、遮挡、复杂背景干扰等因素造成的目标跟丢及跟踪漂移问题,同时为了避免由于λ过小而引起的分类器过更新,本发明在线自适应调整分类器更新程度参数λ。
设定高、低两个阈值。当前跟踪结果与目标模型相似性分数大于高阈值时,分类器的更新主要依赖于当前跟踪结果,以克服光照、位姿等造成的外观变化对跟踪结果的影响。当前跟踪结果与目标模型相似性分数小于低阈值时,分类器的更新主要依赖于目标模型,以避免目标漂移及误跟踪。当前跟踪结果与目标模型的相似性分数在两个阈值之间时,分类器同时依赖于当前跟踪结果和目标模型。更新规则如下所示:
式中,THs为设定的低阈值,THl为高阈值。
与现有技术相比,本发明的有益效果是:
(1)根据压缩感知原理,设计随机测量矩阵并提取目标的压缩特征,有效表征目标的同时节省了后期图像处理的时间。
(2)分类器构造过程中,包概率根据各示例概率值确定,概率大的示例对包概率的贡献大,概率小的示例对包概率的贡献小,克服了跟踪漂移。
(3)通过最大化弱分类器与极大似然概率的内积的选择原则,从M个弱分类器中选择具有最低错误率的L个弱分类器,以构造强分类器,避免了在选取弱分类器过程中对示例概率和包概率计算M次,提高了算法的实时处理能力。
(4)根据当前跟踪结果与目标模型的相似性分数对分类器的更新程度参数进行在线调整,实现了弱分类器的在线更新,克服了光照变化、姿态变化、环境变化等造成的目标外观改变对跟踪结果的影响。
附图说明
图1为本发明所涉及的基于改进多示例学习算法的目标跟踪框图;
图2为本发明所涉及的提取压缩特征示意图;
图3为在视频序列“David indoor”上应用本发明的实验结果;
图4为在视频序列“occluded face2”上应用本发明的实验结果;
图5为在视频序列“Tiger1”上应用本发明的实验结果。
具体实施方式
下面结合附图对本发明作进一步的详细说明。
如附图1所示,本发明具体包括以下几个步骤:
步骤一,进行初始化。
①在视频的初始帧手动确定目标初始位置
②根据公式(1)设计满足有限等距性质的随机测量矩阵R。
步骤二,提取正、负包。
在以当前帧目标位置为圆心、r=4为半径的圆内采样约N=45个示例构成正包Xr;在以当前帧目标位置为圆心、r=4为内圆半径、β=50为外圆半径的圆环内采样约L=65个示例构成负包。提取正、负包中各示例的Haar-like特征,按照公式(2)对提取的特征降维,得到对每个示例降维后的压缩特征V=(v1,v2,...vM),M=120,如附图2所示。
步骤三,训练分类器。
步骤二用M=120个压缩特征描述各示例。针对每个压缩特征训练一个弱分类器hk(x),一共训练M=120个弱分类器,从而得到弱分类器池然后,根据最大化弱分类器与极大似然概率的内积的原则选取判别能力最强的K=30个弱分类器,并构成强分类器H(x)用于目标跟踪。
步骤四,进行目标跟踪。
新一帧图像中,在以前一帧目标位置为中心、S=35为半径的圆内采样约1000个样本组成候选目标集XS。提取各样本的Haar-like特征,并利用步骤一中得到的随机测量矩阵R对提取的特征降维。然后利用步骤三中得到的强分类器对提取的1000个样本进行分类,找出与目标具有最大相似性分数Hmax的样本位置作为当前跟踪目标的位置。
步骤五,更新分类器。
根据当前跟踪结果与目标模型的相似性分数Hmax更新分类器。
当跟踪到新目标时,按步骤二在跟踪目标小邻域(半径为r=4)范围内采样N=45个示例作为正包。对每个示例提取表征目标的压缩特征V=(v1,...,vM),M=120。利用所有示例按照公式(9)在线更新弱分类器参数在更新过程中,更新程度参数λ按照公式(11)自动调整。
按步骤二在以当前跟踪位置为圆心、r=4为内圆半径、β=50为外圆半径的圆环中提取L=65个示例组成负包。对每个示例提取表征目标的压缩特征V=(v1,...,vM),M=120。然后利用所有示例按照公式(10)在线更新弱分类器参数更新程度参数λ按照公式(11)自动调整。
分类器更新完毕,当获取新一帧图像后按照步骤四继续跟踪目标。
下面给出本发明在3个经典视频“David indoor”、“occluded face2”和“Tiger1”上的应用实例。
图3为在视频序列“David indoor”上的实验结果。由图3可知,该视频序列在起始阶段光照改变明显,视频中段存在严重的人体位姿变化。本发明所采用方法在线调整分类器参数。实验结果表明该方法对光照改变、位姿变化有较强的鲁棒性。
图4为在视频序列“occluded face2”上的实验结果。由图4可知,在该视频序列中存在较严重的遮挡,采用本发明的方法进行目标跟踪,当遮挡严重时分类器参数的更新主要依赖于目标模板,避免将遮挡物的模型引入到目标模板中。实验结果表明该方法能克服遮挡对跟踪结果的影响。
图5为在视频序列“Tiger1”上的实验结果。由图5可知,在该视频序列中存在目标快速移动、较严重的遮挡、光照改变等影响。实验结果表明该方法能有效跟踪目标。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种基于改进多示例学习算法的目标跟踪方法,其特征在于包括以下几个步骤:
步骤一,进行初始化;
①在视频的初始帧通过手动框选方法确定目标位置
②基于压缩感知理论设计一个满足RIP条件的稀疏随机测量矩阵矩阵R中各元素rij为:
式中,s以平均概率在{2,3,4}中随机选取;
步骤二,提取正、负包,方法如下:
①提取正包:在以当前帧目标位置为圆心、r为半径的圆内采样N个示例x组成正包Xr,即l(x)为采样示例所在位置;
②提取负包:在以当前帧目标位置为圆心、r为内圆半径、β为外圆半径的圆环内采样L个示例组成负包Xr,β,即:
③提取图像特征:在图像平面提取正包和负包中各示例的Haar-like特征Z=(z1,z2,...,zQ);
④特征降维:利用随机测量矩阵将提取的特征从高维图像空间降到低维空间,得到表征目标的压缩特征:
V=RZ
式中,V=(v1,v2,...,vM),M<<Q是低维子空间的特征向量;则实际提取的特征为:
式中,vi,i∈(1,M)为降维后的压缩特征;rectsij为在示例中随机选取的图像块;Nr为图像块的数目,在{2,3,4}中随机选取;rij'为随机测量矩阵的元素值,在{-1,1}中等概率随机选取;
步骤三,训练分类器,方法如下:
①训练弱分类器;
假设正、负示例的先验概率相等,即:p(y=1)=p(y=0),p(y=1)是正示例的先验概率,p(y=0)是负示例的先验概率;则由所有示例的第k个压缩特征训练得到第k个弱分类器hk(x):
式中,hk(x)为第k个弱分类器,x表示所有示例,vk为由步骤二提取的第k个特征,y∈{0,1}表示示例标签,p(y=1|vk(x))表示正包中所有示例的第k个压缩特征的概率,p(y=0|vk(x))为负包中所有示例的第k个压缩特征的概率;
正、负示例特征服从高斯分布,即:
式中,xij为第i个包中第j个示例,vk(xij)为示例xij的第k个压缩特征;是第k个弱分类器的参数,是正包中所有示例的第k个特征的均值,是正包中所有示例的第k个特征的方差;是负包中所有示例的第k个特征的均值,是负包中所有示例的第k个特征的方差,L=65为负包中示例个数;
共训练得到M个弱分类器,组成弱分类器池φ={h1,...,hk,...,hM};
②初始化强分类器H0=0,令k=1;
③当k≤K时,计算:
式中,为第i个包中第j个示例的概率,yi∈{0,1}为包的标识;为在弱分类器池φ={h1,...,hk,...,hM}中选取k-1个弱分类器所构成的强分类器;
否则转到步骤⑩;
④初始化Lm=0,其中m=1,...,M;
⑤令m=1;
⑥当m≤M时,令i=0,否则转到步骤⑨;
⑦当i≤1时,令j=0,否则令m=m+1,并转到步骤⑥;
⑧当j≤N+L-1时,循环计算j=j+1,以及弱分类器与极大似然概率的内积:即:
否则,令i=i+1,并转到步骤⑦;
⑨根据最大化弱分类器与极大似然概率的内积的原则,在弱分类器池中选择具有最低错误率的k个弱分类器即:Hk=Hk+hk(x);
令k=k+1,并转到步骤③;
⑩输出强分类器:H(x)=∑khk(x);
步骤四,目标跟踪;
根据相似性分数最大原则,利用步骤三学习得到的强分类器在目标候选集中将目标从背景中分离出来;具体步骤如下:
①提取样本候选集:新一帧图像中,在以前一帧目标位置为中心,S为半径的圆内采样候选样本x组成候选样本集XS,即:
②提取候选样本特征:按照步骤二的第③、④步骤提取各样本的压缩特征;
③跟踪目标:利用步骤三中得到的强分类器对采集的候选样本分类,计算出与目标相似性分数最大的样本作为当前目标的位置
式中,H(x)为输出的强分类器的相似性分数,相似性分数的最大值为Hmax;
步骤五,更新分类器;
根据当前跟踪结果与目标模型的相似性分数Hmax更新分类器;具体方法如下:
①提取正包:当跟踪到新目标时,按步骤二在跟踪目标小邻域范围内采样N个示例作为正包;
②提取特征:按照步骤二的步骤③、④对每个示例提取表征目标的压缩特征V=(v1,...,vM);
③更新分类器:按照如下规则在线更新弱分类器参数
式中,λ为更新程度,其值越小表示更新速度越快,目标模板特征在分类器更新中所占比例越少;是正包中所有示例的第k个特征的均值;是正包中所有示例的第k个特征的方差;
④提取负包:按步骤二在以当前跟踪位置为圆心、r为内圆半径、β为外圆半径的圆环中提取L个示例组成负包;
⑤提取特征:按照步骤二的步骤③、④对对每个示例提取表征目标的压缩特征V=(v1,...,vM);
⑥更新分类器:按照如下规则在线更新弱分类器参数
式中,为负包中所有示例的第k个特征的均值;为负包中所有示例的第k个特征的方差;
设定高、低两个阈值;当前跟踪结果与目标模型相似性分数大于高阈值时,分类器的更新主要依赖于当前跟踪结果,以克服光照、位姿等造成的外观变化对跟踪结果的影响;当前跟踪结果与目标模型相似性分数小于低阈值时,分类器的更新主要依赖于目标模型,以避免目标漂移及误跟踪;当前跟踪结果与目标模型的相似性分数在两个阈值之间时,分类器同时依赖于当前跟踪结果和目标模型;更新规则如下所示:
式中,THs为设定的低阈值,THl为高阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310276316.9A CN103325125B (zh) | 2013-07-03 | 2013-07-03 | 基于改进多示例学习算法的运动目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310276316.9A CN103325125B (zh) | 2013-07-03 | 2013-07-03 | 基于改进多示例学习算法的运动目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103325125A CN103325125A (zh) | 2013-09-25 |
CN103325125B true CN103325125B (zh) | 2016-08-10 |
Family
ID=49193848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310276316.9A Expired - Fee Related CN103325125B (zh) | 2013-07-03 | 2013-07-03 | 基于改进多示例学习算法的运动目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103325125B (zh) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559237B (zh) * | 2013-10-25 | 2017-02-15 | 南京大学 | 基于目标跟踪的半自动图像标注样本生成方法 |
CN103870839A (zh) * | 2014-03-06 | 2014-06-18 | 江南大学 | 视频目标在线多特征跟踪方法 |
CN103839273B (zh) * | 2014-03-25 | 2017-02-22 | 武汉大学 | 基于压缩感知特征选择的实时检测跟踪框架与跟踪方法 |
CN104200493B (zh) * | 2014-09-05 | 2017-02-01 | 武汉大学 | 一种基于类相似性测量的实时目标跟踪算法 |
CN104392467A (zh) * | 2014-11-18 | 2015-03-04 | 西北工业大学 | 一种基于压缩感知的视频目标跟踪方法 |
CN104408748B (zh) * | 2014-12-05 | 2017-03-29 | 北京航空航天大学 | 一种基于视频帧间低秩关联信息一致性的实时物体追踪方法 |
CN104517300A (zh) * | 2014-12-23 | 2015-04-15 | 南京信息工程大学 | 基于颜色统计特征的视觉判别跟踪方法 |
CN104680554B (zh) * | 2015-01-08 | 2017-10-31 | 深圳大学 | 基于surf的压缩跟踪方法和系统 |
CN105631896B (zh) * | 2015-12-18 | 2018-03-02 | 武汉大学 | 一种基于混合分类器决策的压缩感知跟踪方法 |
CN105809713A (zh) * | 2016-03-03 | 2016-07-27 | 南京信息工程大学 | 基于在线Fisher判别机制增强特征选择的目标跟踪方法 |
CN105976401B (zh) * | 2016-05-20 | 2019-03-12 | 河北工业职业技术学院 | 基于分块多示例学习算法的目标跟踪方法和系统 |
CN106127766B (zh) * | 2016-06-24 | 2018-12-25 | 国家新闻出版广电总局广播科学研究院 | 基于空间耦合关系和历史模型的目标跟踪方法 |
CN106447691A (zh) * | 2016-07-19 | 2017-02-22 | 西安电子科技大学 | 基于加权多示例学习的加权极限学习机视频目标跟踪方法 |
CN106250924B (zh) * | 2016-07-27 | 2019-07-16 | 南京大学 | 一种基于多示例学习的新增类别检测方法 |
CN106327565B (zh) * | 2016-08-31 | 2019-04-02 | 上海交通大学 | 一种改进的高维空间自适应采样方法 |
CN106651915B (zh) * | 2016-12-23 | 2019-08-09 | 大连理工大学 | 基于卷积神经网络的多尺度表达的目标跟踪方法 |
CN106981072B (zh) * | 2017-03-15 | 2019-07-16 | 哈尔滨工业大学 | 目标跟踪中基于多示例学习思想的训练样本选择方法 |
CN106991400A (zh) * | 2017-04-05 | 2017-07-28 | 北京中燕信息技术有限公司 | 一种火灾烟雾检测方法及装置 |
CN107330918B (zh) * | 2017-06-26 | 2020-08-18 | 华中科技大学 | 一种基于在线多示例学习的足球视频球员跟踪方法 |
CN107590821B (zh) * | 2017-09-25 | 2022-03-04 | 武汉大学 | 一种基于轨迹优化的目标跟踪方法及系统 |
CN108596469B (zh) * | 2018-04-19 | 2021-11-30 | 中南大学 | 一种面向大规模车辆路径问题的快速自适应大规模邻域搜索方法 |
CN110542835B (zh) * | 2018-05-29 | 2021-11-02 | 上海海拉电子有限公司 | 一种用于车辆电弧故障的检测方法、检测系统及试验系统 |
CN109767457B (zh) * | 2019-01-10 | 2021-01-26 | 厦门理工学院 | 在线多示例学习目标跟踪方法、终端设备及存储介质 |
CN110827292B (zh) * | 2019-10-23 | 2021-08-10 | 中科智云科技有限公司 | 一种基于卷积神经网络的视频实例分割方法及设备 |
CN111241965A (zh) * | 2020-01-06 | 2020-06-05 | 重庆邮电大学 | 一种基于多示例学习进行遮挡检测的目标跟踪方法 |
CN111259917B (zh) * | 2020-02-20 | 2022-06-07 | 西北工业大学 | 一种基于局部近邻成分分析的图像特征提取方法 |
CN111368917B (zh) * | 2020-03-04 | 2023-06-09 | 西安邮电大学 | 一种用于刑侦图像分类的多示例集成学习方法 |
CN112598622B (zh) * | 2020-12-03 | 2022-08-09 | 天津理工大学 | 一种融合深度多示例学习和包间相似性的乳腺癌检测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831129A (zh) * | 2011-06-16 | 2012-12-19 | 富士通株式会社 | 一种基于多示例学习的检索方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7986827B2 (en) * | 2006-02-07 | 2011-07-26 | Siemens Medical Solutions Usa, Inc. | System and method for multiple instance learning for computer aided detection |
-
2013
- 2013-07-03 CN CN201310276316.9A patent/CN103325125B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831129A (zh) * | 2011-06-16 | 2012-12-19 | 富士通株式会社 | 一种基于多示例学习的检索方法及系统 |
Non-Patent Citations (5)
Title |
---|
Real-Time Compressive Tracking;Kaihua Zhang等;《Computer Visition-ECCV2012》;20121231;第864-877页 * |
Real-time visual tracking via online weighted multiple instance learning;Kaihua Zhang等;《Pattern Recognition》;20130131;第46卷(第1期);第397-411页 * |
Visual Tracking with Online Multiple Instance Learning;Boris Babenko等;《IEEE Conference on Computer Vision and Pattern Recognition,CVPR2009》;20091231;第983-990页 * |
基于在线多示例学习的目标跟踪;徐曼;《上海电力学院学报》;20110228;第27卷(第1期);第42-44页 * |
基于多示例学习的运动目标跟踪算法研究;周秋红;《中国优秀硕士学位论文全文数据库信息科技辑》;20110531(第05期);第7-57页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103325125A (zh) | 2013-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103325125B (zh) | 基于改进多示例学习算法的运动目标跟踪方法 | |
CN105512640B (zh) | 一种基于视频序列的人流量统计方法 | |
CN103226835B (zh) | 基于在线初始化梯度增强回归树的目标跟踪方法及系统 | |
CN104112282B (zh) | 一种基于在线学习跟踪监控视频中多个运动目标的方法 | |
CN106682696B (zh) | 基于在线示例分类器精化的多示例检测网络及其训练方法 | |
CN103310466B (zh) | 一种单目标跟踪方法及其实现装置 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN103544483B (zh) | 一种基于局部稀疏表示的联合目标追踪方法及其系统 | |
CN105046195A (zh) | 基于非对称广义高斯模型的人体行为识别方法 | |
CN107247956A (zh) | 一种基于网格判断的快速目标检测方法 | |
CN103246891A (zh) | 一种基于Kinect的中国手语识别方法 | |
CN102521616B (zh) | 基于稀疏表示的行人检测方法 | |
CN104517097A (zh) | 一种基于kinect的运动人体姿态识别方法 | |
CN103400391A (zh) | 一种基于改进的随机森林的多目标跟踪方法及装置 | |
CN105825233B (zh) | 一种基于在线学习随机蕨分类器的行人检测方法 | |
CN102364497A (zh) | 一种应用于电子导盲系统的图像语义提取方法 | |
CN106296743A (zh) | 一种自适应运动目标跟踪方法及无人机跟踪系统 | |
CN103020992A (zh) | 一种基于运动颜色关联的视频图像显著性检测方法 | |
CN106228109A (zh) | 一种基于骨骼运动轨迹的动作识别方法 | |
CN106778501A (zh) | 基于压缩跟踪与ihdr增量学习的视频人脸在线识别方法 | |
CN109886269A (zh) | 一种基于注意力机制的交通广告牌识别方法 | |
CN106327528A (zh) | 无人机运动目标跟踪方法及无人机的工作方法 | |
CN105809206A (zh) | 一种行人跟踪方法 | |
CN103871081A (zh) | 一种自适应鲁棒在线目标跟踪方法 | |
CN105930808A (zh) | 一种基于vector boosting模板更新的运动目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160810 Termination date: 20210703 |
|
CF01 | Termination of patent right due to non-payment of annual fee |