CN102903122B - 基于特征光流与在线集成学习的视频目标跟踪方法 - Google Patents

基于特征光流与在线集成学习的视频目标跟踪方法 Download PDF

Info

Publication number
CN102903122B
CN102903122B CN201210337097.6A CN201210337097A CN102903122B CN 102903122 B CN102903122 B CN 102903122B CN 201210337097 A CN201210337097 A CN 201210337097A CN 102903122 B CN102903122 B CN 102903122B
Authority
CN
China
Prior art keywords
sample
positive
tracking
negative
testing result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210337097.6A
Other languages
English (en)
Other versions
CN102903122A (zh
Inventor
张艳宁
杨涛
屈冰欣
陈挺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201210337097.6A priority Critical patent/CN102903122B/zh
Publication of CN102903122A publication Critical patent/CN102903122A/zh
Application granted granted Critical
Publication of CN102903122B publication Critical patent/CN102903122B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于特征光流与在线集成学习的视频目标跟踪方法,用于解决现有的数字视频中的特定目标的跟踪方法跟踪结果差的技术问题。技术方案是跟踪部分输入视频序列,用OpenCV自带的函数对每一帧的特征点用迭代金字塔光流法进行跟踪,得到下一帧这些特征点的位置;检测部分选择正样本或者负样本进行adaboost算法的处理;对跟踪部分和检测部分得到的目标可能位置进行机器学习。由于将跟踪和检测的特征提取方式分离开来;在检测过程中添加了目标可能出现的位置限制的过滤,将距离目标较远的可能目标去除;再次得到跟踪和检测结果后,自适应地计算目标与在线模型的Fisher鉴别比来确定对应权重,而不是以一个固定的数值来对两个结果进行融合,因此跟踪效果较好。

Description

基于特征光流与在线集成学习的视频目标跟踪方法
技术领域
本发明涉及一种视频目标跟踪方法,特别是涉及一种基于特征光流与在线集成学习的视频目标跟踪方法。
背景技术
视频目标跟踪方法的研究和应用作为计算机视觉领域的一个重要分支,正日益广泛地应用到科学技术、国防建设、航空航天、医药卫生以及国民经济的各个领域,因而研究目标跟踪技术有着重大的实用价值。现有的特定目标跟踪方法主要有:基于检测的方法,如帧间差分方法、背景差分方法、运动场估计方法。基于识别的方法,如区域匹配方法、模型匹配方法、频率域匹配方法和特征匹配方法。
文献“Online learning of robust object detectors during unstable tracking,OLCV,2009”公开了一种数字视频中的特定目标的跟踪方法,该方法采用跟踪-建模-检测(TMD)方法。跟踪部分采用改进的加入了中值处理的Lucas-Kanade光流法实现的一个短期跟踪器来对特定目标进行跟踪,估计出目标下一帧出现的位置;而在线检测器是基于随机森林形式的分类器,随机森林中每棵树上的每个特征代表了这棵树在某个层面上的一种衡量,特征选用在某个区域衡量梯度方向并将其数字化的2bitBP特征,通过投票的方式决定输入的图像块是否是潜在目标;建模部分的在线模型用一系列15×15的强度归一化的小块来表现,从跟踪器轨迹和模型更新选择出来的适当的样本来添加进在线模型,同时将错检的可能目标移出模型。但是,特征产生过程中采用随机生成一些特征点,利用前向后向误差判定来确定稳定的点,由于特征是随机产生的,所以具有不确定性,而且跟踪部分和检测部分都采用的是同一组特征,若特征发生错误,则跟踪和检测部分的结果将同时不准确,对于错误特征有局限性且容错性差。而且对跟踪结果和检测结果的权重分配也是一个固定值,不能自适应地进行调整。
发明内容
为了克服现有的数字视频中的特定目标的跟踪方法跟踪结果差的不足,本发明提供一种基于特征光流与在线集成学习的视频目标跟踪方法。该方法将跟踪和检测的特征提取方式分离开来;在检测过程中添加了目标可能出现的位置限制的过滤,将距离目标较远的可能目标去除;再次得到跟踪和检测结果后,自适应地计算目标与在线模型的Fisher鉴别比来确定对应权重,而不是以一个固定的数值来对两个结果进行融合,可以得到较好的跟踪效果。
本发明解决其技术问题所采用的技术方案是:一种基于特征光流与在线集成学习的视频目标跟踪方法,其特点是包括以下步骤:
步骤一、对原始视频的每帧图像用OpenCV提取稳定的特征点,其中包括图像序列中一直稳定存在的特征点和每一帧会新增加的特征点,用OpenCV自带的迭代光流法来跟踪这些特征点在下一帧的位置。
进行目标未缩放跟踪的处理,首先判断OpenCV检测出来的特征点的数目是否达到RANSAC算法所要求的最少特征点数目。若特征点数目<最少特征点数目,则分别统计这几个特征点在x方向和y方向的位移,排序后选择中位值作为整个目标在x方向和y方向的位移;若特征点的数目≥最少特征点数目,则运用RANSAC算法先去除坏点,再计算出前一帧目标边界框到后一帧目标边界框的转换矩阵。得到目标未缩放时前一帧目标边界框对应的后一帧目标边界框的位置。
在得到目标未缩放的边界框的位置后进行缩放处理,首先以目标边界框的长和宽中较小的一个为基准,从-5到5个像素进行缩放,对应的另外一边也按照从-5到5个像素进行缩放;采用公式
Total = Σ i = 1 m Σ j = 1 n | img 2 ( itemp , jtemp ) - img 1 ( i , j ) | - - - ( 1 )
计算这几种缩放情况下累计灰度误差,选择累计灰度误差最小的一个缩放比例作为最终的缩放结果。式中,img1为前一帧图像,img2为后一帧图像,m、n分别为前一帧的边界框的宽和高,itemp、jtemp分别是img2中对应img1中i、j的坐标。
步骤二、训练集采用第一帧给出的特定目标以及特定目标多个仿射变换后的目标作为正样本,图像不涉及目标部分随机选取作为负样本。接着生成检测部分需要用到的2bitBP特征矩形框,用adaboost算法
error=min(ΣWeight(i,j)),if(X(i,j)≠Y(j),j∈F)
α=log((1-error)/error)/2                              (2)
Weight ( i , j ) = Weight ( i , j ) × e - α , if ( X ( i , j ) = Y ( j ) ) Weight ( i , j ) = Weight ( i , j ) × e α , if ( X ( i , j ) ≠ Y ( j ) )
从2bitBP特征矩形框中选择出弱分类器组成一个强分类器,每次选择错误率最小的分类器作为一个弱分类器,最终的强分类器作为在线检测器的分类器。式中,F是特征集合,i是第i个特征而j是第j个样本,X(i,j)是第i个特征判断第j个样本的标签,Y是第j个样本真正的标签,Weight(i,j)是第j个样本的权值,α是该特征的系数。
用一个窗口来扫描一幅图像,将每次产生的图像块输入到检测部分,用公式
P positive = &Sigma; i = 1 N flag &times; xishu positive ( i ) , flag = 1 , if ( StrongClassifer ( i ) > = 0.5 ) flag = - 1 , if ( StrongClassifer ( i ) < 0.5 )
                             ( 3 )
P negative = &Sigma; i = 1 N flag &times; xishu negative ( i ) , flag = 1 , if ( NegativeClassifer ( i ) > = 0.5 ) flag = - 1 , if ( NegativeClassifer ( i ) < 0.5 )
计算正样本或者负样本图像块,当满足公式
P positive &GreaterEqual; sum ( xishu positive ) / 2 P positive &GreaterEqual; P negative - - - ( 4 )
的图像块暂时标记为正样本。式中,Ppositive、xishupositive(i)分别代表是正样本的可能性和第i个特征对应的系数,而Pnegative、xishunegative(i)分别代表是负样本的可能性和第i个特征对应的系数。如果是正样本的可能性不小于是负样本的可能性而且正样本的可能性不小于所有特征系数之和的一半,则暂时判定该图像块是正样本。
对初始判定为正样本的图像块再进行过滤:
(ⅰ)初始化中用NCCdistance=1-NCC衡量各个样本与最近邻正样本或者最近邻负样本的相关相似性和固有相似性,满足标签为1但相关相似性<0.65的加入最近邻正样本中,标签为0但相关相似性>0.5的加入最近邻负样本中。
把概率分类器输出的结果输入最近邻分类器,过滤掉与最近邻正样本、负样本的相关相似性≤0.4的结果。
(ⅱ)用1-overlap来作为两个边界框的距离,其中overlap是两个边界框的覆盖百分比,由公式
overlap=Sboth/(S1+S2-Sboth)             (5)
计算,设定阈值为0.55,过滤掉覆盖百分比小于0.55的结果。将过滤掉的结果均加入到负样本中。式中,S1、S2分别为两个边界框的面积,Sboth是两个边界框重合的面积。
步骤三、以跟踪和检测结果是否存在来产生四种可能的情况:
(ⅰ)跟踪结果和检测结果都存在:首先计算检测结果的可能的边界框两两之间的覆盖百分比overlap,边界框两两之间的距离定义为distance=1-overlap,用层次聚类法对distance进行聚类,以0.3作为聚类结束的阈值。保留与跟踪结果的边界框的覆盖百分比大于0.5的检测结果,若聚为一类则对跟踪器进行重新初始化;否则计算出跟踪结果与检测结果的权值分配,取均值来调整跟踪器的轨迹。
权值分配过程由公式
J FDR = | &mu; 1 - &mu; 2 | 2 &sigma; 1 2 + &sigma; 2 2 weight = 1 J FDR - - - ( 6 )
计算;式中,跟踪结果和各个检测结果的权值为weight,μ1、σ1是在线模型的灰度均值和方差,μ2、σ2是跟踪或者检测结果的灰度均值和方差,JFDR是Fisher鉴别比。
(ⅱ)跟踪结果不存在、检测结果存在:对检测结果进行聚类,都聚为一类时对跟踪器重新初始化。
(ⅲ)跟踪结果存在、检测结果不存在:用跟踪结果调整跟踪轨迹。
(ⅳ)跟踪和检测结果都不存在:不处理。
将新得到的目标样本添加到正样本来更新正样本分类器的概率分布,并且重新统计各个特征对正样本判断的错误率来更新权值;将错检的样本添加到负样本,同对正样本的操作一样更新概率分布和各个特征对负样本判断的错误率得到的权值,最后同时更新最近邻分类器。
本发明的有益效果是:由于将跟踪和检测的特征提取方式分离开来;在检测过程中添加了目标可能出现的位置限制的过滤,将距离目标较远的可能目标去除;再次得到跟踪和检测结果后,自适应地计算目标与在线模型的Fisher鉴别比来确定对应权重,而不是以一个固定的数值来对两个结果进行融合,因此跟踪效果较好。
下面结合附图和实施例对本发明作详细说明。
附图说明
图1是本发明基于特征光流与在线集成学习的视频目标跟踪方法的流程图。
具体实施方式
本发明方法具体步骤如下:
1、跟踪部分。
预处理部分输入视频序列,用OpenCV自带的函数对每一帧的特征点用迭代金字塔光流法进行跟踪,得到下一帧这些特征点的位置。
对于无缩放的目标跟踪,进行如下处理:
(ⅰ)特征点的数目<4时,用这些特征点在x方向和y方向的位移的中位值作为整个目标在x方向和y方向的位移。
(ⅱ)特征点的数目≥4时,用RANSAC算法计算出前一帧边界框到后一帧边界框的转换矩阵。
由于运动目标在连续两帧中可能存在细微的缩放,仅仅只考虑未缩放的情况是不完整的。因此继续对得到的未缩放目标边界框进行缩放处理:
(ⅰ)首先以目标边界框的长和宽中较小的一个为基准,从-5到5个像素进行缩放,对应的另外一边也按照此比例进行缩放;
(ⅱ)再次用公式(1)计算这几种缩放情况下累计灰度误差,选择累计灰度误差最小的一个缩放比例作为最终的缩放结果。
Total = &Sigma; i = 1 m &Sigma; j = 1 n | img 2 ( itemp , jtemp ) - img 1 ( i , j ) | - - - ( 1 )
其中,img1为前一帧图像,img2为后一帧图像,m、n分别为前一帧的边界框的宽和高,itemp、jtemp分别是img2中对应img1中i、j的坐标。
选择累计灰度误差最小的缩放比例对未缩放边界框进行处理就可以得到跟踪部分的结果。
2、检测部分。
预处理部分选择以下样本进行adaboost算法的处理。训练集中正样本是第一帧中由用户选择出来的目标以及该目标的若干个仿射变换的结果组成;负样本是图像中不包括目标部分所选取的样本。为了加速,计算出每个样本的积分图。
首先产生在已知目标框中可能产生的2bitBP特征框的坐标,在这些特征中要选择N组特征。从T=1,2,3,...,N,对于每个T,挑选出目前令样本错误率最小的特征作为一个弱分类器,并更新样本权值,其计算方法见公式(2)。
error=min(∑Weight(i,j)),if(X(i,j)≠Y(j),j∈F)
α=log((1-error)/error)/2                               (2)
Weight ( i , j ) = Weight ( i , j ) &times; e - &alpha; , if ( X ( i , j ) = Y ( j ) ) Weight ( i , j ) = Weight ( i , j ) &times; e &alpha; , if ( X ( i , j ) &NotEqual; Y ( j ) )
其中,F是特征集合,i是第i个特征而j是第j个样本,X(i,j)是第i个特征判断第j个样本的标签(1或-1),Y是第j个样本真正的标签,Weight(i,j)是第j个样本的权值,α是该特征的系数。
检测部分由两个分类器组成,分别是正样本对应的分类器StrongClassifer和负样本对应的分类器NegativeClassifer。这两个分类器在预处理过程中已经得到。
用一个窗口来扫描一幅图像,将每次产生的图像块输入到检测部分,用公式(3)来计算图像块可能是正样本或者负样本的可能性,当满足公式(4)的图像块暂时标记为正样本。
P positive = &Sigma; i = 1 N flag &times; xishu positive ( i ) , flag = 1 , if ( StrongClassifer ( i ) > = 0.5 ) flag = - 1 , if ( StrongClassifer ( i ) < 0.5 )
                                   ( 3 )
P negative = &Sigma; i = 1 N flag &times; xishu negative ( i ) , flag = 1 , if ( NegativeClassifer ( i ) > = 0.5 ) flag = - 1 , if ( NegativeClassifer ( i ) < 0.5 )
Ppositive、xishupositive(i)分别代表是正样本的可能性和第i个特征对应的系数,而Pnegative、xishunegative(i)分别代表是负样本的可能性和第i个特征对应的系数。
P positive &GreaterEqual; sum ( xishu positive ) / 2 P positive &GreaterEqual; P negative - - - ( 4 )
如果是正样本的可能性不小于是负样本的可能性而且正样本的可能性不小于所有特征系数之和的一半,则暂时判定该图像块是正样本。
仅仅有概率分类器可能会出现很多错检,因此添加两个步骤对初始判定为正样本的图像块进行过滤:
(ⅰ)最近邻分类器。
初始化中用NCCdistance=1-NCC(归一化互相关)来衡量各个样本与最近邻正样本或者最近邻负样本的相关相似性和固有相似性,满足标签为1但相关相似性<0.65的加入最近邻正样本中,标签为0但相关相似性>0.5的加入最近邻负样本中。
把概率分类器输出的结果输入最近邻分类器,过滤掉与最近邻正样本、负样本的相关相似性≤0.4的结果。
(ⅱ)目标可能出现位置限制。
由于目标在连续两帧的移动范围不会很大,因此可以过滤掉距离前一帧目标位置很远的结果。用1-overlap来作为两个边界框的距离,其中overlap是两个边界框的覆盖百分比,由公式(5)计算,设定阈值为0.55,过滤掉覆盖百分比小于0.55的结果。
overlap=Sboth/(S1+S2-Sboth)            (5)
S1、S2分别为两个边界框的面积,Sboth是两个边界框重合的面积。
这两步过滤掉的结果均加入到负样本中。
3、机器学习。
对跟踪部分和检测部分得到的目标可能位置进行机器学习。以跟踪和检测结果是否存在来产生四种可能的情况:
(ⅰ)跟踪结果和检测结果都存在:首先计算检测结果的可能的边界框两两之间的覆盖百分比overlap,计算见公式(5),边界框两两之间的距离定义为distance=1-overlap,用层次聚类法对distance进行聚类,以0.3作为聚类结束的阈值。保留与跟踪结果的边界框的覆盖百分比大于0.5的检测结果,若聚为一类则对跟踪器进行重新初始化;否则计算出跟踪结果与检测结果的权值分配,取均值来调整跟踪器的轨迹。
权值分配过程由公式(6)计算跟踪结果和各个检测结果的权值weight,其中μ1、σ1是在线模型的灰度均值和方差,μ2、σ2是跟踪或者检测结果的灰度均值和方差,JFDR是Fisher鉴别比。
J FDR = | &mu; 1 - &mu; 2 | 2 &sigma; 1 2 + &sigma; 2 2 weight = 1 J FDR - - - ( 6 )
(ⅱ)跟踪结果不存在、检测结果存在:对检测结果进行聚类,都聚为一类就对跟踪器重新初始化。
(ⅲ)跟踪结果存在、检测结果不存在:将跟踪结果来调整跟踪轨迹。
(ⅳ)跟踪和检测结果都不存在:不处理。
将新得到的目标样本添加到正样本来更新正样本分类器的概率分布,并且重新统计各个特征对正样本判断的错误率来更新权值;将错检的样本添加到负样本,同对正样本的操作一样更新概率分布和各个特征对负样本判断的错误率得到的权值,最后同时要更新最近邻分类器。

Claims (1)

1.一种基于特征光流与在线集成学习的视频目标跟踪方法,其特征在于包括以下步骤:
步骤一、对原始视频的每帧图像用OpenCV提取稳定的特征点,OpenCV提取的稳定特征点包括图像序列中一直稳定存在的特征点和每一帧会新增加的特征点,用OpenCV自带的迭代光流法来跟踪OpenCV提取的稳定特征点在下一帧的位置;
进行目标未缩放跟踪的处理,首先判断OpenCV检测出来的特征点的数目是否达到RANSAC算法所要求的最少特征点数目;若特征点数目<最少特征点数目,则分别统计这几个特征点在x方向和y方向的位移,排序后选择中位值作为整个目标在x方向和y方向的位移;若特征点的数目≥最少特征点数目,则运用RANSAC算法先去除坏点,再计算出前一帧目标边界框到后一帧目标边界框的转换矩阵;得到目标未缩放时前一帧目标边界框对应的后一帧目标边界框的位置;
在得到目标未缩放的边界框的位置后进行缩放处理,首先以后一帧目标边界框的长和宽中较小的一个为基准,从-5到5个像素进行缩放,对应的另外一边也按照从-5到5个像素进行缩放;再采用公式
Total = &Sigma; i = 1 m &Sigma; j = 1 n | img 2 ( itemp , jtemp ) - img 1 ( i , j ) | - - - ( 1 )
计算这几种缩放情况下累计灰度误差,选择累计灰度误差最小的一个缩放比例作为最终的缩放结果;式中,img1为前一帧图像,img2为后一帧图像,m、n分别为前一帧的边界框的宽和高,itemp、jtemp分别是img2中对应img1中i、j的坐标;
步骤二、训练集采用第一帧给出的特定目标以及特定目标多个仿射变换后的目标作为正样本,图像不涉及目标部分随机选取作为负样本;接着生成检测部分需要用到的2bitBP特征矩形框,用adaboost算法
error=min(∑Weight(i,j)),if(X(i,j)≠Y(j),j∈F)
α=log((1-error)/error)/2                    (2)
Weight ( i , j ) = Weight ( i , j ) &times; e - &alpha; , if ( X ( i , j ) = Y ( j ) ) Weight ( i , j ) = Weight ( i , j ) &times; e &alpha; , if ( X ( i , j ) &NotEqual; Y ( j ) )
从2bitBP特征矩形框中选择出弱分类器组成一个强分类器,每次选择错误率最小的分类器作为一个弱分类器,最终的强分类器作为在线检测器的分类器,分类器分别是正样本对应的分类器StrongClassifer和负样本对应的分类器NegativeClassifer;式中,F是特征集合,i是第i个特征而j是第j个样本,X(i,j)是第i个特征判断第j个样本的标签,Y(j)是第j个样本真正的标签,Weight(i,j)是第j个样本的权值,α是该特征的系数;
用一个窗口来扫描一幅图像,将每次产生的图像块输入到检测部分,用公式
P positive = &Sigma; i = 1 N flag &times; xishu positive ( i ) , flag = 1 , if ( StrongClassifer ( i ) > = 0.5 ) flag = - 1 , if ( StrongClassifer ( i ) < 0.5 ) P negative = &Sigma; i = 1 N flag &times; xishu negative ( i ) , flag = 1 , if ( NegativeClassifer ( i ) > = 0.5 ) flag = - 1 , if ( NegativeClassifer ( i ) < 0.5 ) - - - ( 3 )
计算正样本或者负样本图像块,将满足公式
P positive &GreaterEqual; sum ( xishu positive ( i ) ) / 2 P positive &GreaterEqual; P negative - - - ( 4 )
的图像块暂时标记为正样本;式中,Ppositive、xishupositive(i)分别代表是正样本的可能性和正样本中第i个特征对应的系数,而Pnegative、xishunegative(i)分别代表是负样本的可能性和负样本中第i个特征对应的系数;如果是正样本的可能性Ppositive不小于是负样本的可能性Pnegative,而且正样本的可能性Ppositive不小于所有正样本中特征系数之和的一半,则暂时判定该图像块是正样本;
对暂时判定为正样本的图像块再进行过滤:
(ⅰ)初始化中用NCCdistance=1-NCC衡量各个样本与最近邻正样本或者最近邻负样本的相关相似性和固有相似性,满足标签为1但相关相似性<0.65的加入最近邻正样本中,标签为0但相关相似性>0.5的加入最近邻负样本中;NCC表示归一化互相关;
把概率分类器输出的结果输入最近邻分类器,过滤掉与最近邻正样本、负样本的相关相似性≤0.4的结果;
(ⅱ)用1-overlap来作为两个边界框的距离,其中overlap是两个边界框的覆盖百分比,由公式
overlap=Sboth/(S1+S2-Sboth)      (5)计算,设定阈值为0.55,过滤掉覆盖百分比小于0.55的结果;将过滤掉的结果均加入到负样本中;式中,S1、S2分别为两个边界框的面积,Sboth是两个边界框重合的面积;
步骤三、以跟踪和检测结果是否存在来产生四种可能的情况:
(ⅰ)跟踪结果和检测结果都存在:首先计算检测结果的可能的两个边界框的覆盖百分比overlap,两个边界框的距离定义为distance=1-overlap,用层次聚类法对distance进行聚类,以0.3作为聚类结束的阈值;保留与跟踪结果的边界框的覆盖百分比大于0.5的检测结果,若聚为一类则对跟踪器进行重新初始化;否则计算出跟踪结果与检测结果的权值分配,取均值来调整跟踪器的轨迹;
权值分配过程由公式
J FDR = | &mu; 1 - &mu; 2 | 2 &sigma; 1 2 + &sigma; 2 2 weight = 1 J FDR - - - ( 6 )
计算;式中,跟踪结果和各个检测结果的权值为weight,μ1是在线模型的灰度均值,是在线模型的方差,μ2是跟踪或者检测结果的灰度均值,是跟踪或者检测结果的方差,JFDR是Fisher鉴别比;
(ⅱ)跟踪结果不存在、检测结果存在:对检测结果进行聚类,都聚为一类时对跟踪器重新初始化;
(ⅲ)跟踪结果存在、检测结果不存在:用跟踪结果调整跟踪轨迹;
(ⅳ)跟踪和检测结果都不存在:不处理;
将新得到的目标样本添加到正样本来更新正样本分类器的概率分布,并且重新统计各个特征对正样本判断的错误率来更新权值;将错检的样本添加到负样本,同对正样本的操作一样更新概率分布和各个特征对负样本判断的错误率得到的权值,最后同时更新最近邻分类器。
CN201210337097.6A 2012-09-13 2012-09-13 基于特征光流与在线集成学习的视频目标跟踪方法 Active CN102903122B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210337097.6A CN102903122B (zh) 2012-09-13 2012-09-13 基于特征光流与在线集成学习的视频目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210337097.6A CN102903122B (zh) 2012-09-13 2012-09-13 基于特征光流与在线集成学习的视频目标跟踪方法

Publications (2)

Publication Number Publication Date
CN102903122A CN102903122A (zh) 2013-01-30
CN102903122B true CN102903122B (zh) 2014-11-26

Family

ID=47575335

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210337097.6A Active CN102903122B (zh) 2012-09-13 2012-09-13 基于特征光流与在线集成学习的视频目标跟踪方法

Country Status (1)

Country Link
CN (1) CN102903122B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217417B (zh) * 2013-05-31 2017-07-07 张伟伟 一种视频多目标跟踪的方法及装置
CN103324932B (zh) * 2013-06-07 2017-04-12 东软集团股份有限公司 基于视频的车辆检测跟踪方法和系统
TWI514327B (zh) * 2013-06-26 2015-12-21 Univ Nat Taiwan Science Tech 目標偵測與追蹤方法及系統
CN103400395A (zh) * 2013-07-24 2013-11-20 佳都新太科技股份有限公司 一种基于haar特征检测的光流跟踪方法
CN103413324A (zh) * 2013-07-29 2013-11-27 西北工业大学 航拍视频自动目标跟踪方法
CN103426172B (zh) * 2013-08-08 2016-12-28 深圳一电航空技术有限公司 基于视觉的目标跟踪方法及装置
CN103778642B (zh) * 2013-12-12 2017-02-15 中安消技术有限公司 一种目标跟踪的方法及装置
CN103793926B (zh) * 2014-02-27 2016-06-29 西安电子科技大学 基于样本重选择的目标跟踪方法
CN104517125B (zh) * 2014-12-26 2018-05-22 湖南天冠电子信息技术有限公司 高速物体的图像实时跟踪方法与系统
CN105243420B (zh) * 2015-10-16 2018-03-20 郑州天迈科技股份有限公司 公交客流精确统计方法
CN106205531B (zh) * 2016-08-09 2019-12-20 青岛海信电器股份有限公司 一种调整屏幕显示画面的方法和显示设备
CN106971195A (zh) * 2017-02-27 2017-07-21 天津大学 一种基于检测器和跟踪器的3d对象检测方法
CN107273923B (zh) * 2017-06-02 2020-09-29 浙江理工大学 一种纺织面料摩擦声波辨别器的构建方法
CN107392223A (zh) * 2017-06-09 2017-11-24 中国科学院合肥物质科学研究院 一种Adaboost与NCC相结合的完整麦穗识别方法及系统
CN108280444B (zh) * 2018-02-26 2021-11-16 江苏裕兰信息科技有限公司 一种基于车辆环视图的快速运动物体检测方法
CN108596958B (zh) * 2018-05-10 2021-06-04 安徽大学 一种基于困难正样本生成的目标跟踪方法
CN108805878A (zh) * 2018-05-22 2018-11-13 深圳腾视科技有限公司 一种基于计算机视觉的前景物体检测解决方法
CN109146920B (zh) * 2018-06-29 2021-12-28 西北工业大学 一种可嵌入式实现的目标跟踪方法
CN112784638B (zh) * 2019-11-07 2023-12-08 北京京东乾石科技有限公司 训练样本获取方法和装置、行人检测方法和装置
CN114092854A (zh) * 2021-11-03 2022-02-25 复旦大学 基于深度学习的脊柱退行性病变智能康复辅助训练系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102436590A (zh) * 2011-11-04 2012-05-02 康佳集团股份有限公司 一种基于在线学习的实时跟踪方法及跟踪系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011008793A1 (en) * 2009-07-13 2011-01-20 Emsense Corporation Systems and methods for generating bio-sensory metrics

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102436590A (zh) * 2011-11-04 2012-05-02 康佳集团股份有限公司 一种基于在线学习的实时跟踪方法及跟踪系统

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
Multi-model Cooperation based Self Organization Multiple Cameras System for Robust Moving Object Detection;Xiuwei Zhang 等;《Computer Engineering and Technology (ICCET), 2010 2nd International Conference on》;20100418;第2卷;V2-385~V2-390 *
Online learning of robust object detectors during unstable tracking;Zdenek Kalal 等;《Computer Vision Workshops (ICCV Workshops), 2009 IEEE 12th International Conference on》;20091004;1417~1424 *
Xiuwei Zhang 等.Multi-model Cooperation based Self Organization Multiple Cameras System for Robust Moving Object Detection.《Computer Engineering and Technology (ICCET), 2010 2nd International Conference on》.2010,第2卷V2-385~V2-390. *
Zdenek Kalal 等.Online learning of robust object detectors during unstable tracking.《Computer Vision Workshops (ICCV Workshops), 2009 IEEE 12th International Conference on》.2009,1417~1424. *
基于Adaboost算法的实时行人检测系统;朱谊强 等;《计算机测量与控制》;20070109;第14卷(第11期);1462~1465 *
基于场景模型与统计学习的鲁棒行人检测算法;杨涛 等;《自动化学报》;20100714;第36卷(第4期);499~508 *
朱谊强 等.基于Adaboost算法的实时行人检测系统.《计算机测量与控制》.2007,第14卷(第11期),1462~1465. *
杨涛 等.基于场景模型与统计学习的鲁棒行人检测算法.《自动化学报》.2010,第36卷(第4期),499~508. *

Also Published As

Publication number Publication date
CN102903122A (zh) 2013-01-30

Similar Documents

Publication Publication Date Title
CN102903122B (zh) 基于特征光流与在线集成学习的视频目标跟踪方法
CN106934346B (zh) 一种目标检测性能优化的方法
CN108154118B (zh) 一种基于自适应组合滤波与多级检测的目标探测系统及方法
CN109766830B (zh) 一种基于人工智能图像处理的舰船目标识别系统及方法
CN107943837B (zh) 一种前景目标关键帧化的视频摘要生成方法
CN107330372B (zh) 一种基于视频的人群密度与异常行为检测系统的分析方法
CN102542289B (zh) 一种基于多高斯计数模型的人流量统计方法
CN112287788A (zh) 基于改进YOLOv3和改进NMS的行人检测方法
CN109754009B (zh) 物品识别方法、装置、售货系统和存储介质
US8744122B2 (en) System and method for object detection from a moving platform
CN111161315B (zh) 一种基于图神经网络的多目标跟踪方法和系统
KR101697161B1 (ko) 열 영상에서 온라인 랜덤 펀 학습을 이용하여 보행자를 추적하는 장치 및 방법
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN105469105A (zh) 一种基于视频监控的香烟烟雾检测方法
CN108520203B (zh) 基于融合自适应多外围框与十字池化特征的多目标特征提取方法
CN108564598B (zh) 一种改进的在线Boosting目标跟踪方法
CN101751679A (zh) 运动目标的分类方法和检测方法及其装置
CN104408482A (zh) 一种高分辨率sar图像目标检测方法
CN102629385A (zh) 一种基于多摄像机信息融合的目标匹配与跟踪系统及方法
CN101866429A (zh) 多运动目标动作行为识别的训练方法和识别方法
CN103593672A (zh) Adaboost分类器在线学习方法及系统
CN110298248A (zh) 一种基于语义分割的多目标跟踪方法及系统
CN112926522B (zh) 一种基于骨骼姿态与时空图卷积网络的行为识别方法
CN109242883A (zh) 基于深度sr-kcf滤波的光学遥感视频目标跟踪方法
CN111275733A (zh) 基于深度学习目标检测技术实现多艘船舶快速跟踪处理的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant