CN101404086B - 基于视频的目标跟踪方法及装置 - Google Patents
基于视频的目标跟踪方法及装置 Download PDFInfo
- Publication number
- CN101404086B CN101404086B CN200810130984XA CN200810130984A CN101404086B CN 101404086 B CN101404086 B CN 101404086B CN 200810130984X A CN200810130984X A CN 200810130984XA CN 200810130984 A CN200810130984 A CN 200810130984A CN 101404086 B CN101404086 B CN 101404086B
- Authority
- CN
- China
- Prior art keywords
- target
- particle
- template
- edge
- clue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
本发明公开了一种基于多线索融合和粒子滤波的视频目标跟踪方法及其装置,该方法根据颜色、边缘、特征点三个线索进行自适应融合得到目标的观测信息,然后用粒子滤波技术对目标状态进行更新,具体步骤包括:A、提取目标模板并初始化目标参数;B、根据运动模型,对粒子集合进行动态预测;C、根据多线索融合信息更新粒子权重;D、更新目标的运动状态。本发明能提高对复杂环境下运动目标的跟踪效果及跟踪的稳定性,其跟踪目标可以包括人的头部、行人和汽车等。
Description
技术领域
本发明属于信号处理中计算机视觉与模式分析技术领域,具体涉及一种基于多线索融合的视频中目标跟踪的方法及装置。
背景技术
目标跟踪最早应用于军事方面,近来随着视频技术的发展,视频中的目标跟踪成为热门的研究课题。它是计算机视觉研究领域的核心课题之一,是行为识别、视频检索等更高级视频应用的基础,也是智能视频监控的重要组成部分。
目标跟踪中一个关键步骤是数据关联,如何使用最有效的线索来表达和描述目标是关键。目前主要的线索有加权颜色直方图,颜色的小波特征,特征点特征和二值形状模板等。但传统的跟踪方法多数是基于单线索的方法,当环境和场景变化时,目标的单一特征或线索容易丢失,使跟踪失败或变得非常困难,也就是只利用目标某一方面的特征不能进一步的提高跟踪算法的可靠性和准确性。
为了解决这一问题,最根本的方法是同时利用目标的多种线索进行跟踪,由于目标多种线索同时丢失的可能性不大,只要跟踪算法能够适应环境的变化,选择合适而可靠的线索作为跟踪依据,那么就能得到较为可靠和准确的跟踪结果。另外,根据经验和研究发现,人眼利用单线索进行目标跟踪的情况远远少于利用多线索的情况,这也给基于多线索的目标跟踪方法提供了生物学上的依据。如公开号为CN1619593的中国专利公开了一种“基于多特征信息融合的视频运动目标自适应跟踪方法”,该专利依据模糊逻辑自适应融合颜色和形状线索信息来描述目标的观测信息,并用遗传算法来进行目标搜索,提高了跟踪的可靠性。但其仅指定跟踪目标为人的头部,有一定的局限性,而且基于遗传算法的搜索方式只寻找与目标最相似的候选目标,往往不能有效处理图像中“多峰”的情况,如暂时遮挡等,造成跟踪不稳定。
发明内容
本发明的目的是为了克服现有技术中的不足,提供一种基于多线索融合和粒子滤波的视频目标跟踪方法及其装置,提高对复杂环境下运动目标的跟踪效果。
为了实现上述目的,本发明的基于视频的目标跟踪方法是通过以下技术方案实现的:
该方法根据颜色、边缘、特征点三个线索进行自适应融合得到目标的观测信息,然后用粒子滤波技术对目标状态进行更新,具体内容包括:
A、提取目标模板并初始化目标参数;
B、根据运动模型,对粒子集合进行动态预测;
C、根据多线索融合信息更新粒子权重;
D、更新目标的运动状态。
在上述技术方案中,在所述的步骤A中,所述的提取目标模板并初始化目标参数的具体实现步骤如下:
A1、建立目标的加权颜色直方图模板;
A2、建立目标的特征点模板;
A3、建立目标的边缘模板;
A4、初始化目标运动状态和粒子集合。
在上述技术方案中,在所述的步骤B中,所述的运动模型包括静止、匀速和加速三种情况。
在上述技术方案中,在所述的步骤C中,所述的根据多线索融合信息更新粒子权重的具体步骤包括:
C1、提取粒子集合中每个粒子各个线索的信息,并分别计算与目标模板之间的相似性;
其中颜色线索采用Bhattacharyya距离衡量相似性,边缘和特征点线索采用改进的Hausdorff距离衡量相似性。
C2、第一帧粒子集合中每个线索最小的相似度来确定相应线索的观测噪声,确定后就保持不变,每个线索的观测噪声是由跟踪第一帧时粒子集合中每个线索对应最小的相似度确定,确定后就保持不变;
C3、计算每个粒子的各个线索对应的观测似然函数;
C4、计算每个粒子的各个线索的可信度,粒子集合中各个线索的可信度是由各个线索相应最大的观测似然确定;
C5、对各个线索进行加权和融合,得到最终的观测似然;
C6、根据最终的观测似然更新粒子的权重。
在上述技术方案中,在所述的步骤D中,更新目标运动状态包括:
D1、用加权准则确定目标的位置;
D2、判断是否要对粒子集合重采样;
D3、判断是否跟踪结束,如果是则结束跟踪,如果否则进行下一帧的处理。
本发明的另一目的在于公开了一种基于视频的目标跟踪装置,它包括目标获取装置,目标初始化装置,目标状态预测装置,多线索融合装置,目标状态更新装置。
本发明与背景技术相比,具有如下有益效果:
1、采用颜色、边缘和特征点三种线索来描述目标的观测信息,并根据三个线索的似然函数自适应调整融合的权重,比采用单一线索的方法更能有效的描述目标信息。
2、采用粒子滤波技术对目标状态进行估计,比基于遗传算法的搜索策略能有效处理图像中的“多峰”现象,如暂时遮挡等,从而提高了跟踪的稳定性。本发明的跟踪目标可以包括人的头部,行人,汽车等。
附图说明
图1是本发明方法的流程图;
图2是图1流程图中步骤10的具体流程图;
图3是图1流程图中步骤30的具体流程图;
图4是本发明装置的原理框图。
具体实施方式
下面,结合附图和具体实施例对本发明做进一步说明。
本发明的基于视频的目标跟踪方法主要包含以下实现步骤:
步骤10、建立目标的特征模板并初始化特征集合
跟踪目标可以采用人机交互的方式在视频中指定区域,也可以根据视频的运动目标检测自动获取跟踪区域。假设目标是一个中心为(x0,y0),长宽分别为m,n的矩形区域,但不限定是矩形区域,可以是任意的形状。根据这些先验知识建立目标的特征模板并初始化目标粒子集合,具体的实现步骤如下:
步骤11、建立目标的加权直方图模板
由于远离目标中心的区域可能被遮挡或受到背景影响,是相对不可靠的,对目标区域内不同坐标位置赋予不同的权重,坐标与区域中心的距离越近,其相应的权值就越大,可信度越高。因此,本发明对目标区域建立二维高斯核密度分布,体现区域内每一个坐标的距离权重。
其中G(x,y)表示标准的二维高斯分布函数。
为了减少视频信号各通道间的耦合关系,在目标的HSV颜色空间建立直方图。将H和S通道量化Nhs级,V通道量化为Nv级,通常为了降低光线强度变化的敏感度,使Nv<Nhs,因此直方图共有m=2Nhs+Nv级,定义函数b(xi,yi)→{1,…m}表示图像在坐标(xi,yi)处的像素值对于上述m级的映射。定义其加权颜色直方图模板q={qu}n=1,2,…m,其中qu表示级号为u的颜色量的概率,定义如下:
其中δ为Kronecker函数,K(xi,yi)K(xi)为像素点对应的二维高斯分布概率,CH是归化一因子。
步骤12、建立目标的特征点模板
特征点提取方法如下:
(3)
式(3),式(4)为特征点检测使用的像素相关函数,其中I为图像像素矩阵,w是用来进行降噪处理的平滑窗,I(x,y)为(x,y)点的像素值,Ix、Iy分别为图像像素在水平方向和垂直方向的1阶偏微商,,分别为图像像素在水平方向和垂直方向的2阶偏微商,(u,v)为偏移坐标。最后通过计算特征点的响应函数就可以得出图像中的特征点
R=det(M)-ktr2(M) k∈[0,0.04] (5)
设定一个合理的阈值,当R大于阈值的时候,则判断为特征点。目标检测到的特征点集合记为E。
步骤13、建立目标的边缘模板
提取目标的边缘特征,基本步骤为:平滑、增强和检测。方法如下:
1)用高斯滤波器对待处理图像进行平滑处理,即选取合适的Gauss滤波器函数的标准方差σ和邻域大小对图像f(x,y)进行卷积运算,得到平滑图像,以达到抑制噪声的作用。
2)计算滤波后图像中每个像素梯度的幅值M和方向θ。采用以下2×2大小的模板P和Q分别对x和y方向的一阶偏导数近似:
θ(i,j)=arctan[Q(i,j)/P(i,j)] (8)
3)对梯度幅值进行非极大值抑制,图像上(i,j)点处幅值M(i,j)的大小不能确定该点是否为边缘点,需要采用非极大值抑制确定边缘点,即细化幅值图像中的屋脊带,保留幅值局部变化最大的点。
4)用双阈值算法检测和连接边缘。设定高阈值为T1,低阈值为T2。像素点对应的幅值只要大于T1,则指定其为边缘点,而连接此点的象素,只要其值大于T2也被指定为边缘点。
目标检测到的边缘点集记为F。
步骤14、初始化目标跟踪参数和粒子集合
定义目标的初始运动参数X0={x0,y0},粒子集合为 并且 其中N为粒子个数。每个粒子代表目标的一个可能的运动状态,只考虑平移运动来说,也就是目标一个可能的位置。每个粒子跟目标具有相同的参数, 初始化粒子集合参数为:
其中,ξ为[-1,1]内的随机数,bx,by分别为粒子在x轴和y轴方向上的传播范围。
步骤20、粒子集合动态预测
式中A表示确定性部分,由目标的运动模型来确定。B为随机部分,表示t-1时刻的噪声矩阵。这些参数的确定可以通过对图像序列的学习得到,也可以根据经验设定。
步骤30、根据多线索融合信息更新粒子权重
步骤31、计算线索的相似性
对于每一个粒子状态,分别提取每个线索并计算其与线索模板的相似性。
步骤311、计算颜色线索相似性
D越小,则分布的相似度越高,对于两个同样的加权颜色直方图模板,D=0表示一个完美的匹配。
步骤312、计算特征点线索相似性
Hausdorff距离用来衡量两个点集的匹配程度,假设空间中存在两个点集A={a1,…ap},B={b1,…bq},则集合A,B间的Hausdorff距离定义为:
H(A,B)=max(h(A,B),h(B,A)) (12)
(12)中的h(A,B)和h(B,A)分别为A集合到B集合和B集合到A集合的单向Hausdorff距离,两者定义如下:
‖·‖表示距离范数,这里取L2(欧式范数)。如果在待度量的集合中存在噪声点,就可能导致度量结果很大的误差。而实际应用当中,噪声点的混入是相当普遍甚至不可避免的现象,因此,使得Hausdorff距离的实用性、有效性大大降低。本发明采用改进型Haudorff距离(MHD),将单向Hausdorff距离定义为(NA为集合A元素的个数):
MHD将单个元素代表整个集合的思想扩展为集合内所有元素的平均作用,从而很大程度上提高了算法对噪声的适应性。
步骤313、计算边缘线索相似性
步骤32、计算线索的观测噪声
如果跟踪帧为第一帧,则执行步骤32。由于每个线索的观测噪声不一样,其相应的相似性物理意义也是不一样的,不好直接比较,需考虑观测噪声的影响,才有比较的意义。这里用第一帧粒子集合中每个线索最小的相似度来确定相应线索的观测噪声,确定后就保持不变。公式如下:
步骤33、计算线索的观测似然
计算每个粒子的每个线索对应的观测似然函数,计算公式如下所示:
其中Zcolor,t,Zcorner,t,Zedgc,t分别为t时刻各个线索对应的观测值。
步骤34、计算线索的可信度
根据线索的质量来确定加权和中线索对应的可信度。当线索质量好的时候,加大相对应的可信度,以突出质量好的线索。一般来说,可以用线索观测似然来评价线索的质量,如果线索的观测似然越高,则此时线索质量越好。因此,线索l的可信度由粒子集合中相对应最大的观测似然来决定,定义如下:
其中l为相对应的线索。对这些权重做归一化得:
步骤35、计算总的观测似然
根据自适应调整后的权重,使用加权和公式,得到每个粒子最终的似然函数:
根据似然函数可以更新粒子的权重并归一化:
步骤40、估计目标的位置
根据步骤35得到的各个粒子的概率权重,估计得到当前时刻目标的位置:
步骤50、粒子集合重采样
1)根据公式(28)计算累积概率分布
2)产生N个服从均匀分布的随机数un∈[0,1]
步骤60、判断跟踪是否结束
如果运动目标出了边框,可判断跟踪结束,开始下个目标新的跟踪。如果没有出边框,则继续跟踪。
如图4,本发明的基于视频的目标跟踪装置主要包含以下部分:
1)目标获取装置。根据实际情况可以有两种方法,一是通过人机交互获取要跟踪的目标,二是通过目标检测自动获取要跟踪的目标,通过对背景进行混合高斯建模,然后利用背景差的方法得到运动目标。
2)目标初始化装置。分别建立目标的加权颜色直方图模板,边缘模板和特征点模板,初始化目标的运动状态和粒子集合。
3)目标状态预测装置。根据目标的运动模型,对粒子集合进行动态预测。
4)多线索融合装置。分别计算颜色、边缘和特征点三个线索的相似性,由相似性确定相应线索的观测噪声、观测似然以及可信度,用加权和融合的方式确定总的观测似然,更新并归一化粒子集合的权重。
5)目标状态更新装置。用加权准则确定目标的位置,对粒子集合进行重采样,并判断跟踪是否结束。如果跟踪结束则退出,如果没还没有结束则对下一帧进行处理。
Claims (3)
1.一种基于视频的目标跟踪方法,其特征在于根据颜色、边缘、特征点三个线索进行自适应融合得到目标的观测信息,然后用粒子滤波技术对目标状态进行更新,具体步骤如下:
A、提取视频中目标模板并初始化目标参数;
B、根据运动模型,对粒子集合进行动态预测;
C、根据多线索融合信息更新粒子权重;
D、更新目标的运动状态;
所述步骤A中提取目标模板并初始化目标参数的具体步骤如下:
A1、建立目标的加权颜色直方图模板:目标是一个中心为(x0,y0),长宽分别为m1,n1的矩形区域,在目标的HSV颜色空间建立直方图,将H和S通道量化Nhs级,V通道量化为Nv级,因此直方图共有m2=2Nhs+Nv级,定义函数b(xi,yi)→{1,…m2}表示图像在坐标(xi,yi)处的像素值对于上述m2级的映射,定义加权颜色直方图模板q={qu1}u1=1,2,…m2,其中qu1表示级号为u1的颜色量的概率,K(xi,yi)为像素点对应的二维高斯分布概率,G(x,y)表示标准的二维高斯分布函数,δ为Kronecker函数,CH是归一化因子;
A2、建立目标的特征点模板:
特征点提取方法如下:k∈[0,0.04],其中,I为图像像素矩阵,w是用来进行降噪处理的平滑窗,I(x,y)为(x,y)点的像素值,Ix、Iy分别为图像像素在水平方向和垂直方向的1阶偏微商,分别为图像像素在水平方向和垂直方向的2阶偏微商,(u2,v2)为偏移坐标;通过计算特征点的响应函数R就可以得出图像中的特征点,R=det(M1)-ktr2(M1),设定一个合理的阈值,将R大于阈值的点作为特征点,目标检测到的特征点集合记为E;
A3、建立目标的边缘模板,包括:A31、对待处理得图像进行高斯滤波;A32、计算滤波后图像中每个像素梯度的幅值M2和方向θ;A33、对梯度幅值进行非极大值抑制;A34、用双阈值算法检测和连接边缘,目标检测到的边缘点集记为F;
A4、初始化目标运动状态和粒子集合;初始化粒子集合参数为:初始运动参数X0={x0,y0},粒子集合为并且其中N为粒子个数,ξ为[-1,1]内的随机数,bx,by分别为粒子在x轴和y轴方向上的传播范围;
所述步骤C的根据多线索融合信息更新粒子权重包括:
2)提取当前时刻每个粒子对应的特征点模板采用改进的Hausdorff距离衡量目标特征点模板E和的之间的相似性,其中,改进的Hausdorff距离定义为H(A,B)=max(h(A,B),h(B,A)),A、B为空间中存在两个点集,A={a1,…ap},B={b1,…bq},NA为集合A元素的个数;
C2、计算每个线索的观测噪声;其中按照下式计算每个线索的观测噪声:
C3、计算每个粒子的各个线索对应的观测似然;其中按照下式计算每个粒子的各个线索对应的观测似然:
其中Zcolor,t,Zcorner,t,Zedge,t分别为t时刻各个线索对应的观测值;
C4、计算相应的可信度;其中,按照下式计算相应的可信度:
在所述的步骤D中,更新目标运动状态包括:
D1、根据更新的各个粒子的权重,估计得到当前时刻目标的位置:
D3、判断是否跟踪结束,如果是则结束跟踪,如果否则进行下一帧的处理;其中如果运动目标出了边框,则跟踪结束。
2.根据权利要求1所述的基于视频的目标跟踪方法,其特征在于,在所述的步骤C2中,每个线索的观测噪声是由跟踪第一帧时粒子集合中每个线索对应最小的相似度确定,确定后就保持不变。
3.根据权利要求1所述的基于视频的目标跟踪方法,其特征在于,在所述的步骤B中,所述的运动模型包括静止、匀速和加速三种情况。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200810130984XA CN101404086B (zh) | 2008-04-30 | 2008-08-25 | 基于视频的目标跟踪方法及装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200810060785.6 | 2008-04-30 | ||
CN200810060785 | 2008-04-30 | ||
CN200810130984XA CN101404086B (zh) | 2008-04-30 | 2008-08-25 | 基于视频的目标跟踪方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101404086A CN101404086A (zh) | 2009-04-08 |
CN101404086B true CN101404086B (zh) | 2012-05-09 |
Family
ID=40538091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200810130984XA Expired - Fee Related CN101404086B (zh) | 2008-04-30 | 2008-08-25 | 基于视频的目标跟踪方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101404086B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8885885B2 (en) | 2012-10-05 | 2014-11-11 | International Business Machines Corporation | Multi-cue object association |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011035470A1 (en) * | 2009-09-24 | 2011-03-31 | Hewlett-Packard Development Company, L.P. | Particle tracking method and apparatus |
CN101739692B (zh) * | 2009-12-29 | 2012-05-30 | 天津市亚安科技股份有限公司 | 实时视频目标的快速相关跟踪方法 |
CN101872422B (zh) * | 2010-02-10 | 2012-11-21 | 杭州海康威视数字技术股份有限公司 | 可精确辨别目标的人流量统计的方法及系统 |
CN102169632A (zh) * | 2011-05-13 | 2011-08-31 | 北方工业大学 | 一种平面交叉路口的车流量检测方法 |
US8379848B2 (en) * | 2011-07-07 | 2013-02-19 | Cape Light Institute, Inc. | Method of providing a portable true random number generator based on the microstructure and noise found in digital images |
CN102509306B (zh) * | 2011-10-08 | 2014-02-19 | 西安理工大学 | 一种基于视频的特定目标的跟踪方法 |
CN102521612B (zh) * | 2011-12-16 | 2013-03-27 | 东华大学 | 一种基于协同关联粒子滤波的多视频目标主动跟踪方法 |
CN102750550A (zh) * | 2012-06-06 | 2012-10-24 | 初红霞 | 基于视频的多目标跟踪方法及装置 |
CN103854292B (zh) * | 2012-11-28 | 2018-02-23 | 中兴通讯股份有限公司 | 一种人数及人群运动方向的计算方法及装置 |
CN103237197B (zh) * | 2013-04-10 | 2016-04-13 | 中国科学院自动化研究所 | 用于鲁棒跟踪的自适应多特征融合的方法 |
CN103281779B (zh) * | 2013-06-13 | 2015-08-12 | 北京空间飞行器总体设计部 | 基于背景学习的射频层析成像方法 |
CN104019813B (zh) * | 2014-06-19 | 2017-01-25 | 无锡知谷网络科技有限公司 | 目标即时定位和构建地图的方法与系统 |
CN104392469B (zh) * | 2014-12-15 | 2017-05-31 | 辽宁工程技术大学 | 一种基于软特征理论的目标跟踪方法 |
CN104637049A (zh) * | 2014-12-16 | 2015-05-20 | 北京航天时代光电科技有限公司 | 一种光纤绕环质量的自动检测方法 |
CN105989615A (zh) * | 2015-03-04 | 2016-10-05 | 江苏慧眼数据科技股份有限公司 | 一种基于多特征融合的行人跟踪方法 |
CN106780539B (zh) * | 2016-11-30 | 2019-08-20 | 航天科工智能机器人有限责任公司 | 机器人视觉跟踪方法 |
CN106815860B (zh) * | 2017-01-17 | 2019-11-29 | 湖南优象科技有限公司 | 一种基于有序比对特征的目标跟踪方法 |
CN106815862B (zh) * | 2017-01-24 | 2020-03-10 | 武汉大学 | 一种基于卷积轮廓特征的目标跟踪方法 |
CN107656265B (zh) * | 2017-09-19 | 2021-03-30 | 电子科技大学 | 针对多帧检测前跟踪短航迹的粒子滤波融合方法 |
CN107833240B (zh) * | 2017-11-09 | 2020-04-17 | 华南农业大学 | 多跟踪线索引导的目标运动轨迹提取和分析方法 |
CN110706194B (zh) * | 2018-06-21 | 2021-07-06 | 北京三快在线科技有限公司 | 一种定位方法、装置及移动设备 |
CN109213322B (zh) * | 2018-08-23 | 2021-05-04 | 深圳大学 | 一种虚拟现实中手势识别的方法及系统 |
CN109461174B (zh) * | 2018-10-25 | 2021-01-29 | 北京陌上花科技有限公司 | 视频目标区域跟踪方法和视频平面广告植入方法及系统 |
CN110222763B (zh) * | 2019-06-04 | 2021-08-03 | 浙江大华技术股份有限公司 | 一种直方图匹配方法、移动终端和计算机存储介质 |
CN110443807A (zh) * | 2019-06-27 | 2019-11-12 | 中国地质大学(武汉) | 一种基于亮度均衡的光照不均匀图像阈值分割方法 |
CN113673283A (zh) * | 2020-05-14 | 2021-11-19 | 惟亚(上海)数字科技有限公司 | 一种基于增强现实的平滑跟踪方法 |
CN113920172B (zh) * | 2021-12-14 | 2022-03-01 | 成都睿沿芯创科技有限公司 | 一种目标跟踪方法、装置、设备以及存储介质 |
CN115249254B (zh) * | 2022-09-21 | 2022-12-30 | 江西财经大学 | 一种基于ar技术的目标跟踪方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1619593A (zh) * | 2004-12-09 | 2005-05-25 | 上海交通大学 | 基于多特征信息融合的视频运动目标自适应跟踪方法 |
-
2008
- 2008-08-25 CN CN200810130984XA patent/CN101404086B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1619593A (zh) * | 2004-12-09 | 2005-05-25 | 上海交通大学 | 基于多特征信息融合的视频运动目标自适应跟踪方法 |
Non-Patent Citations (2)
Title |
---|
梁志勇等.基于多特征分析的动态目标智能跟踪算方法.《微型电脑应用》.2005,第21卷(第2期),3-4,7. * |
钟小品等.基于融合策略自适应的多线索跟踪方法.《电子与信息学报》.2007,第29卷(第5期),1017-1022. * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8885885B2 (en) | 2012-10-05 | 2014-11-11 | International Business Machines Corporation | Multi-cue object association |
US9104919B2 (en) | 2012-10-05 | 2015-08-11 | International Business Machines Corporation | Multi-cue object association |
Also Published As
Publication number | Publication date |
---|---|
CN101404086A (zh) | 2009-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101404086B (zh) | 基于视频的目标跟踪方法及装置 | |
CN104574445B (zh) | 一种目标跟踪方法 | |
CN107748873B (zh) | 一种融合背景信息的多峰目标跟踪方法 | |
CN101246547B (zh) | 一种根据场景变化特征对视频中运动物体检测的方法 | |
CN102598057B (zh) | 自动对象识别、然后根据对象形状进行对象跟踪的方法和系统 | |
CN102789568B (zh) | 一种基于深度信息的手势识别方法 | |
CN101777116B (zh) | 一种基于动作跟踪的脸部表情分析方法 | |
CN101447082B (zh) | 一种运动目标实时检测方法 | |
CN103258213B (zh) | 一种用于智能交通系统中的动态车辆车型识别方法 | |
CN102385690B (zh) | 基于视频图像的目标跟踪方法及系统 | |
CN108053419A (zh) | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 | |
CN107742099A (zh) | 一种基于全卷积网络的人群密度估计、人数统计的方法 | |
CN102831439A (zh) | 手势跟踪方法及系统 | |
CN105405151A (zh) | 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法 | |
CN106778468A (zh) | 3d人脸识别方法及设备 | |
CN102567994B (zh) | 基于角点高斯特性分析的红外小目标检测方法 | |
CN106355604A (zh) | 图像目标跟踪方法与系统 | |
CN106778474A (zh) | 3d人体识别方法及设备 | |
CN101853397A (zh) | 一种基于人类视觉特性的仿生人脸检测方法 | |
CN105335701A (zh) | 一种基于hog与d-s证据理论多信息融合的行人检测方法 | |
CN108537143B (zh) | 一种基于重点区域特征比对的人脸识别方法与系统 | |
CN106611158A (zh) | 人体3d特征信息的获取方法及设备 | |
CN103020614A (zh) | 基于时空兴趣点检测的人体运动识别方法 | |
CN109697727A (zh) | 基于相关滤波和度量学习的目标跟踪方法、系统及存储介质 | |
CN103456029A (zh) | 一种抗相似颜色和光照变化干扰的Mean Shift跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120509 Termination date: 20150825 |
|
EXPY | Termination of patent right or utility model |