CN102509306A - 一种基于视频的特定目标的跟踪方法 - Google Patents

一种基于视频的特定目标的跟踪方法 Download PDF

Info

Publication number
CN102509306A
CN102509306A CN2011103004049A CN201110300404A CN102509306A CN 102509306 A CN102509306 A CN 102509306A CN 2011103004049 A CN2011103004049 A CN 2011103004049A CN 201110300404 A CN201110300404 A CN 201110300404A CN 102509306 A CN102509306 A CN 102509306A
Authority
CN
China
Prior art keywords
specific objective
frame
connected domain
target
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011103004049A
Other languages
English (en)
Other versions
CN102509306B (zh
Inventor
朱虹
陈莉
王栋
王斌
杨艳妮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN201110300404.9A priority Critical patent/CN102509306B/zh
Publication of CN102509306A publication Critical patent/CN102509306A/zh
Application granted granted Critical
Publication of CN102509306B publication Critical patent/CN102509306B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明方法一种基于视频的特定目标的跟踪方法,是特定目标与运动速度相结合的目标跟踪方法。在检测出特定目标后,选定要跟踪的特定目标,判断特定跟踪目标是否与其他前景目标发生粘连,根据判断出的运动状态,选用不同的跟踪策略对其进行跟踪。本发明方法与现有技术相比,在发生粘连和遮挡的情况下,仍能准确跟踪特定目标。

Description

一种基于视频的特定目标的跟踪方法
技术领域
本发明属于图像处理方法技术领域,涉及一种基于视频的特定目标的跟踪方法。
背景技术
特定目标跟踪是智能监控系统的重要组成部分,当监控视场中,出现人群,并且特定目标与其他目标发生粘连和遮挡的情况下,很难达到较好的跟踪效果。
发明内容
本发明的目的是提供一种基于视频的特定目标的跟踪方法,与现有技术相比,在发生粘连和遮挡的情况下,仍能准确跟踪特定目标。
本发明所采用的技术方案是,一种基于视频的特定目标的跟踪方法,其特征在于,具体步骤如下:
步骤1、使用单高斯背景建模的方法,实时检测当前视频图像,并获得该当前帧视频图像中的多个目标连通域;
步骤2、将步骤1得到的多个目标连通域进行贴标签处理,并分别用外接矩形框标识出各目标连通域,其中,每个外接矩形框均用其左上角坐标(xk0,yk0)及右下角坐标(xk1,yk1)表示为{(xk0,yk0),(xk1,yk1)},k=1,2,...,L,L为目标连通域的数量;
步骤3、选定特定目标在当前帧的连通域为
Figure BDA0000095909550000011
该特定目标的外接矩形框为
Figure BDA0000095909550000021
根据索贝尔锐化算法提取该特定目标的边缘轮廓特征模板
Figure BDA0000095909550000022
其中,ΩO为特定目标的外接矩形区域;
步骤4、标识目标的相邻帧关系并定义目标的运动状态,判断特定目标的外接矩形框在相邻帧间是否存在重合,如有重合,则判定该特定目标在当前帧中存在,转向步骤5;如无重合,则判定该特定目标消失,返回步骤3重新指定特定目标;
步骤5、判别特定目标在相邻帧的运动状态变化状态,当特定目标在前一帧中为粘连状态时,则转入步骤6;当特定目标在前一帧和当前帧中,均为单一状态时,则转入步骤7;当特定目标在前一帧为单一状态,且当前帧中变为粘连状态时,转入步骤8;
步骤6、判断特定目标在当前帧是否发生分离,当判定特定目标在当前帧发生分离时,转入步骤9,否则,转入步骤8;
步骤7、单一状态下的特定目标跟踪:
计算特定目标在相邻帧之间运动速率,特定目标的单一状态维持了Ts帧,计算该特定目标在该Ts帧中的平均速度并根据索贝尔锐化算法更新该特定目标的边缘轮廓特征模板
Figure BDA0000095909550000024
后,转入步骤4进行特定目标在下一帧的跟踪;
步骤8、粘连状态时的特定目标跟踪:
步骤8.1、估算特定目标在当前帧的质心
Figure BDA0000095909550000025
步骤8.2、估算特定目标在当前帧的质心
Figure BDA0000095909550000026
所在的区域,预估其外接矩形为 { ( x ^ j 0 t , y ^ j 0 t ) , ( x ^ j 1 t , t j 1 t ) } ,
步骤8.3、确定校正特定目标位置的搜索区域:
将步骤8.2得到的外接矩形
Figure BDA0000095909550000028
的长和宽分别增加δW和δL,得到的新的矩形区域,将其作为校正特定目标位置的搜索区域;
步骤8.4、校正特定目标位置:
根据索贝尔锐化算法和特定目标的边缘轮廓特征模板
Figure BDA0000095909550000031
在步骤8.3得到的搜索区域内进行模板匹配,将得到的相同特征点个数最多的区域,初步判断为该特定目标的当前位置,并计算此时特定目标质心位置为
Figure BDA0000095909550000032
步骤8.5、校正特定目标位置的正确性判断
根据步骤8.4得到的特定目标质心位置
Figure BDA0000095909550000033
计算其瞬时速率,当得到的瞬时速度与步骤7得到的
Figure BDA0000095909550000034
之差满足一预设值时,判定步骤8.4得到的校正的特定目标位置可信;否则,判定不可信,将步骤8.1得到的的质心位置
Figure BDA0000095909550000035
作为特定目标的质心位置;
更新特定目标平均速度,并标识出本帧中的特定目标为粘连状态,转入步骤4进行特定目标在下一帧的跟踪;
步骤9、分离状态时的特定目标跟踪:
特定目标在前一帧中的连通域为
Figure BDA0000095909550000036
有k个连通域与
Figure BDA0000095909550000037
重合,k≥1,根据索贝尔锐化算法计算该k个连通域内的边缘细节信息,使用特定目标的边缘轮廓特征模板
Figure BDA0000095909550000038
在该k个连通域中进行模板匹配,将得到的相同特征点个数最多的连通域
Figure BDA0000095909550000039
判断为该特定目标的当前位置;
计算连通域
Figure BDA00000959095500000310
的面积为
Figure BDA00000959095500000311
Figure BDA00000959095500000312
与特定目标实际面积之差满足一预设值时,标示特定目标为单一状态,否则,标示为粘连状态;
计算特定目标的质心位置,更新特定目标平均速度,转入步骤4进行特定目标在下一帧的跟踪;
循环以上步骤,直至监控任务完成。
进一步地,步骤1的具体方法为:
步骤1.1、计算初始背景图像B0
视频图像大小为M×N,计算前T帧视频图像每一像素点的平均灰度值μ0(x,y)及像素灰度的方差
Figure BDA0000095909550000041
建立初始背景图像B0
μ 0 ( x , y ) = 1 T Σ t = 0 T - 1 I t ( x , y ) , x=1,2,...,M,y=1,2,...,N;
σ 0 2 ( x , y ) = 1 T Σ t = 0 T - 1 [ I t ( x , y ) - μ 0 ( x , y ) ] 2 , x=1,2,...,M,y=1,2,...,N;
B 0 = [ μ 0 , σ 0 2 ] , x=1,2,...,M,y=1,2,...,N;
其中,It(x,y)表示当前帧图像中像素点(x,y)处的像素值,x=1,2,...,M,y=1,2,...,N,当前帧为第t帧;
步骤1.2、计算当前帧的背景图像Bt
B t ( x , y ) = ( 1 - α ) · B t - 1 ( x , y ) + α · I t ( x , y ) if f t ( x , y ) = 0 B t - 1 ( x , y ) if f t ( x , y ) = 1 , x=1,2,...,M,y=1,2,...,N,
其中,α为背景更新系数,满足0<α<1;
步骤1.3、采用背景差分法获得当前帧中的多个目标连通域:
将当前帧图像It与背景图像Bt进行差分,并将差分图进行二值化,得到当前帧图像中的目标连通域ft(x,y):
f t ( x , y ) = 1 if | I t ( x , y ) - B t ( x , y ) | &GreaterEqual; Th 1 0 if | I t ( x , y ) - B t ( x , y ) | < Th 1 , x=1,2,...,M,y=1,2,...,N;
其中,ft(x,y)=1时为前景点,ft(x,y)=0时为背景点;Th1为分割阈值,Th1取值范围为Th1∈[30,50]。
进一步地,步骤3的具体方法为:
特定目标的边缘轮廓特征模板 S t ( x , y ) = 1 dI t ( x , y ) &GreaterEqual; Th S 0 dI t ( x , y ) < Th S , (x,y)=∈ΩO
其中,
dx(x,y)=It(x+1,y-1)-It(x-1,y-1)+2It(x+1,y)-2It(x-1,y)+It(x+1,y+1)-It(x-1,y+1),
dy(x,y)=It(x-1,y+1)-It(x-1,y-1)+2It(x,y+1)-2It(x,y-1)+It(x+1,y+1)-It(x+1,y-1),
dI t ( x , y ) = dx ( x , y ) 2 + dy ( x , y ) 2 ;
判断阈值
Figure BDA0000095909550000053
为ΩO区域内的像素个数。
步骤4中,相邻帧间的目标外接矩形的重合判别公式为:
Lab 1 ( x , y ) = 1 f t - 1 ( x , y ) + f t ( x , y ) = 2 0 f t - 1 ( x , y ) + f t ( x , y ) < 2 , ( x , y ) = &Element; &Omega; O ,
其中,Lab1(x,y)为重合标记,1表示重合,0表示不重合;
统计ΩO中,Lab1(x,y)=1的像素个数NL1,NL1=0时,无重合,则判定该特定目标消失;否则,有重合,则判定该特定目标在当前帧中存在。
步骤5的具体方法为:
前一帧中前景目标有n个连通域,特定目标为第i个连通域,记为
Figure BDA0000095909550000055
该连通域面积大小为
当前帧中特定目标有m个连通域,特定目标为第j个连通域,极为
Figure BDA0000095909550000057
该连通域其面积大小为
Figure BDA0000095909550000058
按照下式对特定目标状态进行标识:
Lab 2 = 0 | s j t s i t - 1 - 1 | &le; Th C 1 | s j t s i t - 1 - 1 | > Th C ,
其中,粘连状态标记值Lab2=1时则特定目标发生粘连,Lab2=0则表示特点目标仍处于单一状态;粘连发生的阈值ThC,取值范围为ThC∈(0.5,1)。
步骤6的具体方法为:
计算特定目标在当前帧的连通域
Figure BDA00000959095500000510
有k个连通域与其在前一帧的连通域
Figure BDA0000095909550000061
重合,k≥1,当该k个连通域的面积均小于
Figure BDA0000095909550000062
时,次特定目标从粘连状态转为分离状态。
步骤7中,该特定目标在Ts中的平均速度
v &OverBar; x = 1 T s &CenterDot; &Sigma; k = t - T s - 1 t v x k , v &OverBar; y = 1 T s &CenterDot; &Sigma; k = t - T s - 1 t v y k ;
特定目标的瞬时速度计算公式为:
v x t = x c t - x c t - 1 , v y t = y c t - y c t - 1 ,
其中,
Figure BDA0000095909550000068
分别为特定目标在前一帧和当前帧中的质心位置;
特定目标质心的计算公式为:
x c = 1 N o &CenterDot; &Sigma; ( x , y ) &Element; o x , y c = 1 N o &CenterDot; &Sigma; ( x , y ) &Element; o y ,
其中,o为目标所在的连通域,(x,y)∈o为该连通域中所有像素点的坐标,No为该连通域中像素点的个数。
步骤8中,
步骤8.1的具体方法为:
特定目标在前一帧的质心位置为
Figure BDA00000959095500000611
且瞬时速度为
Figure BDA00000959095500000612
则估算其在当前帧的质心位置
Figure BDA00000959095500000613
x ^ c t = v x t - 1 + x c t - 1 , y ^ c t = v y t - 1 + y c t - 1 ;
步骤8.2的具体方法为:
定义步骤8.1得到的质心
Figure BDA00000959095500000616
位于外接矩形的中心,根据特定目标在前一帧中的外接矩形长宽分别为
Figure BDA00000959095500000617
以及视频画面中的目标外接矩形在长宽两个方向上变化的标定系数αLk和αWk,则估算特定目标在当前帧中的外接矩形的对角坐标
Figure BDA00000959095500000618
为:
x ^ j 0 t = x ^ c t - 0.5 &CenterDot; &alpha; LK L i t - 1 , x ^ j 1 t = x ^ c t + 0.5 &CenterDot; &alpha; LK L i t - 1 ;
y ^ j 0 t = y ^ c t - 0.5 &CenterDot; &alpha; WK W i t - 1 , y ^ j 1 t = y ^ c t + 0.5 &CenterDot; &alpha; WK W i t - 1 .
步骤8.2中,视频画面中的目标外接矩形在长宽两个方向上变化的标定系数αLk和αWk的计算方法为:
将视频图像从上到下以水平分割线均匀划分成Ns个区域,并以此从下到上依次命名为1,2,...NS,特定目标的外接矩形在第一个区域时的长宽分别为L0和W0,特定目标的外接矩形在第k个区域时的长宽分别为Lk和Wk,则:
&alpha; Lk = L k L 0 , &alpha; Wk = W k W 0 , k=1,2,...,Ns-1。
本发明的一种基于视频的特定目标的跟踪方法,针对人群中的特定目标可能出现的各种状况,定义了单一状态、粘连状态、分离状态等不同运动变化状态,根据对特定目标在不同状态的的特点,采用目标边缘细节特征模板匹配,结合位置以及目标的大小等特征的匹配关系,实现对特定目标的正确跟踪。
具体实施方式
本发明一种基于视频的特定目标的跟踪方法,是特定目标与运动速度相结合的目标跟踪方法。在检测出特定目标后,选定要跟踪的特定目标,判断特定跟踪目标是否与其他前景目标发生粘连,根据判断出的运动状态,选用不同的跟踪策略对其进行跟踪。
本发明一种基于视频的特定目标的跟踪方法,具体步骤如下:
步骤1、使用单高斯背景建模的方法,实时检测当前视频图像,并获得该当前帧视频图像中的多个目标连通域。
步骤1的具体方法为:
步骤1.1、计算初始背景图像B0
视频图像大小为M×N,计算前T帧视频图像每一像素点的平均灰度值μ0(x,y)及像素灰度的方差
Figure BDA0000095909550000081
建立初始背景图像B0
&mu; 0 ( x , y ) = 1 T &Sigma; t = 0 T - 1 I t ( x , y ) , x=1,2,...,M,y=1,2,...,N;
&sigma; 0 2 ( x , y ) = 1 T &Sigma; t = 0 T - 1 [ I t ( x , y ) - &mu; 0 ( x , y ) ] 2 , x=1,2,...,M,y=1,2,...,N;
B 0 = [ &mu; 0 , &sigma; 0 2 ] , x=1,2,...,M,y=1,2,...,N;
其中,It(x,y)表示当前帧图像中像素点(x,y)处的像素值,x=1,2,...,M,y=1,2,...,N,当前帧为第t帧;
步骤1.2、计算当前帧的背景图像Bt
B t ( x , y ) = ( 1 - &alpha; ) &CenterDot; B t - 1 ( x , y ) + &alpha; &CenterDot; I t ( x , y ) if f t ( x , y ) = 0 B t - 1 ( x , y ) if f t ( x , y ) = 1 , x=1,2,...,M,y=1,2,...,N,
其中,α为背景更新系数,满足0<α<1;
步骤1.3、采用背景差分法获得当前帧中的多个目标连通域:
将当前帧图像It与背景图像Bt进行差分,并将差分图进行二值化,得到当前帧图像中的目标连通域ft(x,y):
f t ( x , y ) = 1 if | I t ( x , y ) - B t ( x , y ) | &GreaterEqual; Th 1 0 if | I t ( x , y ) - B t ( x , y ) | < Th 1 , x=1,2,...,M,y=1,2,...,N;
其中,ft(x,y)=1时为前景点,ft(x,y)=0时为背景点;Th1为分割阈值,若Th1取值过大,会使一部分前景点判为背景点;若Th1取值过小,会引入更多噪声,经实验测得优选范围为Th1∈[30,50]。
步骤2、将步骤1得到的多个目标连通域进行贴标签处理,在贴标签处理过程中去除过小的非人体目标的区域,并分别用外接矩形框标识出各目标连通域,其中,每个外接矩形框均用其左上角坐标(xk0,yk0)及右下角坐标(xk1,yk1)表示为{(xk0,yk0),(xk1,yk1)},k=1,2,...,L,L为目标连通域的数量。
步骤3、选定特定目标在当前帧的连通域为
Figure BDA0000095909550000091
该特定目标的外接矩形框为
Figure BDA0000095909550000092
根据索贝尔锐化算法提取该特定目标的边缘轮廓特征模板
Figure BDA0000095909550000093
其中,ΩO为特定目标的外接矩形区域。
如果指定的特定目标不与其他目标粘连,这时,外接矩形的坐标
Figure BDA0000095909550000094
为连通域
Figure BDA0000095909550000095
的左上角坐标和右下角坐标。
如果指定的特定目标与其他目标粘连,即
Figure BDA0000095909550000096
是多个目标粘连的团块时,外接矩形的坐标
Figure BDA0000095909550000097
为用户框定的矩形坐标。
步骤3的具体方法为:
特定目标的边缘轮廓特征模板 S t ( x , y ) = 1 dI t ( x , y ) &GreaterEqual; Th S 0 dI t ( x , y ) < Th S , (x,y)=∈ΩO
其中,
dx(x,y)=It(x+1,y-1)-It(x-1,y-1)+2It(x+1,y)-2It(x-1,y)+It(x+1,y+1)-It(x-1,y+1),
dy(x,y)=It(x-1,y+1)-It(x-1,y-1)+2It(x,y+1)-2It(x,y-1)+It(x+1,y+1)-It(x+1,y-1),
dI t ( x , y ) = dx ( x , y ) 2 + dy ( x , y ) 2 ;
判断阈值
Figure BDA00000959095500000911
为ΩO区域内的像素个数。
步骤4、标识目标的相邻帧关系并定义目标的运动状态,判断特定目标的外接矩形框在相邻帧间是否存在重合,如有重合,则判定该特定目标在当前帧中存在,转向步骤5;如无重合,则判定该特定目标消失,返回步骤3重新指定特定目标。
步骤4中,判别相邻帧间的目标外接矩形是否重合的公式为:
Lab 1 ( x , y ) = 1 f t - 1 ( x , y ) + f t ( x , y ) = 2 0 f t - 1 ( x , y ) + f t ( x , y ) < 2 , ( x , y ) = &Element; &Omega; O ,
其中,Lab1(x,y)为重合标记,1表示重合,0表示不重合;
统计ΩO中,Lab1(x,y)=1的像素个数NL1,NL1=0时,无重合,则判定该特定目标消失;否则,有重合,则判定该特定目标在当前帧中存在。
步骤5、设定特定目标为人体目标,且其运动速度在监控视场中满足同一目标在相邻两帧之间有较大的重叠区域的前提条件。判别特定目标在相邻帧的运动状态变化状态,当特定目标在前一帧中为粘连状态时,则转入步骤6;当特定目标在前一帧和当前帧中,均为单一状态时,则转入步骤7;当特定目标在前一帧为单一状态,且当前帧中变为粘连状态时,转入步骤8。
由于场景中存在多个运动目标,特定目标在运动的过程中,会发生与其他运动目标发生粘连、遮挡、交叉等情况。所以将目标所处的状态分为:单一状态、粘连状态、分离状态。
a.单一状态
是指该目标与其他目标无关联或者场景中只有一个目标的状态。如果目标在前后两帧均处于单一状态,其面积在这两帧中保持稳定。
b.粘连状态
是指该目标与其他目标发生粘连,使前一帧中的两个独立的连通域,在当前帧中因为相互粘连而合并成一个连通域的状态。如果目标在前一帧处于单一状态,在后一帧处于粘连状态,则其所在的连通域在后一帧中的面积大于前一帧中的面积。
c.分离状态
是指前一帧中,因目标间的相互粘连,合并成的一个连通域,在当前帧中,因为有目标离开此粘连区域而形成的分离连通域的状态。如果目标在当前帧中从粘连状态转为分离状态,则其外接矩形框和检测结果中的某一个前景目标的外接矩形框重合。
步骤5的具体方法为:
前一帧中前景目标有n个连通域,特定目标为第i个连通域,记为
Figure BDA0000095909550000111
该连通域面积大小为
Figure BDA0000095909550000112
当前帧中特定目标有m个连通域,特定目标为第j个连通域,极为
Figure BDA0000095909550000113
该连通域其面积大小为
Figure BDA0000095909550000114
按照下式对特定目标状态进行标识:
Lab 2 = 0 | s j t s i t - 1 - 1 | &le; Th C 1 | s j t s i t - 1 - 1 | > Th C ,
其中,粘连状态标记值Lab2=1时则特定目标发生粘连,Lab2=0则表示特点目标仍处于单一状态;粘连发生的阈值ThC,取值范围为ThC∈(0.5,1)。
步骤6、判断特定目标在当前帧是否发生分离,当判定特定目标在当前帧发生分离时,转入步骤9,否则,转入步骤8。
步骤6的具体方法为:
计算特定目标在当前帧的连通域
Figure BDA0000095909550000116
有k个连通域与其在前一帧的连通域
Figure BDA0000095909550000117
重合,k≥1,当该k个连通域的面积均小于
Figure BDA0000095909550000118
时,次特定目标从粘连状态转为分离状态。
步骤7、单一状态下的特定目标跟踪:
计算特定目标在相邻帧之间运动速率,特定目标的单一状态维持了Ts帧,计算该特定目标在该Ts帧中的平均速度
Figure BDA0000095909550000119
并根据索贝尔锐化算法更新该特定目标的边缘轮廓特征模板后,转入步骤4进行特定目标在下一帧的跟踪。
步骤7中,该特定目标在Ts中的平均速度
Figure BDA0000095909550000121
v &OverBar; x = 1 T s &CenterDot; &Sigma; k = t - T s - 1 t v x k , v &OverBar; y = 1 T s &CenterDot; &Sigma; k = t - T s - 1 t v y k ;
特定目标的瞬时速度计算公式为:
v x t = x c t - x c t - 1 , v y t = y c t - y c t - 1 ,
其中,
Figure BDA0000095909550000126
分别为特定目标在前一帧和当前帧中的质心位置;
特定目标质心的计算公式为:
x c = 1 N o &CenterDot; &Sigma; ( x , y ) &Element; o x , y c = 1 N o &CenterDot; &Sigma; ( x , y ) &Element; o y ,
其中,o为目标所在的连通域,(x,y)∈o为该连通域中所有像素点的坐标,No为该连通域中像素点的个数。
步骤8、粘连状态时的特定目标跟踪:
步骤8.1、估算特定目标在当前帧的质心
Figure BDA0000095909550000129
特定目标在前一帧的质心位置为
Figure BDA00000959095500001210
且瞬时速度为
Figure BDA00000959095500001211
则估算其在当前帧的质心位置
x ^ c t = v x t - 1 + x c t - 1 , y ^ c t = v y t - 1 + y c t - 1 .
步骤8.2、估算特定目标在当前帧的质心
Figure BDA00000959095500001215
所在的区域,预估其外接矩形为 { ( x ^ j 0 t , y ^ j 0 t ) , ( x ^ j 1 t , t j 1 t ) } ,
定义步骤8.1得到的质心
Figure BDA00000959095500001217
位于外接矩形的中心,根据特定目标在前一帧中的外接矩形长宽分别为
Figure BDA00000959095500001218
以及视频画面中的目标外接矩形在长宽两个方向上变化的标定系数αLk和αWk,则估算特定目标在当前帧中的外接矩形的对角坐标为:
x ^ j 0 t = x ^ c t - 0.5 &CenterDot; &alpha; LK L i t - 1 , x ^ j 1 t = x ^ c t + 0.5 &CenterDot; &alpha; LK L i t - 1 ;
y ^ j 0 t = y ^ c t - 0.5 &CenterDot; &alpha; WK W i t - 1 , y ^ j 1 t = y ^ c t + 0.5 &CenterDot; &alpha; WK W i t - 1 .
其中,视频画面中的目标外接矩形在长宽两个方向上变化的标定系数αLk和αWk,该标定系数定义为同一目标大小随着质心所在位置变化而变化的标定系数,其计算方法为:
因为同一个目标目标距离镜头的远近不同,则其在图像中的大小也不同。为了满足目标跟踪的准确性及实时性的要求,将视频图像从上到下以水平分割线均匀划分成Ns个区域,并以此从下到上依次命名为1,2,...NS,在进行监控之前,对其区域的划分进行学习。让某个已知的目标由近至远走出画面,通过计算其质心位置与面积大小变化的关系进行标定,并将其大小变化的参数,以列表形式存入。
特定目标的外接矩形在第一个区域时的长宽分别为L0和W0,特定目标的外接矩形在第k个区域时的长宽分别为Lk和Wk,则:
Figure BDA0000095909550000133
Figure BDA0000095909550000134
k=1,2,...,Ns-1。
步骤8.3、确定校正特定目标位置的搜索区域:
将步骤8.2得到的外接矩形
Figure BDA0000095909550000135
的长和宽分别增加δW和δL,得到的新的矩形区域,将其作为校正特定目标位置的搜索区域。δW与δL的取值根据监控目标的运动速度确定。对于人体目标,优选 &delta;L = L i t / 2 .
步骤8.4、校正特定目标位置:
根据索贝尔锐化算法和特定目标的边缘轮廓特征模板
Figure BDA0000095909550000138
在步骤8.3得到的搜索区域内进行模板匹配,将得到的相同特征点个数最多的区域,初步判断为该特定目标的当前位置,并计算此时特定目标质心位置为
Figure BDA0000095909550000139
步骤8.5、校正特定目标位置的正确性判断
根据步骤8.4得到的特定目标质心位置
Figure BDA0000095909550000141
计算其瞬时速率,当得到的瞬时速度与步骤7得到的
Figure BDA0000095909550000142
之差满足一预设值时,判定步骤8.4得到的校正的特定目标位置可信;否则,判定不可信,将步骤8.1得到的的质心位置
Figure BDA0000095909550000143
作为特定目标的质心位置;
更新特定目标平均速度,并标识出本帧中的特定目标为粘连状态,转入步骤4进行特定目标在下一帧的跟踪。
步骤9、分离状态时的特定目标跟踪:
特定目标在前一帧中的连通域为
Figure BDA0000095909550000144
有k个连通域与
Figure BDA0000095909550000145
重合,k≥1,根据索贝尔锐化算法计算该k个连通域内的边缘细节信息,使用特定目标的边缘轮廓特征模板
Figure BDA0000095909550000146
在该k个连通域中进行模板匹配,将得到的相同特征点个数最多的连通域
Figure BDA0000095909550000147
判断为该特定目标的当前位置;
计算连通域
Figure BDA0000095909550000148
的面积为
Figure BDA00000959095500001410
与特定目标实际面积之差满足一预设值时,标示特定目标为单一状态,否则,标示为粘连状态;
计算特定目标的质心位置,更新特定目标平均速度,转入步骤4进行特定目标在下一帧的跟踪;
循环以上步骤,直至监控任务完成。

Claims (9)

1.一种基于视频的特定目标的跟踪方法,其特征在于,具体步骤如下:
步骤1、使用单高斯背景建模的方法,实时检测当前视频图像,并获得该当前帧视频图像中的多个目标连通域;
步骤2、将步骤1得到的多个目标连通域进行贴标签处理,并分别用外接矩形框标识出各目标连通域,其中,每个外接矩形框均用其左上角坐标(xk0,yk0)及右下角坐标(xk1,yk1)表示为{(xk0,yk0),(xk1,yk1)},k=1,2,...,L,L为目标连通域的数量;
步骤3、选定特定目标在当前帧的连通域为
Figure FDA0000095909540000011
该特定目标的外接矩形框为
Figure FDA0000095909540000012
根据索贝尔锐化算法提取该特定目标的边缘轮廓特征模板
Figure FDA0000095909540000013
其中,ΩO为特定目标的外接矩形区域;
步骤4、标识目标的相邻帧关系并定义目标的运动状态,判断特定目标的外接矩形框在相邻帧间是否存在重合,如有重合,则判定该特定目标在当前帧中存在,转向步骤5;如无重合,则判定该特定目标消失,返回步骤3重新指定特定目标;
步骤5、判别特定目标在相邻帧的运动状态变化状态,当特定目标在前一帧中为粘连状态时,则转入步骤6;当特定目标在前一帧和当前帧中,均为单一状态时,则转入步骤7;当特定目标在前一帧为单一状态,且当前帧中变为粘连状态时,转入步骤8;
步骤6、判断特定目标在当前帧是否发生分离,当判定特定目标在当前帧发生分离时,转入步骤9,否则,转入步骤8;
步骤7、单一状态下的特定目标跟踪:
计算特定目标在相邻帧之间运动速率,特定目标的单一状态维持了Ts帧,计算该特定目标在该Ts帧中的平均速度
Figure FDA0000095909540000021
并根据索贝尔锐化算法更新该特定目标的边缘轮廓特征模板后,转入步骤4进行特定目标在下一帧的跟踪;
步骤8、粘连状态时的特定目标跟踪:
步骤8.1、估算特定目标在当前帧的质心
步骤8.2、估算特定目标在当前帧的质心
Figure FDA0000095909540000024
所在的区域,预估其外接矩形为
步骤8.3、确定校正特定目标位置的搜索区域:
将步骤8.2得到的外接矩形的长和宽分别增加δW和δL,得到的新的矩形区域,将其作为校正特定目标位置的搜索区域;
步骤8.4、校正特定目标位置:
根据索贝尔锐化算法和特定目标的边缘轮廓特征模板
Figure FDA0000095909540000027
在步骤8.3得到的搜索区域内进行模板匹配,将得到的相同特征点个数最多的区域,初步判断为该特定目标的当前位置,并计算此时特定目标质心位置为
Figure FDA0000095909540000028
步骤8.5、校正特定目标位置的正确性判断
根据步骤8.4得到的特定目标质心位置
Figure FDA0000095909540000029
计算其瞬时速率,当得到的瞬时速度与步骤7得到的之差满足一预设值时,判定步骤8.4得到的校正的特定目标位置可信;否则,判定不可信,将步骤8.1得到的的质心位置作为特定目标的质心位置;
更新特定目标平均速度,并标识出本帧中的特定目标为粘连状态,转入步骤4进行特定目标在下一帧的跟踪;
步骤9、分离状态时的特定目标跟踪:
特定目标在前一帧中的连通域为
Figure FDA0000095909540000031
有k个连通域与
Figure FDA0000095909540000032
重合,k≥1,根据索贝尔锐化算法计算该k个连通域内的边缘细节信息,使用特定目标的边缘轮廓特征模板
Figure FDA0000095909540000033
在该k个连通域中进行模板匹配,将得到的相同特征点个数最多的连通域
Figure FDA0000095909540000034
判断为该特定目标的当前位置;
计算连通域
Figure FDA0000095909540000035
的面积为
Figure FDA0000095909540000036
Figure FDA0000095909540000037
与特定目标实际面积之差满足一预设值时,标示特定目标为单一状态,否则,标示为粘连状态;
计算特定目标的质心位置,更新特定目标平均速度,转入步骤4进行特定目标在下一帧的跟踪;
循环以上步骤,直至监控任务完成。
2.按照权利要求1所述的基于视频的特定目标的跟踪方法,其特征在于,步骤1的具体方法为:
步骤1.1、计算初始背景图像B0
视频图像大小为M×N,计算前T帧视频图像每一像素点的平均灰度值μ0(x,y)及像素灰度的方差
Figure FDA0000095909540000038
建立初始背景图像B0
&mu; 0 ( x , y ) = 1 T &Sigma; t = 0 T - 1 I t ( x , y ) , x=1,2,...,M,y=1,2,...,N;
&sigma; 0 2 ( x , y ) = 1 T &Sigma; t = 0 T - 1 [ I t ( x , y ) - &mu; 0 ( x , y ) ] 2 , x=1,2,...,M,y=1,2,...,N;
B 0 = [ &mu; 0 , &sigma; 0 2 ] , x=1,2,...,M,y=1,2,...,N;
其中,It(x,y)表示当前帧图像中像素点(x,y)处的像素值,x=1,2,...,M,y=1,2,...,N,当前帧为第t帧;
步骤1.2、计算当前帧的背景图像Bt
B t ( x , y ) = ( 1 - &alpha; ) &CenterDot; B t - 1 ( x , y ) + &alpha; &CenterDot; I t ( x , y ) if f t ( x , y ) = 0 B t - 1 ( x , y ) if f t ( x , y ) = 1 , x=1,2,...,M,y=1,2,...,N,
其中,α为背景更新系数,满足0<α<1;
步骤1.3、采用背景差分法获得当前帧中的多个目标连通域:
将当前帧图像It与背景图像Bt进行差分,并将差分图进行二值化,得到当前帧图像中的目标连通域ft(x,y):
f t ( x , y ) = 1 if | I t ( x , y ) - B t ( x , y ) | &GreaterEqual; Th 1 0 if | I t ( x , y ) - B t ( x , y ) | < Th 1 , x=1,2,...,M,y=1,2,...,N;
其中,ft(x,y)=1时为前景点,ft(x,y)=0时为背景点;Th1为分割阈值,Th1取值范围为Th1∈[30,50]。
3.按照权利要求1所述的基于视频的特定目标的跟踪方法,其特征在于,步骤3的具体方法为:
特定目标的边缘轮廓特征模板 S t ( x , y ) = 1 dI t ( x , y ) &GreaterEqual; Th S 0 dI t ( x , y ) < Th S , (x,y)=∈ΩO
其中,
dx(x,y)=It(x+1,y-1)-It(x-1,y-1)+2It(x+1,y)-2It(x-1,y)+It(x+1,y+1)-It(x-1,y+1),
dy(x,y)=It(x-1,y+1)-It(x-1,y-1)+2It(x,y+1)-2It(x,y-1)+It(x+1,y+1)-It(x+1,y-1),
dI t ( x , y ) = dx ( x , y ) 2 + dy ( x , y ) 2 ;
判断阈值
Figure FDA0000095909540000044
Figure FDA0000095909540000045
为ΩO区域内的像素个数。
4.按照权利要求1所述的基于视频的特定目标的跟踪方法,其特征在于,步骤4中,相邻帧间的目标外接矩形的重合判别公式为:
Lab 1 ( x , y ) = 1 f t - 1 ( x , y ) + f t ( x , y ) = 2 0 f t - 1 ( x , y ) + f t ( x , y ) < 2 , ( x , y ) = &Element; &Omega; O ,
其中,Lab1(x,y)为重合标记,1表示重合,0表示不重合;
统计ΩO中,Lab1(x,y)=1的像素个数NL1,NL1=0时,无重合,则判定该特定目标消失;否则,有重合,则判定该特定目标在当前帧中存在。
5.按照权利要求1所述的基于视频的特定目标的跟踪方法,其特征在于,步骤5的具体方法为:
前一帧中前景目标有n个连通域,特定目标为第i个连通域,记为
Figure FDA0000095909540000051
该连通域面积大小为
当前帧中特定目标有m个连通域,特定目标为第j个连通域,极为
Figure FDA0000095909540000053
该连通域其面积大小为
Figure FDA0000095909540000054
按照下式对特定目标状态进行标识:
Lab 2 = 0 | s j t s i t - 1 - 1 | &le; Th C 1 | s j t s i t - 1 - 1 | > Th C ,
其中,粘连状态标记值Lab2=1时则特定目标发生粘连,Lab2=0则表示特点目标仍处于单一状态;粘连发生的阈值ThC,取值范围为ThC∈(0.5,1)。
6.按照权利要求1所述的基于视频的特定目标的跟踪方法,其特征在于,步骤6的具体方法为:
计算特定目标在当前帧的连通域有k个连通域与其在前一帧的连通域
Figure FDA0000095909540000057
重合,k≥1,当该k个连通域的面积均小于
Figure FDA0000095909540000058
时,次特定目标从粘连状态转为分离状态。
7.按照权利要求1所述的基于视频的特定目标的跟踪方法,其特征在于,步骤7中,该特定目标在Ts中的平均速度
Figure FDA0000095909540000059
v &OverBar; x = 1 T s &CenterDot; &Sigma; k = t - T s - 1 t v x k , v &OverBar; y = 1 T s &CenterDot; &Sigma; k = t - T s - 1 t v y k ;
特定目标的瞬时速度计算公式为:
v x t = x c t - x c t - 1 , v y t = y c t - y c t - 1 ,
其中,
Figure FDA0000095909540000061
分别为特定目标在前一帧和当前帧中的质心位置;
特定目标质心的计算公式为:
x c = 1 N o &CenterDot; &Sigma; ( x , y ) &Element; o x , y c = 1 N o &CenterDot; &Sigma; ( x , y ) &Element; o y ,
其中,o为目标所在的连通域,(x,y)∈o为该连通域中所有像素点的坐标,No为该连通域中像素点的个数。
8.按照权利要求1所述的基于视频的特定目标的跟踪方法,其特征在于,步骤8中,
步骤8.1的具体方法为:
特定目标在前一帧的质心位置为
Figure FDA0000095909540000064
且瞬时速度为
Figure FDA0000095909540000065
则估算其在当前帧的质心位置
x ^ c t = v x t - 1 + x c t - 1 , y ^ c t = v y t - 1 + y c t - 1 ;
步骤8.2的具体方法为:
定义步骤8.1得到的质心
Figure FDA0000095909540000069
位于外接矩形的中心,根据特定目标在前一帧中的外接矩形长宽分别为
Figure FDA00000959095400000610
以及视频画面中的目标外接矩形在长宽两个方向上变化的标定系数αLk和αWk,则估算特定目标在当前帧中的外接矩形的对角坐标
Figure FDA00000959095400000611
为:
x ^ j 0 t = x ^ c t - 0.5 &CenterDot; &alpha; LK L i t - 1 , x ^ j 1 t = x ^ c t + 0.5 &CenterDot; &alpha; LK L i t - 1 ;
y ^ j 0 t = y ^ c t - 0.5 &CenterDot; &alpha; WK W i t - 1 , y ^ j 1 t = y ^ c t + 0.5 &CenterDot; &alpha; WK W i t - 1 .
9.按照权利要求8所述的基于视频的特定目标的跟踪方法,其特征在于,步骤8.2中,视频画面中的目标外接矩形在长宽两个方向上变化的标定系数αLk和αWk的计算方法为:
将视频图像从上到下以水平分割线均匀划分成Ns个区域,并以此从下到上依次命名为1,2,...NS,特定目标的外接矩形在第一个区域时的长宽分别为L0和W0,特定目标的外接矩形在第k个区域时的长宽分别为Lk和Wk,则: &alpha; Lk = L k L 0 , &alpha; Wk = W k W 0 , k=1,2,...,Ns-1。
CN201110300404.9A 2011-10-08 2011-10-08 一种基于视频的特定目标的跟踪方法 Expired - Fee Related CN102509306B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201110300404.9A CN102509306B (zh) 2011-10-08 2011-10-08 一种基于视频的特定目标的跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110300404.9A CN102509306B (zh) 2011-10-08 2011-10-08 一种基于视频的特定目标的跟踪方法

Publications (2)

Publication Number Publication Date
CN102509306A true CN102509306A (zh) 2012-06-20
CN102509306B CN102509306B (zh) 2014-02-19

Family

ID=46221384

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110300404.9A Expired - Fee Related CN102509306B (zh) 2011-10-08 2011-10-08 一种基于视频的特定目标的跟踪方法

Country Status (1)

Country Link
CN (1) CN102509306B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103281513A (zh) * 2013-05-14 2013-09-04 西安理工大学 一种无重叠域监控系统中行人识别方法
CN103324913A (zh) * 2013-05-29 2013-09-25 长安大学 一种基于形状特征和轨迹分析的行人事件检测方法
CN103413324A (zh) * 2013-07-29 2013-11-27 西北工业大学 航拍视频自动目标跟踪方法
CN103577833A (zh) * 2012-08-01 2014-02-12 复旦大学 基于运动模板的异常闯入检测方法
CN104125433A (zh) * 2014-07-30 2014-10-29 西安冉科信息技术有限公司 基于多球机联动结构的视频运动目标监控方法
CN105023248A (zh) * 2015-06-25 2015-11-04 西安理工大学 一种低信噪比的视频运动目标提取方法
CN105469084A (zh) * 2015-11-20 2016-04-06 中国科学院苏州生物医学工程技术研究所 一种靶标中心点快速提取方法及系统
CN106920253A (zh) * 2017-02-10 2017-07-04 华中科技大学 一种基于遮挡分层的多目标跟踪方法
CN107092869A (zh) * 2017-04-05 2017-08-25 武汉大学 一种视频卫星的点目标跟踪方法
CN107590450A (zh) * 2017-09-01 2018-01-16 歌尔科技有限公司 一种运动目标的标记方法、装置和无人机
CN107820041A (zh) * 2016-09-13 2018-03-20 华为数字技术(苏州)有限公司 隐私遮挡方法及装置
CN109493366A (zh) * 2018-10-19 2019-03-19 上海鹰觉科技有限公司 基于探鸟雷达图像的背景建模方法、系统及介质
CN109977833A (zh) * 2019-03-19 2019-07-05 网易(杭州)网络有限公司 物体追踪方法、物体追踪装置、存储介质及电子设备
CN110008795A (zh) * 2018-01-04 2019-07-12 纬创资通股份有限公司 图像目标追踪方法及其系统与计算机可读取存储介质
CN110555405A (zh) * 2019-08-30 2019-12-10 北京迈格威科技有限公司 目标跟踪方法及装置、存储介质和电子设备
CN110675426A (zh) * 2018-07-02 2020-01-10 百度在线网络技术(北京)有限公司 人体跟踪方法、装置、设备及存储介质
CN113538500A (zh) * 2021-09-10 2021-10-22 科大讯飞(苏州)科技有限公司 图像分割方法、装置、电子设备和存储介质
CN113763416A (zh) * 2020-06-02 2021-12-07 璞洛泰珂(上海)智能科技有限公司 基于目标检测的自动贴标与跟踪方法、装置、设备和介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150550B (zh) * 2013-02-05 2015-10-28 长安大学 一种基于运动轨迹分析的道路行人事件检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101068342A (zh) * 2007-06-05 2007-11-07 西安理工大学 基于双摄像头联动结构的视频运动目标特写跟踪监视方法
CN101404086A (zh) * 2008-04-30 2009-04-08 浙江大学 基于视频的目标跟踪方法及装置
CN102129690A (zh) * 2011-03-21 2011-07-20 西安理工大学 一种抗环境干扰的人体运动目标的跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101068342A (zh) * 2007-06-05 2007-11-07 西安理工大学 基于双摄像头联动结构的视频运动目标特写跟踪监视方法
CN101404086A (zh) * 2008-04-30 2009-04-08 浙江大学 基于视频的目标跟踪方法及装置
CN102129690A (zh) * 2011-03-21 2011-07-20 西安理工大学 一种抗环境干扰的人体运动目标的跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ZHOU HAO,XUEJIE ZHANG,HAIYAN LI,JIDONG LI: "Video object tracking based on swarm optimized particle filter", 《2010 2ND INTERNATIONAL CONFERENCE ON INDUSTRIAL MECHATRONICS AND AUTOMATION》 *
王栋,朱虹,马文庆: "基于遗传算法搜索的运动目标跟踪", 《中国图象图形学报》 *
陈莉,徐庆民: "一种新的机动目标跟踪的多模型算法", 《陕西国防工业职业技术学院学报》 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103577833A (zh) * 2012-08-01 2014-02-12 复旦大学 基于运动模板的异常闯入检测方法
CN103281513A (zh) * 2013-05-14 2013-09-04 西安理工大学 一种无重叠域监控系统中行人识别方法
CN103281513B (zh) * 2013-05-14 2016-03-30 西安理工大学 一种无重叠域监控系统中行人识别方法
CN103324913B (zh) * 2013-05-29 2016-03-30 长安大学 一种基于形状特征和轨迹分析的行人事件检测方法
CN103324913A (zh) * 2013-05-29 2013-09-25 长安大学 一种基于形状特征和轨迹分析的行人事件检测方法
CN103413324A (zh) * 2013-07-29 2013-11-27 西北工业大学 航拍视频自动目标跟踪方法
CN104125433A (zh) * 2014-07-30 2014-10-29 西安冉科信息技术有限公司 基于多球机联动结构的视频运动目标监控方法
CN105023248A (zh) * 2015-06-25 2015-11-04 西安理工大学 一种低信噪比的视频运动目标提取方法
CN105023248B (zh) * 2015-06-25 2017-11-03 西安理工大学 一种低信噪比的视频运动目标提取方法
CN105469084A (zh) * 2015-11-20 2016-04-06 中国科学院苏州生物医学工程技术研究所 一种靶标中心点快速提取方法及系统
CN107820041A (zh) * 2016-09-13 2018-03-20 华为数字技术(苏州)有限公司 隐私遮挡方法及装置
CN107820041B (zh) * 2016-09-13 2020-09-08 华为数字技术(苏州)有限公司 隐私遮挡方法及装置
CN106920253A (zh) * 2017-02-10 2017-07-04 华中科技大学 一种基于遮挡分层的多目标跟踪方法
CN107092869A (zh) * 2017-04-05 2017-08-25 武汉大学 一种视频卫星的点目标跟踪方法
CN107092869B (zh) * 2017-04-05 2019-11-26 武汉大学 一种视频卫星的点目标跟踪方法
CN107590450A (zh) * 2017-09-01 2018-01-16 歌尔科技有限公司 一种运动目标的标记方法、装置和无人机
CN110008795A (zh) * 2018-01-04 2019-07-12 纬创资通股份有限公司 图像目标追踪方法及其系统与计算机可读取存储介质
CN110008795B (zh) * 2018-01-04 2021-09-14 纬创资通股份有限公司 图像目标追踪方法及其系统与计算机可读取记录介质
CN110675426B (zh) * 2018-07-02 2022-11-22 百度在线网络技术(北京)有限公司 人体跟踪方法、装置、设备及存储介质
US11348354B2 (en) 2018-07-02 2022-05-31 Baidu Online Network Technology (Beijing) Co., Ltd. Human body tracing method, apparatus and device, and storage medium
CN110675426A (zh) * 2018-07-02 2020-01-10 百度在线网络技术(北京)有限公司 人体跟踪方法、装置、设备及存储介质
CN109493366A (zh) * 2018-10-19 2019-03-19 上海鹰觉科技有限公司 基于探鸟雷达图像的背景建模方法、系统及介质
CN109977833B (zh) * 2019-03-19 2021-08-13 网易(杭州)网络有限公司 物体追踪方法、物体追踪装置、存储介质及电子设备
CN109977833A (zh) * 2019-03-19 2019-07-05 网易(杭州)网络有限公司 物体追踪方法、物体追踪装置、存储介质及电子设备
CN110555405B (zh) * 2019-08-30 2022-05-06 北京迈格威科技有限公司 目标跟踪方法及装置、存储介质和电子设备
CN110555405A (zh) * 2019-08-30 2019-12-10 北京迈格威科技有限公司 目标跟踪方法及装置、存储介质和电子设备
CN113763416A (zh) * 2020-06-02 2021-12-07 璞洛泰珂(上海)智能科技有限公司 基于目标检测的自动贴标与跟踪方法、装置、设备和介质
CN113538500A (zh) * 2021-09-10 2021-10-22 科大讯飞(苏州)科技有限公司 图像分割方法、装置、电子设备和存储介质
CN113538500B (zh) * 2021-09-10 2022-03-15 科大讯飞(苏州)科技有限公司 图像分割方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN102509306B (zh) 2014-02-19

Similar Documents

Publication Publication Date Title
CN102509306B (zh) 一种基于视频的特定目标的跟踪方法
CN107750364B (zh) 使用稳定的坐标系的道路垂直轮廓检测
CN101840507B (zh) 基于角点特征不变量和图论聚类的目标跟踪方法
CN102542289B (zh) 一种基于多高斯计数模型的人流量统计方法
CN102881024B (zh) 一种基于tld的视频目标跟踪方法
JP6525453B2 (ja) オブジェクト位置推定システム、及びそのプログラム
CN107452015B (zh) 一种具有重检测机制的目标跟踪系统
CN103077521B (zh) 一种用于视频监控的感兴趣区域提取方法
CN106875425A (zh) 一种基于深度学习的多目标追踪系统及实现方法
CN102129690B (zh) 一种抗环境干扰的人体运动目标的跟踪方法
CN104200485A (zh) 一种面向视频监控的人体跟踪方法
CN104318258A (zh) 一种基于时域模糊和卡尔曼滤波器的车道线检测方法
CN110033476A (zh) 目标速度估计方法、装置和图像处理设备
CN109448025B (zh) 视频中短道速滑运动员的自动跟踪与轨迹建模方法
CN104282020A (zh) 一种基于目标运动轨迹的车辆速度检测方法
CN102982545B (zh) 一种图像深度估计方法
CN105488811A (zh) 一种基于深度梯度的目标跟踪方法与系统
CN105374049B (zh) 一种基于稀疏光流法的多角点跟踪方法及装置
CN102592288A (zh) 一种光照环境变化情况下的行人目标匹配跟踪方法
CN110321937A (zh) 一种Faster-RCNN结合卡尔曼滤波的运动人体跟踪方法
CN104200492A (zh) 基于轨迹约束的航拍视频目标自动检测跟踪方法
Arróspide et al. On-board robust vehicle detection and tracking using adaptive quality evaluation
CN103391430A (zh) 基于dsp的相关跟踪方法及专用装置
CN115375733A (zh) 基于视频和点云数据的雪车雪橇三维滑行轨迹提取方法
Xia et al. Automatic multi-vehicle tracking using video cameras: An improved CAMShift approach

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140219

Termination date: 20161008