CN104166996A - 一种基于边缘及颜色双特征空间直方图的人眼跟踪方法 - Google Patents

一种基于边缘及颜色双特征空间直方图的人眼跟踪方法 Download PDF

Info

Publication number
CN104166996A
CN104166996A CN201410382238.5A CN201410382238A CN104166996A CN 104166996 A CN104166996 A CN 104166996A CN 201410382238 A CN201410382238 A CN 201410382238A CN 104166996 A CN104166996 A CN 104166996A
Authority
CN
China
Prior art keywords
edge
color
histogram
similarity
human eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410382238.5A
Other languages
English (en)
Inventor
王建
陈洪
赵云波
周文立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201410382238.5A priority Critical patent/CN104166996A/zh
Publication of CN104166996A publication Critical patent/CN104166996A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提出一种基于边缘及颜色双特征空间直方图的人眼跟踪方法,它有七大步骤。在经典均值偏移算法框架体系下,对人眼区域的颜色特征及边缘特征分别建立空间直方图模型,目标区域模型与候选区域模型在颜色特征空间与边缘特征空间中各自的相似度由巴氏系数衡量,综合相似度为两子特征的加权和。利用由新的综合相似度推导得出的迭代公式计算均值偏移向量进行人眼实时跟踪。本发明对于快速运动人眼及眨动人眼的跟踪有实时性好,鲁棒性强的优点。

Description

一种基于边缘及颜色双特征空间直方图的人眼跟踪方法
技术领域
本发明涉及计算机视觉技术在驾驶员疲劳检测系统中的应用,特别涉及一种基于边缘及颜色双特征空间直方图的人眼跟踪方法。
背景技术
在基于图像处理的驾驶员疲劳检测系统中,驾驶员眼睛的状态是判断疲劳的重要依据。在第一帧成功定位眼睛的基础之上,为了满足实时性的要求,对于后续帧的处理,大多采用视频目标跟踪算法来跟踪眼睛的位置。当驾驶员在正常驾驶汽车时,大部分时间眼睛注释前方路况,头部有轻微晃动,当头部左右转动时,时间较短,因此人眼跟踪算法应该能满足头部的快速转动的要求,另外,还需要考虑到光照变化及眼睛眨动的影响。
基于近年来对于人眼跟踪的研究,提出了一些有效的跟踪算法。有用眼睛模板在模板匹配算法框架下对人眼进行跟踪,有用粒子滤波算法跟踪眼睛的位置。基于穷尽搜索的模板匹配算法和基于大量粒子采样的粒子滤波算法计算量较大,在实时运行时对硬件的要求高。而在目标跟踪领域,均值偏移算法因其迭代向量计算简单,实时性好并且对于目标的部分遮挡和旋转的鲁棒性强的优点被广泛应用研究。在实际应用中,为了取得更好的跟踪效果,研究者对传统均值偏移算法进行了改进。有将均值偏移与卡尔曼滤波相结合来跟踪人眼,但是人眼的运动并非线性高斯过程,跟踪精度无法保证。有将粒子滤波器与均值偏移相结合,粒子滤波的跟踪精度较好但是降低了实时性。以上采用均值偏移算法的人眼跟踪只基于颜色直方图对目标区域建模,这种只考虑颜色分布信息而没有考虑空间分布信息的算法,在光照变化或背景较复杂时,跟踪效果往往不令人满意。
发明内容
为解决上述技术问题,本发明提出一种基于边缘及颜色双特征空间直方图的人眼跟踪方法,该方法在基于空间直方图均值偏移跟踪算法的基础上,将受光照变化影响弱的边缘特征与颜色特征联合建模,用两个子特征的综合相似度衡量候选区域与目标区域的相似程度,用基于综合相似度推导出的均值偏移向量计算公式进行迭代运算,在满足实时性要求光照变化鲁棒性要求的同时,提高了对于快速移动人眼和眨动人眼的跟踪精度。
本发明不涉及人眼检测部分,在初始图像中,人眼目标区域为一已确定位置和大小的矩形区域。
本发明一种基于边缘及颜色双特征空间直方图的人眼跟踪方法,该方法具体步骤包括:
步骤1.目标区域建模。利用Soble算子对初始帧中人眼区域进行边缘提取,计算目标区域的颜色空间直方图hc'和边缘空间直方图he'。
步骤2.候选区域建模。在当前帧中,初始搜索位置y0定为上一帧中眼睛的位置,计算候选区域的颜色空间直方图hc(y0)和边缘空间直方图he(y0)。
步骤3.计算目标区域与候选区域相似度。计算各个特征空间中的目标模型与候选模型的相似度和特征权重值,从而计算联合相似度ρ(y0)。
步骤4.计算均值偏移向量。计算每个采样点的权值,从而得到当前搜索位置处的均值偏移向量,若||y1-y0||>ε(ε为衡量均值偏移向量不为0的最小阀值),则该向量指向被跟踪目标的新位置y1,若||y1-y0||≤ε,则停止搜索。
步骤5.相似度比较。将搜索窗口移动到步骤4中的新位置y1处,更新候选模型,即计算y1处的颜色空间直方图hc(y1)和边缘空间直方图he(y1)。
步骤6.计算y1处的联合相似度ρ(y1)。
步骤7.若ρ(y1)<ρ(y0),则新位置为否则y0←y1,转到步骤4。
其中,在步骤1中,进行边缘提取的Soble算子水平和垂直梯度模板分别为: d x = - 1 - 2 - 1 0 0 0 1 2 1 d y = - 1 0 1 - 2 0 2 - 1 0 1 .
利用梯度模板与3×3图像矩阵卷积可得水平垂直梯度Gx和Gy,则梯度幅值G和梯度方向θ由公式(1)计算出。
G = G x 2 + G y 2 θ = arctan ( G y G x ) 公式(1)
目标区域颜色空间直方图hc'=<nc',μc',Σc'>的计算步骤为:将RGB颜色空间均分为NC个区间,首先计算落入第b个区间的像素加权个数接着计算落入第b个区间的像素点的坐标均值向量和坐标协方差矩阵计算方法由公式(2)给出。
n b c &prime; = C &Sigma; i = 1 N k ( | | x i - x 0 h | | 2 ) &delta; ib &mu; b = 1 &Sigma; j = 1 N h &delta; jb &Sigma; i = 1 N h ( x i - y ) &delta; ib &Sigma; b = 1 &Sigma; j = 1 N h &delta; jb &Sigma; i = 1 N h ( x i - &mu; b ) T ( x i - &mu; b ) &delta; ib 公式(2)
公式(2)中,点{xi}i=1…N为初始帧人眼矩形区域中的N个采样像素点,x0为矩形区域中心;k(·)为核函数,选取Epanechnikov核函数,h为核窗宽;若第i个采样点xi落入第b个区间则δib为1,否则为0;C为归一化常数: C = 1 / &Sigma; i = 1 N k ( | | x i - x 0 / h | | 2 ) .
目标区域的边缘空间直方图he'=<ne',μe',Σe'>计算方法为,根据梯度幅值G≥T将像素点分为边缘像素点和非边缘像素点,阀值T由最大类间方差法得出。对边缘像素点,根据梯度方向θ分为个NE区间,分别计算落入每个区间的边缘像素点的加权个数,坐标均值向量和协方差矩阵。计算方法与计算颜色空间直方图同理。
其中,在步骤2中,当前帧的起始搜索位置与初始帧中眼睛位置相同,矩形搜索窗口的大小不变,用上述方法提取搜索窗口区域的边缘点,并计算候选模型的颜色空间直方图hc(y0)=<nc(y0),μc(y0),Σc(y0)>和边缘空间直方图he(y0)=<ne(y0),μe(y0),Σe(y0)>。
其中,在步骤3中,目标模型与候选模型在颜色空间的相似度ρc(y0)为:公式(3)
公式(3)中,表示空间相似度,η为高斯归一化常数。
同理,目标模型与候选模型在边缘空间的相似度为ρe(y0)=BHe
则特征权重ωk和综合相似度ρ(y0)为:
&omega; k = BH k / &Sigma; k = e , c BH k &rho; ( y 0 ) = [ &rho; e ( y ) ] &omega; e [ &rho; c ( y ) ] &omega; c 公式(4)
其中,在步骤4中,搜索窗口中每个采样点的权值λi和个特征空间偏移向量νk为:
公式(5)
公式(5)中,k分别代表边缘e和颜色c。
则当前搜索点处的均值偏移向量由下式计算:
y 1 = &Sigma; i = 1 N &lambda; i x i + &Sigma; k = e , c v k &Sigma; i = 1 N &lambda; i 公式(6)
计算结果即为新位置y1
本发明的主要创新之处在于,将人眼区域的边缘特征与颜色特征综合建模,并且融合了采样点坐标的空间位置信息,在均值偏移跟踪算法框架下进行迭代搜索,满足了实时性要求,对光照变化具有鲁棒性,尤其提高了对快速移动人眼及眨动人眼的跟踪精度。
附图说明
图1是本发明的一种基于边缘及颜色双特征空间直方图的人眼跟踪算法的算法流程图。
图2(a)是本发明的一种基于边缘及颜色双特征空间直方图的人眼跟踪算法的初始帧人眼位置示意图。
图2(b)是本发明的一种基于边缘及颜色双特征空间直方图的人眼跟踪算法的当前帧搜索窗口第一次移动示意图。
图2(c)是本发明的一种基于边缘及颜色双特征空间直方图的人眼跟踪算法的当前帧搜索窗口第二次移动示意图。
图3是本发明的一种基于边缘及颜色双特征空间直方图的人眼跟踪算法的搜索中心点在综合相似度函数空间的移动示意图。
图2(a)、图2(b)和图2(c)中窗口w1、w2、w3的中心A、B、C三点代表的位置分别与图3中的A、B、C三点代表的位置相同。
具体实施方式
下面结合附图对本发明的较佳实例进行详细阐述。
图1为本发明一种基于边缘及颜色双特征空间直方图的人眼跟踪算法的流程图。如图1所示,算法包括以下几个步骤:
步骤1.计算初始帧目标人眼区域模型,即目标颜色空间直方图hc'和目标边缘空间直方图he'。
1)计算目标边缘空间直方图he'。在初始帧中,已准确定位的人眼中心位置为A,如图2(a)所示,矩形区域w1为初始帧中已定位的目标人眼区域。对初始帧中的目标人眼区域利用Sobel算子进行边缘提取,得到每个像素点的梯度幅值G和梯度方向θ。对于梯度幅值G,用最大类间方差法计算边缘分割阀值T,若G>T,则该点为边缘点,否则,为非边缘点。对于边缘点,将梯度方向θ均分为12个区间,计算落入每个区间的边缘点的核加权个数及每个区间内所有像素点的坐标的均值向量和协方差矩阵则目标边缘空间直方图为 h e &prime; = < n b e &prime; , &mu; b e &prime; , &Sigma; b e &prime; > , b = 1 . . . 12 .
2)计算目标颜色空间直方图hc'。将RGB颜色空间均分为512个区间,计算落入每个区间的像素点的核加权个数及每个区间内所有像素点的坐标的均值向量和协方差矩阵则目标颜色空间直方图为 h c &prime; = < n b c &prime; , &mu; b c &prime; , &Sigma; b c &prime; > , b = 1 . . . 512 .
步骤2.计算当前帧初始搜索位置y0处的候选模型,即候选颜色空间直方图hc(y0)和候选边缘空间直方图he(y0)。当前帧即为初始帧后一帧,当前帧的初始搜索位置y0定为前一帧的人眼窗口位置,当前帧的初始搜索窗口如图2(b)中的窗口w1所示。
1)计算候选边缘空间直方图he(y0)。与步骤S1的1)中计算目标边缘空间直方图方法相同,计算出y0处候选边缘空间直方图 h e ( y 0 ) = < n b e ( y 0 ) , &mu; b e ( y 0 ) , &Sigma; b e ( y 0 ) > , b = 1 . . . 12 .
2)计算候选颜色空间直方图hc(y0)。与步骤S1的2)中计算目标颜色空间直方图方法相同,计算出y0处候选颜色空间直方图 h c ( y 0 ) = < n b c ( y 0 ) , &mu; b c ( y 0 ) , &Sigma; b c ( y 0 ) > , b = 1 . . . 512 .
步骤3.计算y0处目标模型与候选模型的综合相似度ρ(y0)。
1)计算边缘特征空间的相似度ρe(y0)及颜色特征空间的相似度ρc(y0)。
2)根据各特征空间中的相似度数值得到特征权值,加权得到y0处的候选模型与目标模型的综合相似度ρ(y0)。
图3给出了初始搜索位置y0周围60×30的矩形区域内的相似度函数值。A点处的值即为ρ(y0)。
步骤4.计算y0处的均值偏移向量。根据目标模型he'hc'和候选模型he(y0)hc(y0),首先得到搜索窗口w1中每个像素点的权值λi,及各特征空间偏移向量νk。即可求出y0处的均值偏移向量,即图3中
步骤5.计算当前帧新搜索位置y1处的候选模型,即候选颜色空间直方图hc(y1)和候选边缘空间直方图he(y1)。得到y0处的均值偏移向量后,如图2(b)所示,搜索窗口从w1移动到w2,搜索窗口的中心坐标为y1,计算y1处的候选边缘空间直方图 h e ( y 1 ) = < n b e ( y 1 ) , &mu; b e ( y 1 ) , &Sigma; b e ( y 1 ) > , b = 1 . . . 12 和候选颜色空间直方图 h c ( y 1 ) = < n b c ( y 1 ) , &mu; b c ( y 1 ) , &Sigma; b c ( y 1 ) > , b = 1 . . . 512 .
步骤6.计算y1处目标模型与候选模型的综合相似度ρ(y1)。如图3所示,B点处的相似度函数值即为ρ(y1)。
步骤7.比较y0与y1处的相似度函数值。由于ρ(y1)>ρ(y0),表示新位置y1处的候选模型与目标模型的相似度较高,搜索位置移动到y1,即将y1的值(B点坐标值)赋给y0,同时将y1处的边缘空间直方图he(y1)和颜色模型直方图hc(y1)分别赋给he(y0)和hc(y0),ρ(y1)的值赋给ρ(y0)。
接着转到步骤S4。计算坐标为y0处的均值偏移向量,即图3中的将搜索窗口的中心移动到C点处,y1的值为C点坐标。计算y1处的边缘空间直方图he(y1)和颜色模型直方图hc(y1)及ρ(y1)。由于ρ(y1)>ρ(y0),将y1的值(C点坐标值)赋给y0,如图2(c)所示,搜索窗口由w2移动到w3。计算坐标为y0处的均值偏移向量,由于||y1-y0||≤ε(本实施例中ε的值取为1),说明C点处的相似度函数梯度为0,达到了局部极大值,即C点为人眼在当前帧中的位置,搜索停止。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同限定。

Claims (5)

1.一种基于边缘及颜色双特征空间直方图的人眼跟踪算法,其特征在于:该方法具体步骤包括:
步骤1.目标区域建模;利用Soble算子对初始帧中人眼区域进行边缘提取,计算目标区域的颜色空间直方图hc'和边缘空间直方图he';
步骤2.候选区域建模;在当前帧中,初始搜索位置y0定为上一帧中眼睛的位置,计算候选区域的颜色空间直方图hc(y0)和边缘空间直方图he(y0);
步骤3.计算目标区域与候选区域相似度;计算各个特征空间中的目标模型与候选模型的相似度和特征权重值,从而计算联合相似度ρ(y0);
步骤4.计算均值偏移向量;计算每个采样点的权值,从而得到当前搜索位置处的均值偏移向量,若||y1-y0||>ε,ε为衡量均值偏移向量不为0的最小阀值,则该向量指向被跟踪目标的新位置y1,若||y1-y0||≤ε,则停止搜索;
步骤5.相似度比较;将搜索窗口移动到步骤4中的新位置y1处,更新候选模型,即计算y1处的颜色空间直方图hc(y1)和边缘空间直方图he(y1);
步骤6.计算y1处的联合相似度ρ(y1);
步骤7.若ρ(y1)<ρ(y0),则新位置为否则y0←y1,转到步骤4。
2.根据权利要求1所述的一种基于边缘及颜色双特征空间直方图的人眼跟踪算法,其特征在于:在步骤1中,进行边缘提取的Soble算子水平和垂直梯度模板分别为:
d x = - 1 - 2 - 1 0 0 0 1 2 1 d y = - 1 0 1 - 2 0 2 - 1 0 1
利用梯度模板与3×3图像矩阵卷积得水平垂直梯度Gx和Gy,则梯度幅值G和梯度方向θ由公式(1)计算出;
G = G x 2 + G y 2 &theta; = arctan ( G y G x ) 公式(1)
目标区域颜色空间直方图hc'=<nc',μc',Σc'>的计算步骤为:将RGB颜色空间均分为NC个区间,首先计算落入第b个区间的像素加权个数接着计算落入第b个区间的像素点的坐标均值向量和坐标协方差矩阵计算方法由公式(2)给出;
n b c &prime; = C &Sigma; i = 1 N k ( | | x i - x 0 h | | 2 ) &delta; ib &mu; b = 1 &Sigma; j = 1 N h &delta; jb &Sigma; i = 1 N h ( x i - y ) &delta; ib &Sigma; b = 1 &Sigma; j = 1 N h &delta; jb &Sigma; i = 1 N h ( x i - &mu; b ) T ( x i - &mu; b ) &delta; ib 公式(2)
公式(2)中,点{xi}i=1…N为初始帧人眼矩形区域中的N个采样像素点,x0为矩形区域中心;k(·)为核函数,选取Epanechnikov核函数,h为核窗宽;若第i个采样点xi落入第b个区间则δib为1,否则为0;C为归一化常数: C = 1 / &Sigma; i = 1 N k ( | | x i - x 0 / h | | 2 )
目标区域的边缘空间直方图he'=<ne',μe',Σe'>计算方法为,根据梯度幅值G≥T将像素点分为边缘像素点和非边缘像素点,阀值T由最大类间方差法得出,对边缘像素点,根据梯度方向θ分为个NE区间,分别计算落入每个区间的边缘像素点的加权个数,坐标均值向量和协方差矩阵,计算方法与计算颜色空间直方图同理。
3.根据权利要求1所述的一种基于边缘及颜色双特征空间直方图的人眼跟踪算法,其特征在于:在步骤2中,当前帧的起始搜索位置与初始帧中眼睛位置相同,矩形搜索窗口的大小不变,用上述方法提取搜索窗口区域的边缘点,并计算候选模型的颜色空间直方图hc(y0)=<nc(y0),μc(y0),Σc(y0)>和边缘空间直方图he(y0)=<ne(y0),μe(y0),Σe(y0)>。
4.根据权利要求1所述的一种基于边缘及颜色双特征空间直方图的人眼跟踪算法,其特征在于:在步骤3中,目标模型与候选模型在颜色空间的相似度ρc(y0)为:
公式(3)
公式(3)中,表示空间相似度,η为高斯归一化常数,
同理,目标模型与候选模型在边缘空间的相似度为ρe(y0)=BHe
则特征权重ωk和综合相似度ρ(y0)为:
&omega; k = BH k / &Sigma; k = e , c BH k &rho; ( y 0 ) = [ &rho; e ( y ) ] &omega; e [ &rho; c ( y ) ] &omega; c 公式(4)。
5.根据权利要求1所述的一种基于边缘及颜色双特征空间直方图的人眼跟踪算法,其特征在于:在步骤4中,搜索窗口中每个采样点的权值λi和个特征空间偏移向量νk为:
公式(5)
公式(5)中,k分别代表边缘e和颜色c,
则当前搜索点处的均值偏移向量由下式计算:
y 1 = &Sigma; i = 1 N &lambda; i x i + &Sigma; k = e , c v k &Sigma; i = 1 N &lambda; i 公式(6)
计算结果即为新位置y1
CN201410382238.5A 2014-08-06 2014-08-06 一种基于边缘及颜色双特征空间直方图的人眼跟踪方法 Pending CN104166996A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410382238.5A CN104166996A (zh) 2014-08-06 2014-08-06 一种基于边缘及颜色双特征空间直方图的人眼跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410382238.5A CN104166996A (zh) 2014-08-06 2014-08-06 一种基于边缘及颜色双特征空间直方图的人眼跟踪方法

Publications (1)

Publication Number Publication Date
CN104166996A true CN104166996A (zh) 2014-11-26

Family

ID=51910787

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410382238.5A Pending CN104166996A (zh) 2014-08-06 2014-08-06 一种基于边缘及颜色双特征空间直方图的人眼跟踪方法

Country Status (1)

Country Link
CN (1) CN104166996A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107016687A (zh) * 2017-03-25 2017-08-04 平顶山学院 视频运动目标检测和跟踪的混合算法
CN107240117A (zh) * 2017-05-16 2017-10-10 上海体育学院 视频中运动目标的跟踪方法和装置
CN107610154A (zh) * 2017-10-12 2018-01-19 广西师范大学 多源目标的空间直方图表示与跟踪方法
CN108765468A (zh) * 2018-05-30 2018-11-06 中国石油大学(华东) 一种基于特征融合的目标跟踪方法和装置
CN109493367A (zh) * 2018-10-29 2019-03-19 浙江大华技术股份有限公司 一种对目标对象进行跟踪的方法和设备
CN110852335A (zh) * 2019-11-19 2020-02-28 燕山大学 一种基于多颜色特征融合与深度网络的目标跟踪系统
CN111275740A (zh) * 2020-01-19 2020-06-12 武汉大学 一种基于高分辨率孪生网络的卫星视频目标跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101308607A (zh) * 2008-06-25 2008-11-19 河海大学 基于视频的混合交通环境下移动目标多特征融合跟踪方法
US20120057751A1 (en) * 2009-09-24 2012-03-08 Liu ke-yan Particle Tracking Methods
CN103065331A (zh) * 2013-01-15 2013-04-24 南京工程学院 基于空时域边缘和颜色特征关联的目标跟踪方法
CN103279751A (zh) * 2013-06-19 2013-09-04 电子科技大学 一种基于精确定位虹膜的眼动跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101308607A (zh) * 2008-06-25 2008-11-19 河海大学 基于视频的混合交通环境下移动目标多特征融合跟踪方法
US20120057751A1 (en) * 2009-09-24 2012-03-08 Liu ke-yan Particle Tracking Methods
CN103065331A (zh) * 2013-01-15 2013-04-24 南京工程学院 基于空时域边缘和颜色特征关联的目标跟踪方法
CN103279751A (zh) * 2013-06-19 2013-09-04 电子科技大学 一种基于精确定位虹膜的眼动跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
徐琨 等: "一种基于空间直方图的多特征目标跟踪算法", 《计算机工程与应用》 *
石祥滨 等: ""一种基于颜色和边缘特征的Mean Shift目标跟踪算法"", 《沈阳航空航天大学学报》 *
胡彬 等: "一种基于空间直方图的Mean-Shift跟踪算法", 《计算机应用研究》 *
郭文婷: "基于空间直方图的目标跟踪方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107016687A (zh) * 2017-03-25 2017-08-04 平顶山学院 视频运动目标检测和跟踪的混合算法
CN107240117A (zh) * 2017-05-16 2017-10-10 上海体育学院 视频中运动目标的跟踪方法和装置
CN107240117B (zh) * 2017-05-16 2020-05-15 上海体育学院 视频中运动目标的跟踪方法和装置
CN107610154A (zh) * 2017-10-12 2018-01-19 广西师范大学 多源目标的空间直方图表示与跟踪方法
CN107610154B (zh) * 2017-10-12 2020-01-14 广西师范大学 多源目标的空间直方图表示与跟踪方法
CN108765468A (zh) * 2018-05-30 2018-11-06 中国石油大学(华东) 一种基于特征融合的目标跟踪方法和装置
CN109493367A (zh) * 2018-10-29 2019-03-19 浙江大华技术股份有限公司 一种对目标对象进行跟踪的方法和设备
CN110852335A (zh) * 2019-11-19 2020-02-28 燕山大学 一种基于多颜色特征融合与深度网络的目标跟踪系统
CN110852335B (zh) * 2019-11-19 2023-06-20 燕山大学 一种基于多颜色特征融合与深度网络的目标跟踪系统
CN111275740A (zh) * 2020-01-19 2020-06-12 武汉大学 一种基于高分辨率孪生网络的卫星视频目标跟踪方法
CN111275740B (zh) * 2020-01-19 2021-10-22 武汉大学 一种基于高分辨率孪生网络的卫星视频目标跟踪方法

Similar Documents

Publication Publication Date Title
CN104166996A (zh) 一种基于边缘及颜色双特征空间直方图的人眼跟踪方法
CN108846854B (zh) 一种基于运动预测与多特征融合的车辆跟踪方法
Keller et al. The benefits of dense stereo for pedestrian detection
CN105205486B (zh) 一种车标识别方法及装置
Wang et al. SSRNet: In-field counting wheat ears using multi-stage convolutional neural network
KR101455835B1 (ko) 영상을 이용한 차선인식 및 추적시스템, 이를 이용한 차선인식 및 추적방법
CN103514432A (zh) 人脸特征提取方法、设备和计算机程序产品
CN104050685B (zh) 基于粒子滤波视觉注意力模型的运动目标检测方法
CN109146911A (zh) 一种目标跟踪的方法及装置
CN110795982A (zh) 一种基于人体姿态分析的表观视线估计方法
CN104537689B (zh) 基于局部对比显著性联合特征的目标跟踪方法
Liu et al. Stochastic lane shape estimation using local image descriptors
Houben et al. On-vehicle video-based parking lot recognition with fisheye optics
CN103310194A (zh) 视频中基于头顶像素点梯度方向的行人头肩部检测方法
CN108171133A (zh) 一种基于特征协方差矩阵的动态手势识别方法
CN104615998B (zh) 一种基于多视角的车辆检索方法
CN106778767B (zh) 基于orb和主动视觉的视觉图像特征提取及匹配方法
CN105279769A (zh) 一种联合多特征的层次粒子滤波跟踪方法
Fan et al. Dynamicfilter: an online dynamic objects removal framework for highly dynamic environments
CN105740751A (zh) 一种目标检测与识别的方法和系统
CN105787962A (zh) 一种基于uuv水下回收的单目视觉跟踪方法
CN107798691A (zh) 一种基于视觉的无人机自主着陆地标实时检测跟踪方法
Gabb et al. High-performance on-road vehicle detection in monocular images
US20160259981A1 (en) Vehicle detection method based on hybrid image template
Qing et al. A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20141126

RJ01 Rejection of invention patent application after publication