CN106296732A - 一种复杂背景下的运动目标追踪方法 - Google Patents

一种复杂背景下的运动目标追踪方法 Download PDF

Info

Publication number
CN106296732A
CN106296732A CN201610619343.5A CN201610619343A CN106296732A CN 106296732 A CN106296732 A CN 106296732A CN 201610619343 A CN201610619343 A CN 201610619343A CN 106296732 A CN106296732 A CN 106296732A
Authority
CN
China
Prior art keywords
target
window
tracking
frame
kth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610619343.5A
Other languages
English (en)
Other versions
CN106296732B (zh
Inventor
陈从平
黄正
李波
吴喆
陈法法
李林波
聂葳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Three Gorges University CTGU
Original Assignee
China Three Gorges University CTGU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Three Gorges University CTGU filed Critical China Three Gorges University CTGU
Priority to CN201610619343.5A priority Critical patent/CN106296732B/zh
Publication of CN106296732A publication Critical patent/CN106296732A/zh
Application granted granted Critical
Publication of CN106296732B publication Critical patent/CN106296732B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种复杂背景下的运动目标追踪方法,针对传统的Meanshift等运动目标跟踪方法只通过追踪目标的颜色约束来实现对运动目标的跟踪,从而导致追踪精度较低这一问题,提出了一种复杂背景下的运动目标追踪方法。首先通过基于光流法获得Meanshift搜索窗口区域中的特征点信息;然后再根据Kalman滤波中的速度预估值剔除背景特征点信息,构建仅考虑待跟踪目标特征点的空间约束条件。最后将求得的空间约束结合传统Meanshift方法中的颜色约束,得到改进的反投影直方图,并将改进的反投影直方图作为Meanshift的概率密度图进行迭代,从而完成复杂背景下运动目标跟踪的过程。

Description

一种复杂背景下的运动目标追踪方法
技术领域
本发明涉及运动目标监控领域,具体涉及到一种复杂背景下的运动目标追踪方法。
背景技术
目前,典型的运动目标跟踪定位方法有光流法、帧差法、粒子滤波法、Kalman滤波及Meanshift法等。其中,光流法与帧差法是基于物体的运动信息进行跟踪的,它们能同时跟踪所有前景目标,但无法实现目标选择性跟踪(只能跟踪全部的前景物体而无法针对具体运动目标),且两种方法都极易受到背景变动的干扰;粒子滤波法则需要足够的粒子数目以保证方法的鲁棒性,这极大的增加了跟踪过程中的计算量;Kalman滤波法需要结合观测值得到最优更新,需要与其他方法联合使用,因此在自适应跟踪过程中通常作为辅助方法。Meanshift方法作为一种基于密度梯度的无参数估计跟踪方法,以其计算速度快、实时性好等特点得到了广泛的研究与应用,成为当前适用性最强的运动目标追踪方法。
然而,传统的Meanshift方法是通过运动目标模型的色调特征这种单一约束条件来实现对运动目标的跟踪,当其应用于复杂背景下运动目标追踪过程中时,尤其当跟踪目标与背景的色调信息相近或者相同时,通常会由于背景区域与追踪目标区域具有过多相似的色调信息而造成跟踪目标丢失。
发明内容
本发明针对以上问题,提出了一种复杂背景下的运动目标追踪方法。首先通过基于光流法获得Meanshift搜索窗口区域中的特征点信息;然后再根据Kalman滤波中的速度预估值剔除背景特征点信息,构建仅考虑待跟踪目标特征点的空间约束条件。最后将求得的空间约束结合传统Meanshift方法中的颜色约束,得到改进的反投影直方图,并将改进的反投影直方图作为Meanshift的概率密度图进行迭代,从而完成复杂背景下运动目标跟踪的过程。
为了解决上述技术问题,本发明提出以下技术方案:一种复杂背景下的运动目标追踪方法,包括以下步骤:
步骤1:提取追踪目标的色调信息,包括:
步骤1.1:在跟踪开始时,在初始帧中需通过机器或人工的方式辅助框选运动目标初始追踪窗口W1,并要求W1能将运动目标完全包含在窗内且窗口大小尽量与目标在初始帧图像中的大小相等;
步骤1.2:在后续跟踪的过程中,应用前一帧(设为k-1帧)中的运动目标窗口Wk-1“覆盖”在第k帧图像中的同样位置,并在“覆盖”位置处统计窗口内的色调直方图;
步骤1.3:基于统计出的色调直方图对第k帧图像反投影,生成反投影图以寻找第k帧图像中与Wk-1色调信息相似的物体,将这些色调信息相似的物体标记为1,色调信息不相似的物体标记为0;
步骤2:追踪目标的特征点信息提取,包括:
步骤2.1:通过Kalman滤波预估第k帧目标追踪窗口的位置,并根据与Wk-1的相对位置以计算并预估追踪目标的位移、速度等参数;再根据预估参数扩展第k帧中的目标追踪窗口Wk-1,获得第k帧中被扩展目标的追踪窗口
步骤2.2:进一步提取中目标角点、边缘点等强特征点,标记为1,并将剩余的追踪目标特征点通过二值化、膨胀处理等方式以生成追踪目标特征点信息图
步骤3:复杂背景下的运动目标追踪,包括:
步骤3.1:将步骤1中的色调反投影图与步骤2中的特征点信息图做逻辑与运算,结果使两图中同标记为1的像素点标记值仍为1,其余像素点标记为0,则生成了新的反投影图;
步骤3.2:根据新的反投影图对目标追踪窗口Wk-1进行Meanshift迭代,直至目标追踪窗口Wk-1运动至完全捕捉到追踪目标的位置,此时的目标追踪窗口即为第k帧中Kalman滤波的观测窗口将预估窗口与观测窗口根据一定的权重进行融合,即可得到Kalman滤波的状态窗口,即第k帧中的目标追踪窗口Wk
步骤3.3:将第k帧目标追踪窗口Wk应用于第k+1帧的目标追踪过程中,重复步骤1至步骤3,依此类推,直至追踪视频结束。
步骤1具体还包括以下步骤:
1)在计算目标追踪窗口内的色调直方图的过程中,为防止变化光照的干扰,只统计窗口内饱和度值大于65且亮度值处于[50 255]区间的像素点的色调值;
2)为了使色调直方图的面积和为1,需对色调直方图进行归一化处理。
步骤2具体还包括以下步骤:
1)选取追踪目标的位移、速度参数作为Kalman滤波的输出参数,而由于当前帧的目标追踪窗口W完全包含追踪目标做整体平动,故可以以追踪窗口W中心点P的位移、速度表示追踪目标的位移、速度;
2)Kalman滤波通过预估的第k帧(目标追踪窗口Wk)中心点Pk′的位移、速度参数以及观测的第k帧(目标追踪窗口)中心点P″的位移、速度参数相融合以求取最终第k帧(目标追踪窗口Wk)中心点Pk的位移、速度参数Xk=(xk,ykkxky),其中xk,ykkxky分别表示Pk横、纵坐标方向的位移及速度;
3)Kalman滤波通过第k-1帧中心点Pk-1的位移、速度参数以修正Kalman滤波内部的运动模型,再通过此修正过的运动模型以预估第k帧预估的中心点Pk′的位移、速度参数。其中,令匀速直线运动模型为Kalman滤波初始帧中的运动模型;初始帧中Kalman滤波的位移、速度参数为X1=(0,0,υx1y1),υx1与υy1由人工选定;
4)由于第k帧中追踪目标的位置发生了变化,故第k-1帧中的目标追踪窗口Wk-1应用在第k帧中时,很可能无法完全包含整个追踪目标。故为了使目标追踪窗口Wk-1能够完全包含追踪目标,就需要根据公式(1)对其进行扩展:
W k - 1 G x = W k - 1 x - 2 | υ k x | W k - 1 G y = W k - 1 y - 2 | υ k y | W k - 1 G M = W k - 1 M + 2 | υ k x | W k - 1 G N = W k - 1 N + 2 | υ k y | - - - ( 1 )
其中,为Wk-1的扩展窗口,分别为第k帧中扩展窗口左上角的坐标以及其宽度、高度,(Wk-1x,Wk-1y)、Wk-1M、Wk-1N分别为Wk-1左上角的坐标以及其宽度、高度;
5)求取在第k-1帧中检测窗口所得到的特征点以及在第k帧中检测窗口所得到的特征点,通过光流法对这两帧中的特征点进行匹配,以找出相匹配的特征点;
6)由于背景特征点与追踪目标特征点的速度不同,又已知Kalman滤波预估的追踪目标速度参数,故可根据公式(2)排除第k帧中窗口的背景特征点:
2 | υ k x | > p [ k , i , x ] - p [ k - 1 , i , x ] > υ k x / 2 2 | υ k y | > p [ k , i , y ] - p [ k - 1 , i , y ] > υ k y / 2 - - - ( 2 )
其中,p[k-1,i,x]与p[k-1,i,y]分别表示第k-1帧中第i个目标特征点的横、纵坐标值,p[k,i,x]与p[k,i,y]分别表示第k帧中第i个目标特征点的横、纵坐标值。公式(2)在初始帧之后才开始运行。
步骤3具体还包括以下步骤:
在对目标追踪窗口Wk-1进行Meanshift迭代以生成第k帧中Kalman滤波的观测窗口的过程中,为了防止Meanshift方法出现较大误差导致生成的观测窗口最终跟丢追踪目标,需使窗口满足公式(3):
i f ( W ^ k x - W k - 1 x ) 2 + ( W ^ k y - W k - 1 y ) 2 ≥ 10 ( υ k x + υ k y ) W ^ k x = W k - 1 x + υ k x , W ^ k y = W k - 1 y + υ k x e l s e W ^ k x = W ^ k x , W ^ k y = W ^ k y - - - ( 3 )
本发明有如下有益效果:
1、提出并实现了一种跟踪目标与背景色调信息相近或相同情况下的运动目标追踪方法。
2、为了排除与追踪目标颜色信息相同的背景区域的干扰,在传统的Meanshift方法以颜色约束为主的运动目标追踪方法中添加了特征点约束,使追踪方法鲁棒性更强,能够更加稳定、精确的定位追踪目标。
3、在特征点约束中应用了Kalman滤波的预估功能以排除大部分背景特征点的干扰。
附图说明
图1是本发明的方法流程图。
图2是传统Meanshift方法的跟踪效果图。
图3是本发明复杂背景下运动目标追踪方法的跟踪效果图。
具体实施方式
下面结合附图对本发明的实施方式做进一步的说明。
如图2、图3分别为传统Meanshift方法以及本发明复杂背景下运动目标追踪方法的跟踪效果图,故以图2、图3为例对本发明的具体跟踪步骤进行说明:
步骤1:在第150帧(初始帧)中通过机器或人工的方式选取目标追踪窗口W150以将追踪目标完全包含;
步骤2:在第151帧中的追踪目标相对于第150帧中的同一目标位置发生了变化,故目标追踪窗口W150可能无法完全包含此时的追踪目标,此时需要采用Meanshift方法使目标追踪窗口W150进行迭代移动直至其完全包含追踪目标。当目标追踪窗口W150完全包含追踪目标时,其更新为W151
Meanshift方法计算第151帧中目标追踪窗口W150内的色调直方图,并通过色调直方图反投影整个第151帧图像,以寻找整个第151帧图像中与目标追踪窗口区域W150色调信息相似的物体,将这些色调信息相似的物体标记为1,色调信息不相似的物体标记为0,生成反投影图(如图2.a所示),再根据反投影图使目标追踪窗口W150的中心与追踪目标的质心保持一致。本发明的方法也应用了传统Meanshift方法的色调约束,并且为了排除与追踪目标颜色信息相同的背景区域的干扰,在之后的步骤中添加了特征点约束;
步骤3:在本方法中引入Kalman滤波方法以预估第151帧中目标追踪预估窗口的位置,其中,目标追踪预估窗口的位置可以通过其中心点P′151相对于中心点P150的位移、速度参数以代替。
Kalman滤波通过第150帧中目标追踪窗口W150中心点P150的位移、速度参数以修正Kalman滤波内部的运动模型,再通过此修正过的运动模型以预估第151帧中目标追踪预估窗口中心点P′151的位移、速度参数。其中,由于第150帧是初始帧,故其Kalman滤波运动模型为匀速直线运动模型;初始帧中Kalman滤波的位移、速度参数为X150=(0,0,υx150y150)。通过第0-150帧对追踪目标的观测,令υx150=0.5m/s,υy150=0;
步骤4:为了求取第151帧中追踪目标的特征点信息,就需要目标追踪窗口能够完全包含追踪目标,而由步骤2中的陈述可知:在第151帧中的追踪目标相对于第150帧中的同一目标位置发生了变化,故目标追踪窗口W150可能无法完全包含此时的追踪目标。此时就需要通过Kalman滤波预估的位移、速度参数对目标追踪窗口W150进行扩展,使之能够完全包含第151帧中的追踪目标。
计算得预估中心点P′151的位移、速度参数为X′151=(x151,y151151x151y)=(0.5,0,0.5,0),为了使目标追踪窗口W150能够完全包含第151帧中的追踪目标,将X′151代入公式(1)中以对目标追踪窗口W150进行扩展:
W k - 1 G x = W k - 1 x - 2 | υ k x | W k - 1 G y = W k - 1 y - 2 | υ k y | W k - 1 G M = W k - 1 M + 2 | υ k x | W k - 1 G N = W k - 1 N + 2 | υ k y | - - - ( 1 )
其中,为Wk-1的扩展窗口,分别为第151帧中扩展窗口左上角的坐标以及其宽度、高度;(Wk-1x,Wk-1y)、Wk-1M、Wk-1N分别为第150帧中目标追踪窗口左上角的坐标以及其宽度、高度;此时的扩展窗口已完全包含了第151帧中的追踪目标。实际上,通过公式(1)求得的扩展窗口要远大于窗口W150和窗口W151
求取在第150帧中检测窗口(由于第150帧为初始帧,故)所得到的特征点以及在第151帧中检测窗口所得到的特征点,通过光流法对这两帧中的特征点进行匹配,以找出相匹配的特征点,并将这些特征点标记为1,其余像素标记为0。
由于背景特征点与追踪目标特征点的速度不同,又已知Kalman滤波预估的中心点P′151的位移、速度参数,故可根据公式(2)排除第151帧中窗口中的背景特征点:
2 | υ k x | > p [ k , i , x ] - p [ k - 1 , i , x ] > υ k x / 2 2 | υ k y | > p [ k , i , y ] - p [ k - 1 , i , y ] > υ k y / 2 - - - ( 2 )
其中,p[k-1,i,x]与p[k-1,i,y]分别表示第150帧中第i个目标特征点的横、纵坐标值,p[k,i,x]与p[k,i,y]分别表示第151帧中第i个目标特征点的横、纵坐标值。
将排除背景特征点后剩余的追踪目标特征点通过二值化、膨胀处理等方式生成追踪目标特征点信息图;
步骤5:结合步骤2中的色调反投影图与步骤2中的特征点信息图做逻辑与运算,即令两图中同标记为1的像素点标记值不变,即仍旧标记为1,其余像素点标记为0,以此生成新的反投影图(如图3.a所示)。
根据新的反投影图对目标追踪窗口W150进行Meanshift迭代,直至目标追踪窗口W150运动至完全捕捉到追踪目标的位置,此时的目标追踪窗口W150即为第151帧中Kalman滤波的观测窗口将预估窗口与观测窗口根据一定的权重进行融合,即可得到Kalman滤波的状态窗口,亦即第151帧中的目标追踪窗口W151
在对目标追踪窗口W150进行Meanshift迭代以生成第151帧中Kalman滤波的观测窗口的过程中,为了防止Meanshift方法出现较大误差导致生成的观测窗口最终跟丢追踪目标,需使窗口满足公式(3):
i f ( W ^ k x - W k - 1 x ) 2 + ( W ^ k y - W k - 1 y ) 2 ≥ 10 ( υ k x + υ k y ) W ^ k x = W k - 1 x + υ k x , W ^ k y = W k - 1 y + υ k x e l s e W ^ k x = W ^ k x , W ^ k y = W ^ k y - - - ( 3 )
此时公式(3)中的即为
将第151帧目标追踪窗口W151应用于第152帧的目标追踪过程中,重复步骤1至步骤5,直至追踪视频结束。
通过上述的说明内容,本领域技术人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改都在本发明的保护范围之内。本发明的未尽事宜,属于本领域技术人员的公知常识。

Claims (4)

1.一种复杂背景下的运动目标追踪方法,其特征在于,包括以下步骤:
步骤1:提取追踪目标的色调信息,包括:
步骤1.1:在跟踪开始时,在初始帧中需要通过机器或人工的方式辅助框选运动目标初始追踪窗口W1,并要求W1能将运动目标完全包含在窗内且窗口大小尽量与目标在初始帧图像中的大小相等;
步骤1.2:在后续跟踪的过程中,应用前一帧(设为k-1帧)中的运动目标窗口Wk-1“覆盖”在第k帧图像中的同样位置,并在“覆盖”位置处统计窗口内的色调直方图;
步骤1.3:基于统计出的色调直方图对第k帧图像反投影,生成反投影图以寻找第k帧图像中与Wk-1色调信息相似的物体,将这些色调信息相似的物体标记为1,色调信息不相似的物体标记为0;
步骤2:追踪目标的特征点信息提取,包括:
步骤2.1:通过Kalman滤波预估第k帧目标追踪窗口的位置,并根据与Wk-1的相对位置以计算并预估追踪目标的位移、速度等参数;再根据预估参数扩展第k帧中的目标追踪窗口Wk-1,获得第k帧中被扩展目标的追踪窗口
步骤2.2:进一步提取中目标角点、边缘点等强特征点,标记为1,并将剩余的追踪目标特征点通过二值化、膨胀处理等方式以生成追踪目标特征点信息图
步骤3:复杂背景下的运动目标追踪,包括:
步骤3.1:将步骤1中的色调反投影图与步骤2中的特征点信息图做逻辑与运算,结果使两图中同标记为1的像素点标记值仍为1,其余像素点标记为0,则生成了新的反投影图;
步骤3.2:根据新的反投影图对目标追踪窗口Wk-1进行Meanshift迭代,直至目标追踪窗口Wk-1运动至完全捕捉到追踪目标的位置,此时的目标追踪窗口即为第k帧中Kalman滤波的观测窗口将预估窗口与观测窗口根据一定的权重进行融合,即可得到Kalman滤波的状态窗口,即第k帧中的目标追踪窗口Wk
步骤3.3:将第k帧目标追踪窗口Wk应用于第k+1帧的目标追踪过程中,重复步骤1至步骤3,依此类推,直至追踪视频结束。
2.根据权利要求1所述的一种复杂背景下的运动目标追踪方法,其特征在于,步骤1具体还包括以下步骤:
1)在计算目标追踪窗口内的色调直方图的过程中,为防止变化光照的干扰,只统计窗口内饱和度值大于65且亮度值处于[50 255]区间的像素点的色调值;
2)为了使色调直方图的面积和为1,需对色调直方图进行归一化处理。
3.根据权利要求1所述的一种复杂背景下的运动目标追踪方法,其特征在于,步骤2具体还包括以下步骤:
1)选取追踪目标的位移、速度参数作为Kalman滤波的输出参数,而由于当前帧的目标追踪窗口W完全包含追踪目标做整体平动,故可以以追踪窗口W中心点P的位移、速度表示追踪目标的位移、速度;
2)Kalman滤波通过预估的第k帧(目标追踪窗口Wk)中心点P′k的位移、速度参数以及观测的第k帧(目标追踪窗口)中心点P″的位移、速度参数相融合以求取最终第k帧(目标追踪窗口Wk)中心点Pk的位移、速度参数Xk=(xk,ykkxky),其中xk,ykkxky分别表示中心点Pk在横、纵坐标方向的位移及速度;
3)Kalman滤波通过第k-1帧中心点Pk-1的位移、速度参数以修正Kalman滤波内部的运动模型,再通过此修正过的运动模型以预估第k帧预估的中心点P′k的位移、速度参数。其中,令匀速直线运动模型为Kalman滤波初始帧中的运动模型;初始帧中Kalman滤波的位移、速度参数为X1=(0,0,υx1y1),υx1与υy1由人工选定;
4)由于第k帧中追踪目标的位置发生了变化,故第k-1帧中的目标追踪窗口Wk-1应用在第k帧中时,很可能无法完全包含整个追踪目标。故为了使目标追踪窗口Wk-1能够完全包含追踪目标,就需要根据公式(1)对其进行扩展:
W k - 1 G x = W k - 1 x - 2 | υ k x | W k - 1 G y = W k - 1 y - 2 | υ k y | W k - 1 G M = W k - 1 M + 2 | υ k x | W k - 1 G N = W k - 1 N + 2 | υ k y | - - - ( 1 )
其中,为Wk-1的扩展窗口,分别为第k帧中扩展窗口左上角的坐标以及其宽度、高度,(Wk-1x,Wk-1y)、Wk-1M、Wk-1N分别为Wk-1左上角的坐标以及其宽度、高度;
5)求取在第k-1帧中检测窗口所得到的特征点以及在第k帧中检测窗口所得到的特征点,通过光流法对这两帧中的特征点进行匹配,以找出相匹配的特征点;
6)由于背景特征点与追踪目标特征点的速度不同,又已知Kalman滤波预估的追踪目标速度参数,故可根据公式(2)排除第k帧中窗口的背景特征点:
2 | υ k x | > p [ k , i , x ] - p [ k - 1 , i , x ] > υ k x / 2 2 | υ k y | > p [ k , i , y ] - p [ k - 1 , i , y ] > υ k y / 2 - - - ( 2 )
其中,p[k-1,i,x]与p[k-1,i,y]分别表示第k-1帧中第i个目标特征点的横、纵坐标值,p[k,i,x]与p[k,i,y]分别表示第k帧中第i个目标特征点的横、纵坐标值。公式(2)在初始帧之后才开始运行。
4.根据权利要求1所述的一种复杂背景下的运动目标追踪方法,其特征在于:步骤3具体还包括以下步骤:
在对目标追踪窗口Wk-1进行Meanshift迭代以生成第k帧中Kalman滤波的观测窗口的过程中,为了防止Meanshift方法出现较大误差导致生成的观测窗口最终跟丢追踪目标,需使窗口满足公式(3):
i f ( W ^ k x - W k - 1 x ) 2 + ( W ^ k y - W k - 1 y ) 2 ≥ 10 ( υ k x + υ k y ) W ^ k x = W k - 1 x + υ k x , W ^ k y = W k - 1 y + υ k x e l s e W ^ k x = W ^ k x , W ^ k y = W ^ k y - - - ( 3 )
CN201610619343.5A 2016-08-01 2016-08-01 一种复杂背景下的运动目标追踪方法 Active CN106296732B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610619343.5A CN106296732B (zh) 2016-08-01 2016-08-01 一种复杂背景下的运动目标追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610619343.5A CN106296732B (zh) 2016-08-01 2016-08-01 一种复杂背景下的运动目标追踪方法

Publications (2)

Publication Number Publication Date
CN106296732A true CN106296732A (zh) 2017-01-04
CN106296732B CN106296732B (zh) 2019-04-30

Family

ID=57663747

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610619343.5A Active CN106296732B (zh) 2016-08-01 2016-08-01 一种复杂背景下的运动目标追踪方法

Country Status (1)

Country Link
CN (1) CN106296732B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106959101A (zh) * 2017-03-17 2017-07-18 哈尔滨工业大学 一种基于光流法的室内定位方法
CN107808393A (zh) * 2017-09-28 2018-03-16 中冶华天南京电气工程技术有限公司 智能视频监控领域中具有抗干扰性的目标跟踪方法
CN109581356A (zh) * 2019-01-04 2019-04-05 北京理工大学 一种常值机动空间目标的约束滤波追踪方法
CN110458862A (zh) * 2019-05-22 2019-11-15 西安邮电大学 一种遮挡背景下的运动目标跟踪方法
CN110533693A (zh) * 2019-08-29 2019-12-03 北京精英路通科技有限公司 一种目标跟踪方法及目标跟踪装置
CN116468751A (zh) * 2023-04-25 2023-07-21 北京拙河科技有限公司 一种高速动态图像检测方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150740A (zh) * 2013-03-29 2013-06-12 上海理工大学 一种基于视频的运动目标跟踪方法和系统
CN104134222A (zh) * 2014-07-09 2014-11-05 郑州大学 基于多特征融合的车流监控图像检测和跟踪系统及方法
CN104951758A (zh) * 2015-06-11 2015-09-30 大连理工大学 市区环境下基于视觉的车载行人检测与跟踪方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150740A (zh) * 2013-03-29 2013-06-12 上海理工大学 一种基于视频的运动目标跟踪方法和系统
CN104134222A (zh) * 2014-07-09 2014-11-05 郑州大学 基于多特征融合的车流监控图像检测和跟踪系统及方法
CN104951758A (zh) * 2015-06-11 2015-09-30 大连理工大学 市区环境下基于视觉的车载行人检测与跟踪方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CAIFENG SHAN ET AL.: "Real Time Hand Tracking by Combining Particle Filtering and Mean Shift", 《PROCEEDINGS OF THE SIXTH IEEE INTERNATIONAL CONFERENCE ON AUTOMATIC FACE AND GESTURE RECOGNITION》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106959101A (zh) * 2017-03-17 2017-07-18 哈尔滨工业大学 一种基于光流法的室内定位方法
CN106959101B (zh) * 2017-03-17 2019-04-09 哈尔滨工业大学 一种基于光流法的室内定位方法
CN107808393A (zh) * 2017-09-28 2018-03-16 中冶华天南京电气工程技术有限公司 智能视频监控领域中具有抗干扰性的目标跟踪方法
CN107808393B (zh) * 2017-09-28 2021-07-23 中冶华天南京电气工程技术有限公司 智能视频监控领域中具有抗干扰性的目标跟踪方法
CN109581356A (zh) * 2019-01-04 2019-04-05 北京理工大学 一种常值机动空间目标的约束滤波追踪方法
CN109581356B (zh) * 2019-01-04 2020-07-10 北京理工大学 一种常值机动空间目标的约束滤波追踪方法
CN110458862A (zh) * 2019-05-22 2019-11-15 西安邮电大学 一种遮挡背景下的运动目标跟踪方法
CN110533693A (zh) * 2019-08-29 2019-12-03 北京精英路通科技有限公司 一种目标跟踪方法及目标跟踪装置
CN116468751A (zh) * 2023-04-25 2023-07-21 北京拙河科技有限公司 一种高速动态图像检测方法及装置

Also Published As

Publication number Publication date
CN106296732B (zh) 2019-04-30

Similar Documents

Publication Publication Date Title
CN106296732A (zh) 一种复杂背景下的运动目标追踪方法
Pfeiffer et al. Exploiting the power of stereo confidences
Kastrinaki et al. A survey of video processing techniques for traffic applications
CN103106667B (zh) 一种面向遮挡和场景变换的运动对象追踪方法
CN108981672A (zh) 基于单目机器人与测距传感器结合的舱门实时定位方法
CN108198201A (zh) 一种多目标跟踪方法、终端设备及存储介质
CN110688905B (zh) 一种基于关键帧的三维物体检测与跟踪方法
CN110390292A (zh) 基于动态关联模型的遥感视频车辆目标检测与跟踪方法
CN105261037A (zh) 一种自适应复杂场景的运动目标检测方法
CN103729861B (zh) 一种多目标跟踪方法
CN103218827B (zh) 基于形状传递联合分割和图匹配校正的轮廓跟踪方法
Lin et al. Detecting moving objects using a camera on a moving platform
CN105488811A (zh) 一种基于深度梯度的目标跟踪方法与系统
CN107403439A (zh) 基于Cam‑shift的预测跟踪方法
AU2021255130B2 (en) Artificial intelligence and computer vision powered driving-performance assessment
CN110136174B (zh) 一种目标对象跟踪方法和装置
CN104200492A (zh) 基于轨迹约束的航拍视频目标自动检测跟踪方法
Bell et al. Accurate vehicle speed estimation from monocular camera footage
CN104866853A (zh) 一种足球比赛视频中的多运动员的行为特征提取方法
CN110555867B (zh) 一种融合物体捕获识别技术的多目标物体跟踪方法
Li et al. Moving object detection in dynamic scenes based on optical flow and superpixels
Omar et al. Detection and localization of traffic lights using YOLOv3 and Stereo Vision
Patel et al. Comparison of optical flow algorithms for speed determination of moving objects
Wedel et al. Warpcut–fast obstacle segmentation in monocular video
Cigla et al. Gaussian mixture models for temporal depth fusion

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant