CN102646279B - 一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法 - Google Patents

一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法 Download PDF

Info

Publication number
CN102646279B
CN102646279B CN201210050644.2A CN201210050644A CN102646279B CN 102646279 B CN102646279 B CN 102646279B CN 201210050644 A CN201210050644 A CN 201210050644A CN 102646279 B CN102646279 B CN 102646279B
Authority
CN
China
Prior art keywords
target
sub
block
template
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210050644.2A
Other languages
English (en)
Other versions
CN102646279A (zh
Inventor
赵龙
肖军波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201210050644.2A priority Critical patent/CN102646279B/zh
Publication of CN102646279A publication Critical patent/CN102646279A/zh
Application granted granted Critical
Publication of CN102646279B publication Critical patent/CN102646279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明提供一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法,具体实现步骤为:首先采用改进的目标遮挡判定准则,判断出当前运动目标是否处于静态遮挡情况;其次,按照运动目标大小对目标的灰度前景模板进行自适应分块,将每个子块在搜索区域内进行遍历匹配以获得各自的运动位移量;然后,通过对每个子块的位移量进行加权表决来获取目标的真实位置;最后按照每个子块的表决结果来自适应更新模板。当目标完全被遮挡后,通过卡尔曼模型来准确预测目标的运动轨迹;当目标重新复现时,采用多子块模板匹配方法依然能够重新跟踪上新目标。本发明该方法能够实现运动目标在静态背景遮挡情况下的稳定跟踪。

Description

一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法
技术领域
本发明涉及运动目标跟踪技术领域,特别涉及一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法,适用于视频图像运动目标在静态背景遮挡下的跟踪。
背景技术
运动目标跟踪技术是计算机视觉领域的核心课题之一,具有十分重要的意义和广泛的实用价值。它融合了图像处理、模式识别、人工智能、自动控制以及计算机应用等相关领域的先进技术和研究成果。运动目标跟踪的实质是一种从图像信号中实时自动识别目标,提取目标的位置信息,自动跟踪目标的技术。它的难点在于图像信号采集过程中的信息损失和复杂的应用环境,特别是目标在运动过程中经常被场景中的其它物体遮挡,遮挡导致了部分固有特征的丢失,新特征的产生,这给目标识别和定位带来很大的困难。因此,跟踪过程中的遮挡问题成为限制跟踪算法实用性的关键因素。在图像图形识别中,传统的识别方法通常无法对该类物体进行识别。近年来,基于多子块模板匹配的方法开始被应用于遮挡情况下的目标跟踪,该方法通过对所有目标子块的运动位移量表决来获得目标在遮挡时的真实位置。为解决目标模板更新问题和目标在完全遮挡及重新复现时的跟踪问题,本发明构造了一种改进的运动目标抗遮挡跟踪方法,利用更加准确的遮挡判定准则,通过使目标在遮挡时的模板进行自适应更新,运用卡尔曼模型预测目标在完全遮挡时的运动轨迹,再使用多子模板匹配方法完成目标在遮挡复现时的跟踪。
本发明中提到的一种改进的复杂背景下的运动目标抗遮挡跟踪方法,通过判断目标是否被静态背景遮挡,根据目标大小来自适应分割目标模板子块并在搜索区域内进行遍历匹配,得到各子块的运动位移量后根据匹配成功率来自适应更新目标模板,进而利用Kalman预测滤波和多子块模板匹配方法实现运动目标的抗遮挡跟踪。
本发明与其它运动目标抗遮挡跟踪方法不同在于:本发明通过改进目标遮挡判断准则,克服了现有跟踪方法中因场景颜色与运动目标颜色相近引起的遮挡漏判;利用基于加权累积的子块表决方法,有效减少了现有跟踪方法中因单峰表决值而带来的表决误差;采用改进后的模板更新和多字块模板相关匹配算法实现了目标遮挡目标复现后的可靠接力跟踪。
发明内容
本发明要解决的技术问题是:克服现有的运动目标抗静态遮挡跟踪方法的不能连续可靠跟踪的问题,提出一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法。
本发明采用的技术方案为:一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法,该方法包括如下步骤:
步骤(1)、判断目标是否被静态背景遮挡;
步骤(2)、根据目标大小来自适应分割目标模板子块,并将所有子块在搜索区域内进行遍历匹配,得到各自的运动位移量;
步骤(3)、对所有子块的位移量进行加权表决得到目标的真实位置,并根据各子块的匹配成功率来自适应更新目标模板;
步骤(4)、利用目标的匹配位置信息更新Kalman滤波模型,当目标完全被遮挡时采用预测信息作为真实值,当目标复现时采用多子块模板匹配方法进行接力跟踪。
其中,所述步骤(1)中判断目标是否被静态背景遮挡的具体步骤为:
步骤A1、计算两个目标的Bhattacharyya系数:
d B ( H 1 , H 2 ) = 1 - Σ 0 L - 1 H 1 ( k ) · H 2 ( k ) - - - ( 1 )
式中,H1和H2分别为前后两帧中目标灰度模板规一化后直方图;L为直方图划分的颜色区间数量;
步骤A2、计算目标在第t帧与第t-1帧的像素面积之比γs
步骤A3、计算目标在第t帧与第t-1帧的有效前景点数之比
步骤A4、若目标满足以下条件,则判定其被静态背景遮挡:
式中,TB为Bhattacharyya系数的阈值,TB∈(0,1)。
其中,所述步骤(2)中根据目标大小来自适应分割目标模板子块,并将所有子块在搜索区域内进行遍历匹配得到各自的运动位移量的具体步骤为:
步骤B1、根据目标宽高(w,h),自适应分配模板子块边长l为:
l = 1 8 min ( w , h ) , ifw > 24 andh > 24 2 , otherwise - - - ( 3 )
步骤B2、将每个目标模板子块放到历史目标的前景灰度图中进行搜索匹配,拟定的初始搜索区域是以子块的质心位置(xc,yc)为中心的5w×5h邻域,水平和垂直方向的搜索次数tx和ty,由搜索区域和步长共同决定:
t x = 5 w - l + 1 Δx t y = 5 h - l + 1 Δy - - - ( 4 )
式中,Δx和Δy为搜索步长,步长越小,精度越高;
步骤B3、采用差值平方和作为匹配指标,将子块按搜索步长滑动遍历整个搜索区域,找出最小差值平方和所在的坐标为匹配点位置为:
F ( x , y ) = Σ u = 0 l Σ v = 0 l ( I * ( u , v ) - I t - 1 ( x + u , y + v ) ) 2 ( t 1 , t 2 ) = arg min ( i , j ) Σ i = 0 t x Σ j = 0 t y F ( m + Δx · i , n + Δy · j ) ( dx , dy ) = ( Δx · t 1 , Δx · t 2 ) - - - ( 5 )
式中,(u,v)为子块内某一点坐标;I*(u,v)为该点的前景灰度值;(m,n)表示搜索窗左上角原点的坐标;(t1,t2)表示最小差值平方和所在的搜索次数;(dx,dy)为子块的运动位移量。
其中,所述步骤(3)中对所有子块的位移量进行加权表决获取目标的真实位置,并根据各子块的匹配情况来自适应更新目标模板的具体步骤为:
步骤C1、在包含N个目标子块的运动位移量集{dxi,dyi},i=1,...,N中,统计每个位移量的票数,通过选出票数最高的三项位移量{d1,d2,d3},计算出该三项最高票数的总额,根据每位票数所占总额的权重βi进行累加求和,得到一个加权后的运动位移量和目标的真实位置为:
d ‾ = Σ i = 1 3 d i · β i - - - ( 6 )
x t = x t - 1 + d x ‾ y t = y t - 1 + d y ‾ - - - ( 7 )
步骤C2、采用低通滤波器对每个历史目标子块灰度进行自适应加权更新:
I t + 1 = λp max b t + ( 1 - λp max ) I t , if p max > T p I t , otherwise - - - ( 8 )
式中,It为子块的灰度值;bt为子块匹配上的灰度值;pmax为最高票数所占的票数比率;λ为子块更新率。
其中,所述步骤(4)中利用目标的匹配位置信息更新Kalman滤波模型,当目标完全被遮挡时采用预测信息作为真实值,当目标复现时采用多子模板匹配方法进行接力跟踪的具体步骤为:
步骤D1、根据目标在当前帧的质心坐标(x,y)、矩形宽高(w,h)和瞬时速度(vx,vy)等信息,构造Kalman滤波模型为:
X(k)=[x(k),y(k),w(k),h(k),vx(k),vx(k)]    (9)
Z(k)=[x(k),y(k),w(k),h(k)]T                 (10)
步骤D2、将目标匹配位置作为Kalman滤波模型的观测值,获得目标在下一帧的预测位置;
步骤D3、当目标在预测邻域内未检测出新目标时,认为该目标已被完全遮挡,此时完全依靠Kalman滤波预测模型对目标运动轨迹进行预测跟踪;
步骤D4、当目标离开遮挡区域被重新检测出来时,根据重现目标的感兴趣区域ROI定位规则,由新目标的运动速度vx和vy来确定历史目标原始模板的ROI位置和尺寸,并计算模板灰度前景Ft,进而计算Ft与新目标灰度前景Fc的Bhattacharyya系数dB,当满足dB<TB,则认为目标匹配上,用新目标的运动信息对历史目标进行更新。
本发明与现有技术相比的优点在于:
1、本发明通过改进目标遮挡判断准则,能够避免当场景颜色与运动目标颜色相近时的遮挡漏判;
2、本发明基于加权累积的子块表决方法,能够有效减少因单峰表决值而带来的表决误差,采用一种改进的模板更新机制,可以让遮挡目标根据子块表决情况进行自适应更新,实现运动的可靠接力跟踪。
附图说明
图1为本发明的一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法的流程图;
图2为本发明的一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法的目标模板子块选取示意图;
图3为本发明的一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法的遮挡目标匹配过程;
图4为本发明的一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法的目标抗遮挡跟踪效果图。
具体实施方式
下面结合附图和具体实施方式对本发明进一步说明,如图1所示,本发明一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法的具体实现步骤如下:
步骤(1)、判断目标是否被静态背景遮挡:
步骤A1、计算两个目标的Bhattacharyya系数:
d B ( H 1 , H 2 ) = 1 - Σ 0 L - 1 H 1 ( k ) · H 2 ( k ) - - - ( 1 )
式中,H1和H2分别为前后两帧中目标灰度模板规一化后直方图;L为直方图划分的颜色区间数量;
步骤A2、计算目标在第t帧与第t-1帧的像素面积之比γs
步骤A3、计算目标在第t帧与第t-1帧的有效前景点数之比
步骤A4、若目标满足以下条件,则判定其被静态背景遮挡:
式中,TB为Bhattacharyya系数的阈值,TB∈(0,1)。
步骤(2)、根据目标大小来自适应分割目标模板子块,并将所有子块在搜索区域内进行遍历匹配得到各自的运动位移量的具体步骤为:
步骤B1、根据目标宽高(w,h),自适应分配模板子块边长l为:
l = 1 8 min ( w , h ) , ifw > 24 andh > 24 2 , otherwise - - - ( 3 )
步骤B2、将每个目标模板子块放到历史目标的前景灰度图中进行搜索匹配,拟定的初始搜索区域是以子块的质心位置(xc,yc)为中心的5w×5h邻域,水平和垂直方向的搜索次数tx和ty,由搜索区域和步长共同决定:
t x = 5 w - l + 1 Δx t y = 5 h - l + 1 Δy - - - ( 4 )
式中,Δx和Δy为搜索步长,步长越小,精度越高。
步骤B3、采用差值平方和作为匹配指标,将子块按搜索步长滑动遍历整个搜索区域,找出最小差值平方和所在的坐标为匹配点位置为:
F ( x , y ) = Σ u = 0 l Σ v = 0 l ( I * ( u , v ) - I t - 1 ( x + u , y + v ) ) 2 ( t 1 , t 2 ) = arg min ( i , j ) Σ i = 0 t x Σ j = 0 t y F ( m + Δx · i , n + Δy · j ) ( dx , dy ) = ( Δx · t 1 , Δx · t 2 ) - - - ( 5 )
式中,(u,v)为子块内某一点坐标;I*(u,v)为该点的前景灰度值;(m,n)表示搜索窗左上角原点的坐标;(t1,t2)表示最小差值平方和所在的搜索次数;(dx,dy)为子块的运动位移量。如图2和3所示的示意性示例。
步骤(3)、对所有子块的位移量进行加权表决获取目标的真实位置,并根据各子块的匹配情况来自适应更新目标模板的具体步骤为:
步骤C1、在包含N个目标子块的运动位移量集{dxi,dyi},i=1,...,N中,统计每个位移量的票数,通过选出票数最高的三项位移量{d1,d2,d3},计算出该三项最高票数的总额,根据每位票数所占总额的权重βi进行累加求和,得到一个加权后的运动位移量和目标的真实位置为:
d ‾ = Σ i = 1 3 d i · β i - - - ( 6 )
x t = x t - 1 + d x ‾ y t = y t - 1 + d y ‾ - - - ( 7 )
步骤C2、采用低通滤波器对每个历史目标子块灰度进行自适应加权更新:
I t + 1 = λp max b t + ( 1 - λp max ) I t , if p max > T p I t , otherwise - - - ( 8 )
式中,It为子块的灰度值;bt为子块匹配上的灰度值;pmax为最高票数所占的票数比率;λ为子块更新率,取值范围为(0.0,0.3]。
步骤(4)、利用目标的匹配位置信息更新Kalman滤波模型,当目标完全被遮挡时采用预测信息作为真实值,当目标复现时采用多子模板匹配方法进行接力跟踪的具体步骤为:
步骤D1、根据目标在当前帧的质心坐标(x,y)、矩形宽高(w,h)和瞬时速度(vx,vy)等信息,构造Kalman滤波模型为:
X(k)=[x(k),y(k),w(k),h(k),vx(k),vx(k)]  (9)
Z(k)=[x(k),y(k),w(k),h(k)]T               (10)
步骤D2、将目标匹配位置作为Kalman滤波模型的观测值,获得目标在下一帧的预测位置;
步骤D3、当目标在预测邻域内未检测出新目标时,认为该目标已被完全遮挡,此时完全依靠Kalman滤波预测模型对目标运动轨迹进行预测跟踪。
步骤D4、当目标离开遮挡区域被重新检测出来时,根据重现目标的感兴趣区域ROI定位规则,由新目标的运动速度vx和vy来确定历史目标原始模板的ROI位置和尺寸,并计算模板灰度前景Ft,进而计算Ft与新目标灰度前景Fc的Bhattacharyya系数dB,当满足dB<TB,则认为目标匹配上,用新目标的运动信息对历史目标进行更新。其中,重现目标的感兴趣区域ROI定位规则的示例可如表1所示。
表1.重现目标的ROI定位规则
  vx   vy   ROI
  →   ↓   bottom-right
  →   ↑   top-right
  ←   ↓   bottom-left
  ←   ↑   top-left

Claims (1)

1.一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法,其特征在于:该方法包括如下步骤:
步骤(1)、判断目标是否被静态背景遮挡;
所述步骤(1)中判断目标是否被静态背景遮挡的具体步骤为:
步骤A1、计算两个目标的Bhattacharyya系数:
d B ( H 1 , H 2 ) = 1 - Σ 0 L - 1 H 1 ( k ) · H 2 ( k ) - - - ( 1 )
式中,H1和H2分别为前后两帧中目标灰度模板规一化后直方图;L为直方图划分的颜色区间数量;
步骤A2、计算目标在第t帧与第t-1帧的像素面积之比γs
步骤A3、计算目标在第t帧与第t-1帧的有效前景点数之比
步骤A4、若目标满足以下条件,则判定其被静态背景遮挡:
式中,TB为Bhattacharyya系数的阈值,TB∈(0,1);
当目标被部分遮挡时,采用后续的步骤(2)和步骤(3)实现目标跟踪;当目标被完全遮挡时,采用后续的步骤(4)实现目标跟踪;
步骤(2)、根据目标大小来自适应分割目标模板子块,并将所有子块在搜索区域内进行遍历匹配,得到各自的运动位移量;
所述步骤(2)中根据目标大小来自适应分割目标模板子块,并将所有子块在搜索区域内进行遍历匹配得到各自的运动位移量的具体步骤为:
步骤B1、根据目标宽高(w,h),自适应分配模板子块边长l为:
l = 1 8 min ( w , h ) , ifw > 24 andh > 24 2 , otherwise - - - ( 3 )
步骤B2、将每个目标模板子块放到历史目标的前景灰度图中进行搜索匹配,拟定的初始搜索区域是以子块的质心位置(xc,yc)为中心的5w×5h邻域,水平和垂直方向的搜索次数tx和ty,由搜索区域和步长共同决定:
t x = 5 w - l + 1 Δx t y = 5 h - l + 1 Δy - - - ( 4 )
式中,Δx和Δy为搜索步长,步长越小,精度越高;
步骤B3、采用差值平方和作为匹配指标,将子块按搜索步长滑动遍历整个搜索区域,找出最小差值平方和所在的坐标为匹配点位置为:
F ( x , y ) = Σ u = 0 l Σ v = 0 l ( I * ( u , v ) - I t - 1 ( x + u , y + v ) ) 2 ( t 1 , t 2 ) = arg min ( i , j ) Σ i = 0 t x Σ j = 0 t y F ( m + Δx · i , n + Δy · j ) ( dx , dy ) = ( Δx · t 1 , Δx · t 2 ) - - - ( 5 )
式中,(u,v)为子块内某一点坐标;I*(u,v)为该点的前景灰度值;(m,n)表示搜索窗左上角原点的坐标;(t1,t2)表示最小差值平方和所在的搜索次数;(dx,dy)为子块的运动位移量;
步骤(3)、对所有子块的位移量进行加权表决得到目标的真实位置,并根据各子块的匹配成功率来自适应更新目标模板;
所述步骤(3)中对所有子块的位移量进行加权表决获取目标的真实位置,并根据各子块的匹配情况来自适应更新目标模板的具体步骤为:
步骤C1、在包含N个目标子块的运动位移量集{dxi,dyi},i=1,…,N中,统计每个位移量的票数,通过选出票数最高的三项位移量{d1,d2,d3},计算出该三项最高票数的总额,根据每位票数所占总额的权重βi进行累加求和,得到一个加权后的运动位移量和目标的真实位置为:
d ‾ = Σ i = 1 3 d i · β i - - - ( 6 )
x t = x t - 1 + d x ‾ y t = y t - 1 + d y ‾ - - - ( 7 )
步骤C2、采用低通滤波器对每个历史目标子块灰度进行自适应加权更新:
I t + 1 = λp max b t + ( 1 - λp max ) I t , if p max > T p I t , otherwise - - - ( 8 )
式中,It为子块的灰度值;bt为子块匹配上的灰度值;pmax为最高票数所占的票数比率;λ为子块更新率;
步骤(4)、利用目标的匹配位置信息更新Kalman滤波模型,当目标完全被遮挡时采用预测信息作为真实值,当目标复现时采用多子块模板匹配方法进行接力跟踪;
所述步骤(4)中利用目标的匹配位置信息更新Kalman滤波模型,当目标完全被遮挡时采用预测信息作为真实值,当目标复现时采用多子模板匹配方法进行接力跟踪的具体步骤为:
步骤D1、根据目标在当前帧的质心坐标(x,y)、矩形宽高(w,h)和瞬时速度(vx,vy)信息,构造Kalman滤波模型为:
X(k)=[x(k),y(k),w(k),h(k),vx(k),vy(k)] (9)
Z(k)=[x(k),y(k),w(k),h(k)]T   (10)
步骤D2、将目标匹配位置作为Kalman滤波模型的观测值,获得目标在下一帧的预测位置;
步骤D3、当目标在预测邻域内未检测出新目标时,认为该目标已被完全遮挡,此时完全依靠Kalman滤波预测模型对目标运动轨迹进行预测跟踪;
步骤D4、当目标离开遮挡区域被重新检测出来时,根据重现目标的感兴趣区域ROI定位规则,由新目标的运动速度vx和vy来确定历史目标原始模板的ROI位置和尺寸,并计算模板灰度前景Ft,进而计算Ft与新目标灰度前景Fc的Bhattacharyya系数dB,当满足dB<TB,则认为目标匹配上,用新目标的运动信息对历史目标进行更新。
CN201210050644.2A 2012-02-29 2012-02-29 一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法 Active CN102646279B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210050644.2A CN102646279B (zh) 2012-02-29 2012-02-29 一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210050644.2A CN102646279B (zh) 2012-02-29 2012-02-29 一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法

Publications (2)

Publication Number Publication Date
CN102646279A CN102646279A (zh) 2012-08-22
CN102646279B true CN102646279B (zh) 2015-03-11

Family

ID=46659091

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210050644.2A Active CN102646279B (zh) 2012-02-29 2012-02-29 一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法

Country Status (1)

Country Link
CN (1) CN102646279B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103281476A (zh) * 2013-04-22 2013-09-04 中山大学 基于电视图像运动目标的自动跟踪方法
CN103440667B (zh) * 2013-07-19 2016-08-10 杭州师范大学 一种遮挡状态下运动目标稳定追踪的自动装置
CN104463903B (zh) * 2014-06-24 2017-12-05 中海网络科技股份有限公司 一种基于目标行为分析的行人图像实时检测方法
CN104166840A (zh) * 2014-07-22 2014-11-26 厦门亿联网络技术股份有限公司 一种基于视频会议系统的聚焦实现方法
CN105447845B (zh) * 2014-08-25 2019-01-15 联想(北京)有限公司 一种数据处理方法及电子设备
CN104200494B (zh) * 2014-09-10 2017-05-17 北京航空航天大学 一种基于光流的实时视觉目标跟踪方法
CN104268865B (zh) * 2014-09-18 2017-06-16 中国人民解放军海军航空工程学院 基于模板匹配的集中式多传感器编队目标跟踪方法
CN104484868B (zh) * 2014-10-08 2017-06-30 浙江工业大学 一种结合模板匹配和图像轮廓的运动目标航拍跟踪方法
CN105761277B (zh) * 2016-02-01 2018-09-14 西安理工大学 一种基于光流的运动目标跟踪方法
CN107358620B (zh) * 2016-05-10 2020-07-10 上海交通大学 基于混成系统的全遮挡行人跟踪方法及其装置
JP6924064B2 (ja) * 2016-06-21 2021-08-25 キヤノン株式会社 画像処理装置およびその制御方法、ならびに撮像装置
CN106296729A (zh) * 2016-07-27 2017-01-04 南京华图信息技术有限公司 一种鲁棒的实时红外成像地面运动目标跟踪方法和系统
CN108073864B (zh) * 2016-11-15 2021-03-09 北京市商汤科技开发有限公司 目标对象检测方法、装置及系统和神经网络结构
CN107452020B (zh) * 2017-08-04 2021-04-06 河北汉光重工有限责任公司 一种自适应模板匹配的抗遮挡跟踪方法
CN107945215B (zh) * 2017-12-14 2021-07-23 湖南华南光电(集团)有限责任公司 高精度红外图像跟踪器及一种目标快速跟踪方法
CN109035295B (zh) * 2018-06-25 2021-01-12 广州杰赛科技股份有限公司 多目标跟踪方法、装置、计算机设备和存储介质
CN109741291B (zh) * 2018-07-23 2020-11-06 义乌市优创知识产权运营有限公司 钢制暖气管除尘激励系统
CN109325453B (zh) * 2018-09-27 2022-03-04 沈阳理工大学 运动目标的模板匹配跟踪方法
CN109741282B (zh) * 2019-01-16 2021-03-12 清华大学 一种基于预估校正的多帧气泡流图像处理方法
CN110503662A (zh) * 2019-07-09 2019-11-26 科大讯飞(苏州)科技有限公司 跟踪方法及相关产品

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100312427B1 (ko) * 1999-12-23 2001-11-03 오길록 비디오 영상에서 템플레이트와 칼만 필터를 이용한 이동물체 추적방법 및 장치
US7831094B2 (en) * 2004-04-27 2010-11-09 Honda Motor Co., Ltd. Simultaneous localization and mapping using multiple view feature descriptors
CN101324956A (zh) * 2008-07-10 2008-12-17 上海交通大学 基于均值漂移的抗遮挡运动目标跟踪方法
CN101853511B (zh) * 2010-05-17 2012-07-11 哈尔滨工程大学 一种抗遮挡目标轨迹预测跟踪方法
CN102214301B (zh) * 2011-07-26 2012-12-19 西南交通大学 自适应运动相关协作多目标跟踪方法

Also Published As

Publication number Publication date
CN102646279A (zh) 2012-08-22

Similar Documents

Publication Publication Date Title
CN102646279B (zh) 一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法
CN105405151B (zh) 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法
CN103268616B (zh) 多特征多传感器的移动机器人运动人体跟踪方法
CN108182413A (zh) 一种矿井移动目标检测与跟踪识别方法
CN106408594A (zh) 基于多伯努利特征协方差的视频多目标跟踪方法
Teizer et al. Personnel tracking on construction sites using video cameras
CN102881022B (zh) 基于在线学习的遮挡目标跟踪方法
CN109685066A (zh) 一种基于深度卷积神经网络的矿井目标检测与识别方法
CN110244715B (zh) 一种基于超宽带技术的多移动机器人高精度协同跟踪方法
CN102289948B (zh) 高速公路场景下一种多特征融合的多车辆视频跟踪方法
CN101577006B (zh) 视频监控中的徘徊检测方法和系统
CN106023244A (zh) 基于最小二乘法轨迹预测及智能避障模型的行人跟踪方法
CN104240266A (zh) 基于颜色-结构特征的目标对象跟踪方法
CN103927764B (zh) 一种结合目标信息和运动估计的车辆跟踪方法
CN104574439A (zh) 一种融合卡尔曼滤波与tld算法的目标跟踪方法
CN101324956A (zh) 基于均值漂移的抗遮挡运动目标跟踪方法
CN101315701B (zh) 运动目标图像分割方法
CN105654139A (zh) 一种采用时间动态表观模型的实时在线多目标跟踪方法
CN104091348A (zh) 融合显著特征和分块模板的多目标跟踪方法
CN106127812B (zh) 一种基于视频监控的客运站非出入口区域的客流统计方法
CN104200485A (zh) 一种面向视频监控的人体跟踪方法
CN101976504B (zh) 一种基于颜色空间信息的多车辆视频跟踪方法
CN107808133A (zh) 基于无人机巡线的油气管道安全监测方法、系统及软件存储器
CN101408983A (zh) 基于粒子滤波和活动轮廓模型的多目标跟踪方法
CN109871599A (zh) 一种无人驾驶车辆运行安全指数评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant