CN103440667B - 一种遮挡状态下运动目标稳定追踪的自动装置 - Google Patents
一种遮挡状态下运动目标稳定追踪的自动装置 Download PDFInfo
- Publication number
- CN103440667B CN103440667B CN201310309725.4A CN201310309725A CN103440667B CN 103440667 B CN103440667 B CN 103440667B CN 201310309725 A CN201310309725 A CN 201310309725A CN 103440667 B CN103440667 B CN 103440667B
- Authority
- CN
- China
- Prior art keywords
- target
- moving
- under
- trail
- occlusion state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明公开了一种遮挡状态下运动目标稳定追踪的自动装置,包括一视频输入设备、一视觉识别系统PC主机、一输入设备和一输出设备。为了提高目标处于遮挡、交互、转向等各种复杂遮挡状态下的跟踪稳定性与实时性,视觉识别系统首先对整个场景中所有目标提取简单的颜色、形状和位置特征建立初始目标匹配,利用目标的运动方向及速率预测下帧中优先搜索区域以加快目标匹配效率,减少运算量。然后对未建立对应关系的遮挡目标采用外观特征模型进行再匹配,并采用基于运动方向变化率机制对外观特征模型进行自适应更新。该系统结构简单、高实时高精度,有效地实现了遮挡状态下运动目标稳定追踪功能。
Description
技术领域
本发明属于电子设备领域,涉及一种遮挡状态下运动目标稳定追踪的自动装置。
背景技术
随着视频监控需求的迅速增长、监控规模的日益扩大,人工监视已远远不能满足监控要求,视频监控系统的“智能化”变得越来越迫切。目标追踪广泛应用在视频监控、视频编码以及军事领域中,如何实现遮挡状态下运动目标稳定追踪,是计算机视觉中一个具有相当挑战性的课。
在运动目标分割后,目标跟踪方法主要分为四个种类:基于区域的跟踪(Region-basedTracking)、基于活动轮廓的跟踪(Active-contour-based Tracking)、基于特征的跟踪(Feature-basedTracking)和基于模型的跟踪(Model-based Tracking)。基于区域的跟踪方法根据运动目标区域的属性变化(比如目标区域的位置、大小等)进行简单快速地跟踪,在很少运动目标的场景下效果很好,但当运动目标出现遮挡时较难持续的正确跟踪。基于活动轮廓的跟踪方法主要根据目标的外形轮廓进行跟踪,相对于基于区域的跟踪方法,轮廓表达有减少计算复杂度的优点,然而轮廓描述正确与否决定了跟踪的精度,而且该方法对跟踪的初始化也非常敏感,以致较难自动启动跟踪。基于特征的跟踪方法主要通过目标区域的全局特征(比如面积、周长等)或局部特征(比如点、线特征等)进行跟踪,该方法能处理部分遮挡下的跟踪问题,其难点是如何确定目标的唯一特征集,若采用特征过多,系统效率将降低,且容易产生错误。基于模型的跟踪方法利用目标模型进行匹配跟踪,能达到较稳定的跟踪效果,但该方法需要事先构造好目标模型,运动分析的精度取决于几何模型的精度,在现实生活中获得运动目标的精确几何模型是非常困难的,并且跟踪过程计算复杂、非常耗时,难以实现实时的运动目标跟踪。因此设计遮挡状态下运动目标稳定追踪方法具有重要的理论研究意义与工程应用价值。
发明内容
本发明提供了一种遮挡状态下运动目标稳定追踪的自动装置。
一种遮挡状态下运动目标稳定追踪的自动装置,包括
一视频输入设备,用于获得视频数据;
一视觉识别系统,核心是具备Intel CPU处理器和DDR内存的PC电脑设备,用于识别与处理视频输入系统获得的视频数据;
一电脑输入设备,用于输入用于控制视觉识别系统的指令;
一电脑输出设备,用于输出视觉识别系统识别处理后的视频数据
所述的视频输入设备为摄像机,通过视频输入接口与PC机相连,用于视频的输入;
所述的输入输出系统包括PC电脑系统的键盘与显示器,用于输入用于控制视觉识别系统的指令和输出视觉识别系统识别处理后的视频数据。
为进行遮挡状态下运动目标稳定追踪,所述的视觉识别系统执行以下步骤:
(1)根据输入的视频序列,对前景运动区域进行分割,通过连通性分析对前景目标区域进行聚类分组,并剔除掉微小型运动目标,同时计算各个目标的外接矩形,记录其左上角和右下角坐标位置以及二维前景像素掩码矩阵;
(2)计算各个运动目标的区域特征,包括全局颜色均值、质心坐标、目标大小以及长宽比特征,并根据相邻两帧图像中相匹配的运动目标之间质心坐标之差计算出该目标的运动方向与速率。
(3)根据上述特征的相对变化值在整个场景中建立初始目标匹配,并利用目标的运动方向及速率,预测下帧中优先搜索区域,以加快目标匹配效率、减少运算量。对未建立对应关系的正进入/正离开/遮挡目标,根据目标遮挡与边界状态信息,采用外观特征模型进行再匹配。该外观特征模型通过目标前景像素颜色灰度统计和二维前景像素掩码矩阵信息,进行目标区域的搜索与匹配,同时根据目标运动方向的变化率自适应更新目标前景像素颜色灰度统计参数。
系统所要提取的运动目标区域特征包括全局颜色均值、质心坐标、目标尺寸、运动方向和运动速率以及长宽比,以下是对这些特征的具体描述:
●CM表示颜色均值,是目标所有像素点颜色的均值。
●AR表示长宽比,AR=H/W,其中H和W分别表示目标外接矩形的长和宽。
●CC表示目标外接矩形的质心坐标。
●OS表示目标尺寸,是目标的像素点个数。
●MD表示运动方向,由两个连续帧中相同目标的质心坐标交叉相乘所得。
●MV表示运动速率,由两个连续帧中相同目标的质心坐标相减所得。
系统使用最小代价准则建立在整个场景中建立相邻帧之间的初始目标匹配,关联表达式Pm,n由相邻两帧中目标m和目标n的特征参数计算得出,如下所示:
Pm,n=aCMm,n+bARm,n+cCCm,n+dOSm,n (1)
其中(a,b,c,d)是预设的权重因子,且a+b+c+d=1。
CMm,n代表在RGB颜色空间中相邻两帧中目标m和目标n的颜色均值差,计算如下:
其中CMR,CMG,CMB分别代表RGB颜色空间中三个通道的颜色均值。
ARm,n是相邻两帧中目标m和目标n的长宽比差值,如下计算:
其中设置ω1=20。
CCm,n是相邻两帧中目标m和目标n的质心坐标差值,如下计算:
其中CCx,CCy分别是目标质心特征CC的x轴分量和y轴分量,Width和Height分别是视频图像在x轴和y轴上的分辨率,MVx,MVy分别是特征MV的x轴分量和y轴分量。
OSm,n是目标m和目标n的质心坐标差值,可由如下公式计算:
若Pm,n是相邻两帧中所有目标计算后的最小值,且Pm,n≤T(其中T是预设的阈值参数),则目标m和目标n是同一目标。系统采用特征的相对差值进行匹配,提高了系统对不同场景的适应能力,同时这些特征计算简单,降低了系统的计算复杂度。
为了加快目标匹配速度,系统利用运动目标的方向及速率,预测下一帧中更好的搜索区域E,表示如下:
E={(x,y)|max(CCx,m-2MVx,0)≤x≤min(Width,CCx,m+3×MVx),max(CCy,m-2MVy,0)≤y≤min(Height,CCy,m+3×MVy)} (6)
其中Width和Height分别是视频图像在x轴和y轴上的分辨率,CCx,CCy分别是目标质心特征CC的x轴分量和y轴分量,MVx,MVy分别是特征MV的x轴分量和y轴分量。
为了处理在初始目标匹配阶段未建立对应关系的正进入/正离开/遮挡目标,系统根据目标遮挡和边界状态信息进行包括全局统计特征的外观特征模型进行再匹配。外观特征模型使用最大概率匹配法寻找连续两帧图像中的匹配目标,关于第t-1帧中较小目标m和第t帧中较大目标n的概率匹配表达式Lm,n如下所示:
其中M[i][j]表示目标m掩码二值图矩阵,Wm和Hm分别表示目标m外接矩形在x方向和y方向的大小,Ms表示目标m大小,u和v分别表示目标m的搜索偏移,其中外观特征匹配概率计算如下::
其中表示第t-1帧目标m中(i,j)点像素值,表示第t帧目标n经过(u,v)坐标偏移后的(i,j)点的像素值,表示目标m中(i,j)点的标准均方差。若Lm,n是较小目标m和下一帧中任一目标进行匹配求得的最大值,且Lm,n≥θ1其中(θ1是预设的阈值参数),则目标m与下一帧中目标n经过(u,v)坐标偏移的区域是同一个目标。
目标匹配完成后,目标m的外观像素灰度特征更新如下:
其中α为外观特征模型更新速率参数。
为了提高目标特征的自适应性,更新速率参数α根据目标运动方向的变化率进行计算:
其中α∈[0.05,0.95]。
(4)通过输出设备输出运动目标追踪结果。
本发明所述的一种遮挡状态下运动目标稳定追踪的自动装置,包括一视频输入设备、一视觉识别系统PC主机、一输入设备和一输出设备。为了提高目标处于遮挡、交互、转向等各种复杂遮挡状态下的跟踪稳定性与实时性,系统首先对整个场景中所有目标提取简单的颜色、形状和位置特征建立初始目标匹配,利用目标的运动方向及速率预测下帧中优先搜索区域以加快目标匹配效率,减少运算量。然后对未建立对应关系的遮挡目标采用外观特征模型进行再匹配,并采用基于运动方向变化率机制对外观特征模型进行自适应更新。该系统结构简单、高实时高精度,有效地实现了遮挡状态下运动目标稳定追踪功能。
附图说明
图1为本发明的一种遮挡状态下运动目标稳定追踪的自动装置的连接示意图,其中:1-视频输入设备,2-视觉识别系统PC主机,3-键盘输入,4-显示器输出,5-监控人员;
图2是本发明的技术方案流程图;
具体实施方式
本发明提供了一种遮挡状态下运动目标稳定追踪的自动装置。
如图1所示,遮挡状态下运动目标稳定追踪的自动装置包括视频输入设备1,视觉识别系统PC机2,键盘输入3、显示器输出4。视觉识别系统2通过对视频输入设备1输入的视频图像进行分析与处理,将运动目标追踪息在显示器输出设备4的显示器显示运动追踪信息,监控人员5通过键盘输入设备3对视觉识别终端2进行输入控制。
本发明提供了遮挡状态下运动目标稳定追踪方法,如图2所示,为进行遮挡状态下运动目标稳定追踪,所述的视觉识别系统执行以下步骤:
(1)根据输入的视频序列,对前景运动区域进行分割,通过连通性分析对前景目标区域进行聚类分组,并剔除掉微小型运动目标,同时计算各个目标的外接矩形,记录其左上角和右下角坐标位置以及二维前景像素掩码矩阵;
(2)计算各个运动目标的区域特征,包括全局颜色均值、质心坐标、目标大小以及长宽比特征,并根据相邻两帧图像中相匹配的运动目标之间质心坐标之差计算出该目标的运动方向与速率。
(3)根据上述特征的相对变化值在整个场景中建立初始目标匹配,并利用目标的运动方向及速率,预测下帧中优先搜索区域,以加快目标匹配效率、减少运算量。对未建立对应关系的正进入/正离开/遮挡目标,根据目标遮挡与边界状态信息,采用外观特征模型进行再匹配。该外观特征模型通过目标前景像素颜色灰度统计和二维前景像素掩码矩阵信息,进行目标区域的搜索与匹配,同时根据目标运动方向的变化率自适应更新目标前景像素颜色灰度统计参数。
系统所要提取的运动目标区域特征包括全局颜色均值、质心坐标、目标尺寸、运动方向和运动速率以及长宽比,以下是对这些特征的具体描述:
●CM表示颜色均值,是目标所有像素点颜色的均值。
●AR表示长宽比,AR=H/W,其中H和W分别表示目标外接矩形的长和宽。
●CC表示目标外接矩形的质心坐标。
●OS表示目标尺寸,是目标的像素点个数。
●MD表示运动方向,由两个连续帧中相同目标的质心坐标交叉相乘所得。
●MV表示运动速率,由两个连续帧中相同目标的质心坐标相减所得。
系统使用最小代价准则建立在整个场景中建立相邻帧之间的初始目标匹配,关联表达式Pm,n由相邻两帧中目标m和目标n的特征参数计算得出,如下所示:
Pm,n=aCMm,n+bARm,n+cCCm,n+dOSm,n (1)
其中(a,b,c,d)是预设的权重因子,且a+b+c+d=1。
CMm,n代表在RGB颜色空间中相邻两帧中目标m和目标n的颜色均值差,计算如下:
其中CMR,CMG,CMB分别代表RGB颜色空间中三个通道的颜色均值。
ARm,n是相邻两帧中目标m和目标n的长宽比差值,如下计算:
其中设置ω1=20。
CCm,n是相邻两帧中目标m和目标n的质心坐标差值,如下计算:
其中CCx,CCy分别是目标质心特征CC的x轴分量和y轴分量。
OSm,n是目标m和目标n的质心坐标差值,可由如下公式计算:
若Pm,n是相邻两帧中所有目标计算后的最小值,且Pm,n≤T(其中T是预设的阈值参数),则目标m和目标n是同一目标。系统采用特征的相对差值进行匹配,提高了系统对不同场景的适应能力,同时这些特征计算简单,降低了系统的计算复杂度。
为了加快目标匹配速度,系统利用运动目标的方向及速率,预测下一帧中更好的搜索区域E,表示如下:
E={(x,y)|max(CCx,m-2MVx,0)≤x≤min(Width,CCx,m+3×MVx),max(CCy,m-2MVy,0)≤y≤min(Height,CCy,m+3×MVy)} (6)
其中Width和Height分别是该图像在x轴和y轴上的分辨率,MVx,MVy分别是特征MV的x轴分量和y轴分量。
为了处理在初始目标匹配阶段未建立对应关系的正进入/正离开/遮挡目标,系统根据目标遮挡和边界状态信息进行包括全局统计特征的外观特征模型进行再匹配。外观特征模型使用最大概率匹配法寻找连续两帧图像中的匹配目标,关于第t-1帧中较小目标m和第t帧中较大目标n的概率匹配表达式Lm,n如下所示:
其中M[i][j]表示目标m掩码二值图矩阵,Wm和Hm分别表示目标m外接矩形在x方向和y方向的大小,Ms表示目标m大小,u和v分别表示目标m的搜索偏移,其中外观特征匹配概率计算如下::
其中表示第t-1帧目标m中(i,j)点像素值,表示第t帧目标n经过(u,v)坐标偏移后的(i,j)点的像素值,表示目标m中(i,j)点的标准均方差。若Lm,n是较小目标m和下一帧中任一目标进行匹配求得的最大值,且Lm,n≥θ1其中(θ1是预设的阈值参数),则目标m与下一帧中目标n经过(u,v)坐标偏移的区域是同一个目标。
目标匹配完成后,目标m的外观像素灰度特征更新如下:
其中α为外观特征模型更新速率参数。
为了提高目标特征的自适应性,更新速率参数α根据目标运动方向的变化率进行计算:
其中α∈[0.05,0.95]。
(4)通过输出设备输出运动目标追踪结果。
本发明所述的一种遮挡状态下运动目标稳定追踪的自动装置,包括一视频输入设备、一视觉识别系统PC主机、一输入设备和一输出设备。为了提高目标处于遮挡、交互、转向等各种复杂遮挡状态下的跟踪稳定性与实时性,系统首先对整个场景中所有目标提取简单的颜色、形状和位置特征建立初始目标匹配,利用目标的运动方向及速率预测下帧中优先搜索区域以加快目标匹配效率,减少运算量。然后对未建立对应关系的遮挡目标采用外观特征模型进行再匹配,并采用基于运动方向变化率机制对外观特征模型进行自适应更新。该系统结构简单、高实时高精度,有效地实现了遮挡状态下运动目标稳定追踪功能。
Claims (6)
1.一种遮挡状态下运动目标稳定追踪的自动装置,包括:
一视频输入设备,用于获得视频数据;
一视觉识别系统,核心是拥有Inte CPU处理器和DDR内存的PC电脑设备,用于识别与处理视频输入系统获得的视频数据;
一电脑输入设备,用于输入用于控制视觉识别系统的指令;
一电脑输出设备,用于输出视觉识别系统识别处理后的视频数据;
为进行遮挡状态下运动目标稳定追踪,所述的视觉识别系统执行以下步骤:
(1)根据输入的视频序列,对前景运动区域进行分割,通过连通性分析对前景目标区域进行聚类分组,并剔除掉微小型运动目标,同时计算各个目标的外接矩形,记录其左上角和右下角坐标位置以及二维前景像素掩码矩阵;
(2)计算各个运动目标的区域特征,包括全局颜色均值、质心坐标、目标大小以及长宽比特征,并根据相邻两帧图像中相匹配的运动目标之间质心坐标之差计算出该目标的运动方向与速率;
(3)根据上述特征的相对变化值在整个场景中建立初始目标匹配,并利用目标的运动方向及速率,预测下帧中优先搜索区域,以加快目标匹配效率、减少运算量;对未建立对应关系的正进入/正离开/遮挡目标,根据目标遮挡与边界状态信息,采用外观特征模型进行再匹配;该外观特征模型通过目标前景像素颜色灰度统计和二维前景像素掩码矩阵信息,进行目标区域的搜索与匹配,同时根据目标运动方向的变化率自适应更新目标前景像素颜色灰度统计参数;
(4)通过输出设备输出运动目标追踪结果。
2.根据权利要求1所述的一种遮挡状态下运动目标稳定追踪的自动装置,其特征在于,所述的步骤(2)中的计算各个运动目标的区域特征的方法如下:
系统所要提取的运动目标区域特征包括全局颜色均值、质心坐标、目标尺寸、运动方向和运动速率以及长宽比,以下是对这些特征的具体描述:
●CM表示颜色均值,是目标所有像素点颜色的均值;
●AR表示长宽比,AR=H/W,其中H和W分别表示目标外接矩形的长和宽;
●CC表示目标外接矩形的质心坐标;
●OS表示目标尺寸,是目标的像素点个数;
●MD表示运动方向,由两个连续帧中相同目标的质心坐标交叉相乘所得;
●MV表示运动速率,由两个连续帧中相同目标的质心坐标相减所得。
3.根据权利要求2所述的一种遮挡状态下运动目标稳定追踪的自动装置,其特征在于,所述的步骤(3)中在整个场景中建立初始目标匹配的方法如下:
系统使用最小代价准则建立在整个场景中建立相邻帧之间的初始目标匹配,关联表达式Pm,n由相邻两帧中目标m和目标n的特征参数计算得出,如下所示:
Pm,n=aCMm,n+bARm,n+cCCm,n+dOSm,n (1)
其中(a,b,c,d)是预设的权重因子,且a+b+c+d=1;
CMm,n代表在RGB颜色空间中相邻两帧中目标m和目标n的颜色均值差,计算如下:
其中CMR,CMG,CMB分别代表RGB颜色空间中三个通道的颜色均值;
ARm,n是相邻两帧中目标m和目标n的长宽比差值,如下计算:
其中设置ω1=20;
CCm,n是相邻两帧中目标m和目标n的质心坐标差值,如下计算:
其中CCx和CCy分别是目标质心特征CC的x轴分量和y轴分量,Width和Height分别是视频图像在x轴和y轴上的分辨率,MVx和MVy分别是特征MV的x轴分量和y轴分量;
OSm,n是目标m和目标n的质心坐标差值,可由如下公式计算:
若Pm,n是相邻两帧中所有目标计算后的最小值,且Pm,n≤T,其中T是预设的阈值参数,则目标m和目标n是同一目标;系统采用特征的相对差值进行匹配,提高了系统对不同场景的适应能力,同时这些特征计算简单,降低了系统的计算复杂度。
4.根据权利要求3所述的一种遮挡状态下运动目标稳定追踪的自动装置,其特征在于,所述的步骤(3)中预测下帧中优先搜索区域的方法如下:
为了加快目标匹配速度,系统利用运动目标的方向及速率,预测下一帧中更好的搜索区域E,表示如下:
E={(x,y)|max(CCx,m-2MVx,0)≤x≤min(Width,CCx,m+3×MVx),max(CCy,m-2MVy,0)≤y≤min(Height,CCy,m+3×MVy)} (6)
其中Width和Height分别是视频图像在x轴和y轴上的分辨率,CCx和CCy分别是目标质心特征CC的x轴分量和y轴分量,MVx和MVy分别是特征MV的x轴分量和y轴分量。
5.根据权利要求4所述的一种遮挡状态下运动目标稳定追踪的自动装置,其特征在于,所述的步骤(3)中对未建立对应关系的正进入/正离开/遮挡目标进行再匹配的方法如下:
为了处理在初始目标匹配阶段未建立对应关系的正进入/正离开/遮挡目标,系统根据目标遮挡和边界状态信息进行包括全局统计特征的外观特征模型进行再匹配;外观特征模型使用最大概率匹配法寻找连续两帧图像中的匹配目标,关于第t-1帧中较小目标m和第t帧中较大目标n的概率匹配表达式Lm,n如下所示:
其中M[i][j]表示目标m掩码二值图矩阵,Wm和Hm分别表示目标m外接矩形在x方向和y方向的大小,Ms表示目标m大小,u和v分别表示目标m的搜索偏移,其中外观特征匹配概率计算如下:
其中表示第t-1帧目标m中(i,j)点像素值,表示第t帧目标n经过(u,v)坐标偏移后的(i,j)点的像素值,表示目标m中(i,j)点的标准均方差;若Lm,n是较小目标m和下一帧中任一目标进行匹配求得的最大值,且Lm,n≥θ1,其中θ1是预设的阈值参数,则目标m与下一帧中目标n经过(u,v)坐标偏移的区域是同一个目标;
目标匹配完成后,目标m的外观像素灰度特征更新如下:
其中α为外观特征模型更新速率参数。
6.根据权利要求5所述的一种遮挡状态下运动目标稳定追踪的自动装置,其特征在于,所述的步骤(3)中根据目标运动方向的变化率自适应更新目标前景像素颜色灰度统计参数的方法如下:
为了提高目标特征的自适应性,更新速率参数α根据目标运动方向的变化率进行计算:
其中α∈[0.05,0.95]。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310309725.4A CN103440667B (zh) | 2013-07-19 | 2013-07-19 | 一种遮挡状态下运动目标稳定追踪的自动装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310309725.4A CN103440667B (zh) | 2013-07-19 | 2013-07-19 | 一种遮挡状态下运动目标稳定追踪的自动装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103440667A CN103440667A (zh) | 2013-12-11 |
CN103440667B true CN103440667B (zh) | 2016-08-10 |
Family
ID=49694360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310309725.4A Active CN103440667B (zh) | 2013-07-19 | 2013-07-19 | 一种遮挡状态下运动目标稳定追踪的自动装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103440667B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103942535B (zh) * | 2014-03-28 | 2017-04-12 | 广东威创视讯科技股份有限公司 | 多目标跟踪方法及装置 |
CN107820041B (zh) * | 2016-09-13 | 2020-09-08 | 华为数字技术(苏州)有限公司 | 隐私遮挡方法及装置 |
WO2018107488A1 (zh) * | 2016-12-16 | 2018-06-21 | 深圳大学 | 基于提升直觉模糊树的目标跟踪方法及装置 |
CN107705317A (zh) * | 2017-09-30 | 2018-02-16 | 石道松 | 基于视觉跟踪识别的控制系统 |
CN107833239B (zh) * | 2017-10-26 | 2021-05-18 | 辽宁工程技术大学 | 一种基于加权模型约束的寻优匹配目标跟踪方法 |
CN108537820B (zh) * | 2018-04-18 | 2021-02-09 | 图灵人工智能研究院(南京)有限公司 | 动态预测方法、系统及所适用的设备 |
CN109165600B (zh) * | 2018-08-27 | 2021-11-26 | 浙江大丰实业股份有限公司 | 舞台演出人员智能搜索平台 |
CN110717474B (zh) * | 2019-10-18 | 2022-07-26 | 阿波罗智能技术(北京)有限公司 | 目标关联计算方法、装置、设备和介质 |
CN111105443A (zh) * | 2019-12-26 | 2020-05-05 | 南京邮电大学 | 一种基于特征关联的视频群体人物运动轨迹跟踪方法 |
CN111654700B (zh) * | 2020-06-19 | 2022-12-06 | 杭州海康威视数字技术股份有限公司 | 一种隐私遮蔽处理方法、装置、电子设备及监控系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5034986A (en) * | 1989-03-01 | 1991-07-23 | Siemens Aktiengesellschaft | Method for detecting and tracking moving objects in a digital image sequence having a stationary background |
CN101141633A (zh) * | 2007-08-28 | 2008-03-12 | 湖南大学 | 一种复杂场景中的运动目标检测与跟踪方法 |
CN101894378A (zh) * | 2010-06-13 | 2010-11-24 | 南京航空航天大学 | 基于双感兴趣区域的运动目标视觉跟踪方法及系统 |
CN102646279A (zh) * | 2012-02-29 | 2012-08-22 | 北京航空航天大学 | 一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法 |
CN102789645A (zh) * | 2012-06-21 | 2012-11-21 | 武汉烽火众智数字技术有限责任公司 | 一种用于周界防范的多目标快速跟踪方法 |
CN102867311A (zh) * | 2011-07-07 | 2013-01-09 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
-
2013
- 2013-07-19 CN CN201310309725.4A patent/CN103440667B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5034986A (en) * | 1989-03-01 | 1991-07-23 | Siemens Aktiengesellschaft | Method for detecting and tracking moving objects in a digital image sequence having a stationary background |
CN101141633A (zh) * | 2007-08-28 | 2008-03-12 | 湖南大学 | 一种复杂场景中的运动目标检测与跟踪方法 |
CN101894378A (zh) * | 2010-06-13 | 2010-11-24 | 南京航空航天大学 | 基于双感兴趣区域的运动目标视觉跟踪方法及系统 |
CN102867311A (zh) * | 2011-07-07 | 2013-01-09 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
CN102646279A (zh) * | 2012-02-29 | 2012-08-22 | 北京航空航天大学 | 一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法 |
CN102789645A (zh) * | 2012-06-21 | 2012-11-21 | 武汉烽火众智数字技术有限责任公司 | 一种用于周界防范的多目标快速跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103440667A (zh) | 2013-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103440667B (zh) | 一种遮挡状态下运动目标稳定追踪的自动装置 | |
Sun et al. | Research on the hand gesture recognition based on deep learning | |
Li et al. | Robust visual tracking based on convolutional features with illumination and occlusion handing | |
Wu et al. | Regional deep learning model for visual tracking | |
Kliper-Gross et al. | Motion interchange patterns for action recognition in unconstrained videos | |
Abbass et al. | A survey on online learning for visual tracking | |
Gopalan et al. | A learning approach towards detection and tracking of lane markings | |
Kalantar et al. | Multiple moving object detection from UAV videos using trajectories of matched regional adjacency graphs | |
CN106203423B (zh) | 一种融合上下文探测的弱结构感知视觉目标跟踪方法 | |
Yang et al. | A multi-task Faster R-CNN method for 3D vehicle detection based on a single image | |
CN103646391A (zh) | 一种针对动态变化场景的实时摄像机跟踪方法 | |
Chen et al. | End-to-end learning of object motion estimation from retinal events for event-based object tracking | |
CN105279769B (zh) | 一种联合多特征的层次粒子滤波跟踪方法 | |
CN104268583A (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
CN103886619A (zh) | 一种融合多尺度超像素的目标跟踪方法 | |
Huang et al. | A discriminative model of motion and cross ratio for view-invariant action recognition | |
CN104050685A (zh) | 基于粒子滤波视觉注意力模型的运动目标检测方法 | |
CN104700412A (zh) | 一种视觉显著图的计算方法 | |
Yang et al. | Intelligent video analysis: A Pedestrian trajectory extraction method for the whole indoor space without blind areas | |
Hsu et al. | Online view-invariant human action recognition using rgb-d spatio-temporal matrix | |
CN106780564A (zh) | 一种基于先验模型约束的抗干扰轮廓跟踪方法 | |
CN107097256A (zh) | 基于视觉非完整机器人在极坐标下的无模型目标跟踪方法 | |
Ding et al. | Simultaneous body part and motion identification for human-following robots | |
Gu et al. | Linear time offline tracking and lower envelope algorithms | |
Benabbas et al. | Action recognition using direction models of motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |