CN105100727B - 一种固定位监控图像中指定物品实时跟踪方法 - Google Patents

一种固定位监控图像中指定物品实时跟踪方法 Download PDF

Info

Publication number
CN105100727B
CN105100727B CN201510502775.3A CN201510502775A CN105100727B CN 105100727 B CN105100727 B CN 105100727B CN 201510502775 A CN201510502775 A CN 201510502775A CN 105100727 B CN105100727 B CN 105100727B
Authority
CN
China
Prior art keywords
mrow
msubsup
image
frame
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510502775.3A
Other languages
English (en)
Other versions
CN105100727A (zh
Inventor
李士进
朱海晨
王声特
练海晨
郝立
华聚良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN201510502775.3A priority Critical patent/CN105100727B/zh
Publication of CN105100727A publication Critical patent/CN105100727A/zh
Application granted granted Critical
Publication of CN105100727B publication Critical patent/CN105100727B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种固定位监控图像中指定物品实时跟踪方法,针对原始分布场跟踪算法容易被静态相似物体干扰的问题,提出了结合运动区域检测的分布场跟踪算法,提高了在背景相似的复杂情况下分布场跟踪算法的准确性;而且为了避免在搜索过程中分布场跟踪算法陷入局部最优,加入了动态位置预测机制,利用目标上一帧运动位移信息和过去运动信息,通过递推运算估计目标位置,再对目标进行梯度搜索,有效地提高了跟踪算法的准确性和实时性;不仅如此,由于视频中景深的影响,目标大小会发生变化,固定跟踪框的大小将影响跟踪算法的准确率,对此,提出了结合背景像素点信息的跟踪框自适应调节方法,提高跟踪算法的准确性。

Description

一种固定位监控图像中指定物品实时跟踪方法
技术领域
本发明涉及用于一种固定位监控图像中指定物品实时跟踪方法,属于视频目标跟踪技术领域。
背景技术
现如今,随着电商平台的兴起,各类物流仓储服务系统开发成为大势所趋。以网络图书销售为例,当消费者在网上下单,仓库工作人员需要对顾客所选图书进行选取包装,不同类的图书一般都会分放在不同的区域,仓库会根据订单为顾客配备物品周转箱用来摆放图书,物品周转箱通过轨道在几万平方米的仓库中传递,进入不同的区域,去领取顾客选择的图书。在整个运输过程中,如果物品周转箱丢失,会对公司造成不必要的损失。但是如果几万平方米的仓库中,全部依靠人来监控,那将花费很大的人力和财力。
随着视觉跟踪技术的飞速发展,跟踪算法也取得重大的突破,如实时性较好的均值漂移跟踪算法,在多目标跟踪方面表现优异的粒子滤波跟踪算以及能够很好处理遮挡问题的Kalman跟踪算法等等,这些算法在一定领域都具有很好的优越性,但是由于场景的差异性以及不确定性,至今还没有一个目标跟踪算法能够适用于所有的目标跟踪领域。
基于分类搜索的目标跟踪技术是当下目标跟踪算法领域的研究热点,它是将跟踪问题看作一个分类问题来解决,利用目标和背景的不同信息,将跟踪目标从背景中提取出来。Avidan将一系列弱分类器组合成一个强分类器来实现跟踪,取得很好的效果;Grabner等人提出了用Online Boosting算法来更新判别特征,减少追踪过程中的漂移误差;Babenko运用多示例学习算法训练一个判别模型来进行跟踪;Kalal提出P-N学习算法,用正负样本的潜在结构来训练样本。Zhang提出将高维的特征经压缩感知降维后训练分类器的算法,该算法的优点在于复杂度低,跟踪效果较好。文献将基于稀疏表示的生成模型和辨别分类器结合,有效处理目标变化和视频漂移等问题。通过深入研究这类方法,我们发现,这类方法有很强的鲁棒性,但算法复杂度较高,很难满足实时系统的要求。
发明内容
本发明所要解决的技术问题是提供一种在保证跟踪算法实时性的情况下,针对工业现场的特殊环境,提高跟踪算法的准确率的固定位监控图像中指定物品实时跟踪方法。
本发明为了解决上述技术问题采用以下技术方案:本发明设计了一种固定位监控图像中指定物品实时跟踪方法,用于针对固定角度监控视频图像中的指定物品进行实时跟踪,包括如下步骤:
步骤001.获得固定角度监控在预设时长内所拍摄的各帧图像,通过统计平均法,获得固定角度监控所拍摄图像所对应的初始背景图像像素矩阵Bg,进入步骤002;
步骤002.依时序针对固定角度监控所拍摄的各帧图像,初始化t=1,t表示固定角度监控所拍摄的第t帧图像;并初始化第t帧图像所对应的背景图像像素矩阵Bgt为初始背景图像像素矩阵Bg;同时,分别初始化第t帧图像中各个指定物品的模型、各个指定物品的中心坐标各个指定物品在第t+1帧图像中的预测位移向量以及第t帧图像中所有指定物品所在图像区域的像素矩阵,即第t帧图像中初级跟踪图像区域像素矩阵Irt,i表示第t帧图像中第i个指定物品,并进入步骤003;
步骤003.获得第t+1帧图像像素矩阵It+1,并根据第t帧图像所对应的背景图像像素矩阵Bgt,采用帧差法获得第t+1帧图像所对应的背景图像像素矩阵Bgt+1;接着,获得第t+1帧图像像素矩阵It+1与第t+1帧图像所对应背景图像像素矩阵Bgt+1之间的差值像素矩阵Mdxt+1,并进入步骤004;
步骤004.根据如下模型,获得第t+1帧图像中的初级跟踪图像区域像素矩阵Irt+1,并进入步骤005;
其中,m为预设图像中前景图像像素矩阵的阈值;
步骤005.将第t+1帧图像中的初级跟踪图像区域像素矩阵Irt+1与第t帧图像中的初级跟踪图像区域像素矩阵Irt进行逻辑或运算,获得第t+1帧图像中的跟踪图像区域像素矩阵Ict+1,并进入步骤006;
步骤006.针对各个指定物品,根据如下公式,分别获得第t+1帧图像中各个指定物品的起始搜索坐标并进入步骤007;
步骤007.在第t+1帧图像中的跟踪图像区域像素矩阵Ict+1中,分别根据各个指定物品的起始搜索坐标和各个指定物品的模型,采用L1距离范数算法,按照L1范数梯度下降的方向进行搜索,通过最优值的获取,分别获得第t+1帧图像中各个指定物品的中心坐标并进入步骤008;
步骤008.根据第t+1帧图像中各个指定物品的中心坐标分别更新第t+1帧图像中各个指定物品的模型,并进入步骤009;
步骤009.针对第t+1帧图像中各个指定物品,通过如下公式,分别获得各个指定物品在第t+2帧图像中的预测位移向量并进入步骤010;
步骤010.用t+1的值更新t的取值,并返回步骤003。
作为本发明的一种优选技术方案:所述步骤002中,还包括分别初始化第t帧图像中各个指定物品的跟踪框的长宽尺寸
所述步骤007之后、步骤008之前还包括如下步骤a—步骤b,步骤007执行完之后进入步骤a,步骤b执行完后进入步骤008;
步骤a.分别根据各个指定物品在第t+1帧图像中的中心坐标以及对应指定物品在第t帧图像中的跟踪框的长宽尺寸根据如下公式,分别获得第t+1帧图像中各个指定物品所对应长宽尺寸跟踪框对应的背景图像像素点占比并进入步骤b;
其中,表示第t+1帧图像中各个指定物品所对应长宽尺寸跟踪框对应的背景图像像素点的数目,表示第t+1帧图像中各个指定物品所对应长宽尺寸跟踪框所对应的所有像素点的数目;
步骤b.根据如下公式,分别获得第t+1帧图像中各个指定物品的跟踪框的长宽尺寸并进入步骤008;
其中,g1和g2分别表示跟踪框中所对应背景图像像素点占比的上限阈值和下限阈值,D为预设跟踪框长宽尺寸的缩放比例系数;
所述步骤008中,根据第t+1帧图像中各个指定物品的中心坐标以及第t+1帧图像中各个指定物品的跟踪框的长宽尺寸分别更新第t+1帧图像中各个指定物品的模型,并进入步骤009。
作为本发明的一种优选技术方案:所述步骤003中,获得第t+1帧图像像素矩阵It+1,并根据第t帧图像所对应的背景图像像素矩阵Bgt,采用帧差法获得第t+1帧图像所对应的背景图像像素矩阵Bgt+1,具体包括如下步骤:
步骤00301.获得第t+1帧图像像素矩阵It+1,以及获得相对于第t+1帧图像的前第n+1帧图像的像素矩阵It-n,n为预设参数,且n≥0,并进入步骤00302;
步骤00302.根据如下公式,根据第t帧图像所对应的背景图像像素矩阵Bgt,获得第t+1帧图像所对应的背景图像像素矩阵Bgt+1
其中,T为预设帧差法阈值;λ为预设背景图像像素矩阵更新因子。
作为本发明的一种优选技术方案:所述各个像素矩阵均采用分布场模型进行表示。
作为本发明的一种优选技术方案:所述各个像素矩阵均采用经过高斯平滑处理的分布场模型进行表示。
本发明如上所述一种固定位监控图像中指定物品实时跟踪方法的应用控制方法采用以上技术方案与现有技术相比,具有以下技术效果:本发明设计固定位监控图像中指定物品实时跟踪方法,针对原始分布场跟踪算法容易被静态相似物体干扰的问题,提出了结合运动区域检测的分布场跟踪算法,提高了在背景相似的复杂情况下分布场跟踪算法的准确性;而且为了避免在搜索过程中分布场跟踪算法陷入局部最优,加入了动态位置预测机制,利用目标上一帧运动位移信息和过去运动信息,通过递推运算估计目标位置,再对目标进行梯度搜索,有效地提高了跟踪算法的准确性和实时性;不仅如此,由于视频中景深的影响,目标大小会发生变化,固定跟踪框的大小将影响跟踪算法的准确率,对此,提出了结合背景像素点信息的跟踪框自适应调节方法,提高跟踪算法的准确性。
附图说明
图1是本发明设计一种固定位监控图像中指定物品实时跟踪方法的流程示意图。
具体实施方式
下面结合说明书附图对本发明的具体实施方式作进一步详细的说明。
如图1所示,本发明所设计固定位监控图像中指定物品实时跟踪方法的应用控制方法,在实际应用过程当中,第一步是建立目标模型,一个有效的描述符能够很好地描述目标特征,并且在后续搜索中可以大大缩减搜索算法的复杂度,经过深入的比较研究,我们发现分布场描述符非常适用于本发明技术方案的跟踪方法。如今大部分跟踪算法在建立目标模型阶段都选用颜色直方图模型,该模型能很好的表述目标的颜色信息,但是缺点是缺乏目标的空间信息,对目标搜索的准确性上会有一定的影响。而分布场描述符中,不仅可以表示目标的颜色信息和空间信息,还能根据系统的需求,加入目标的其他信息,能够更好的表述目标特征;因此在本发明设计的技术方案中,针对各个像素矩阵均采用分布场模型进行表示。
分布场(Distribution Fields)是一个图像表示,实际上它是一个概率分布矩阵,这个分布矩阵定义了每个像素占各个特征值的概率;分布场可以用一个(2+N)维的矩阵来表示一幅图像,其中2代表了图像的宽度和高度,其余的维度为选择的特征。具体模型描述见文献【Sevilla-Lara L,Learned-Miller E.Distribution fields for tracking[C]//2012IEEE Conference on Computer Vision and Pattern Recognition(CVPR),IEEE,2012:1910-1917.】。例如,一幅图像选择以灰度值作为特征,图像大小为m×n,那么这幅图像的3维矩阵的分布场表示大小为m×n×b,b为像素值所分的区间数。
分布场的构造过程具体如下:首先利用Kronecker delta函数把一幅图像用一个分布场表示,如下式所示:
其中,(x',y')表示图像像素点的位置,K表示特征区间要分的层数,k表示各层的序号。深度为255/K的集合作为“一层”。就此,分布场表示中包含了准确的原始图像的信息。为了能使分布场描述符适应更加复杂的场景,我们需要对原始分布场描述符进行高斯平滑处理,这样既不损坏原始视频帧的亮度信息,同时也在分布场描述符中引入了不确定性,增加分布场跟踪算法的抗干扰能力。
在高斯平滑的过程中,分为空间域平滑和特征域平滑。首先利用如下公式对空间域进行平滑:
其中,表示一个标准差为δs的2D高斯核,“*”为卷积符号。空间域平滑是在图像x和y方向上进行平滑,这样就引入了位置的不确定性。例如在原始分布场中,某一层出现一个非零值,则我们认为该位置有目标存在,然后在平滑后的分布场中,则认为该位置附近存在目标,因此就引入了位置的不确定性到分布场表示中。
接下来是特征域平滑,利用如下公式对特征域进行平滑:
其中为一个标准差为δf的1D高斯核。经高斯平滑后,分布场像素每一列积分为1。
总而言之,将一幅图像转化为分布场表示,并且对其进行平滑处理,其实是为了给目标引入外观和位置的不确定性,这样更有利于处理目标运动过程中的部分遮挡和外观改变等情况。当图像经过上述处理后,即建立了图像的目标模型,针对各个像素矩阵均实现了采用分布场模型进行表示。
分布场实时跟踪算法选用了梯度下降搜索算法来实现目标跟踪,首先利用上述方法构造一个跟踪目标的分布场模板,然后在新的一帧图像中,依然根据上述分布场的构造方法来构建一个分布场,然后根据L1范数梯度下降的方向进行搜索,直到L1范数得到一个最优解,根据得到的目标位置,针对各个指定物品的模型进行更新。
在实时性方面,分布场实时跟踪算法的表现优于传统均值漂移跟踪算法。在目标表示方面,分布场描述符中不仅可以包含目标的颜色信息,同时包含了目标的空间信息,而传统均值漂移跟踪算法仅仅包含了目标的颜色信息,所以跟踪算法的鲁棒性,分布场跟踪算法也优于均值漂移跟踪算法。
具体的,如图1所示,本发明所设计固定位监控图像中指定物品实时跟踪方法的应用控制方法,具体应用到物流仓库中,针对在传送带移动的物品周转箱进行实时跟踪,包括如下步骤:
步骤001.获得固定角度监控在预设时长内所拍摄的各帧图像,通过统计平均法,获得固定角度监控所拍摄图像所对应的初始背景图像像素矩阵Bg,进入步骤002。
步骤002.依时序针对固定角度监控所拍摄的各帧图像,初始化t=1,t表示固定角度监控所拍摄的第t帧图像;并初始化第t帧图像所对应的背景图像像素矩阵Bgt为初始背景图像像素矩阵Bg;同时,分别初始化第t帧图像中各个指定物品的模型、各个指定物品的中心坐标各个指定物品在第t+1帧图像中的预测位移向量以及第t帧图像中所有指定物品所在图像区域的像素矩阵,即第t帧图像中初级跟踪图像区域像素矩阵Irt,i表示第t帧图像中第i个指定物品,,以及分别初始化第t帧图像中各个指定物品的跟踪框的长宽尺寸并进入步骤003。
步骤003.获得第t+1帧图像像素矩阵It+1,并根据第t帧图像所对应的背景图像像素矩阵Bgt,采用帧差法获得第t+1帧图像所对应的背景图像像素矩阵Bgt+1,具体包括如下步骤:
步骤00301.获得第t+1帧图像像素矩阵It+1,以及获得相对于第t+1帧图像的前第n+1帧图像的像素矩阵It-n,n为预设参数,且n≥0,并进入步骤00302;
步骤00302.根据如下公式,根据第t帧图像所对应的背景图像像素矩阵Bgt,获得第t+1帧图像所对应的背景图像像素矩阵Bgt+1
其中,T为预设帧差法阈值;λ为预设背景图像像素矩阵更新因子。
接着,获得第t+1帧图像像素矩阵It+1与第t+1帧图像所对应背景图像像素矩阵Bgt+1之间的差值像素矩阵Mdxt+1,并进入步骤004。
上述设计方法中,在使用帧差法时,以往研究大多会选择相邻帧差法,但是本发明研究的视频是物流仓库的监控视频,物品周转箱在轨道上运动的较为缓慢,相邻帧之间存在较大的重叠面积,并且物品周转箱本身都是蓝色,重叠区域会被判定为背景区域,这样就会产生背景更新误差,多次误差积累就会影响目标检测结果,所以本文选择隔帧帧差法,n≥1,即当前帧与前第n帧图像进行差分,在减少重叠面积的情况下,降低更新误差,同时又兼具了大部分背景区域更新的实时性和适应性,这里,n的选择由轨道运输速度快慢决定,一般在轨道速度设定时,设定n的大小,轨道速度越快n越小,反之则n越大。通过以上方法,我们能够滤除工业现场中静止相似物体对跟踪目标的干扰,从而提高跟踪准确率。
步骤004.根据如下模型,获得第t+1帧图像中的初级跟踪图像区域像素矩阵Irt+1,并进入步骤005;
其中,m为预设图像中前景图像像素矩阵的阈值。
步骤005.将第t+1帧图像中的初级跟踪图像区域像素矩阵Irt+1与第t帧图像中的初级跟踪图像区域像素矩阵Irt进行逻辑或运算,获得第t+1帧图像中的跟踪图像区域像素矩阵Ict+1,并进入步骤006。
步骤006.针对各个指定物品,根据如下公式,分别获得第t+1帧图像中各个指定物品的起始搜索坐标并进入步骤007。
步骤007.在第t+1帧图像中的跟踪图像区域像素矩阵Ict+1中,分别根据各个指定物品的起始搜索坐标和各个指定物品的模型,采用L1距离范数算法,按照L1范数梯度下降的方向进行搜索,通过最优值的获取,分别获得第t+1帧图像中各个指定物品的中心坐标并进入步骤a。
景深影响一直是视频跟踪问题中重点和难点,伴随着运动目标远离或者靠近摄像头,跟踪目标在视频图像中的大小会发生变化。现有的跟踪算法中,大部分的跟踪框大小都是固定的,如果物体远离监控摄像头,跟踪框中会不可避免的包含过多的背景像素信息或者其他运动目标信息,从而产生跟踪误差;反之,当目标靠近监控摄像头,跟踪框渐渐小于目标的大小,跟踪框中包含的只是目标的部分分布场信息,无法完全表述跟踪目标,也会产生跟踪误差。由于工业现场环境较大,景深的影响是我们研究中不可忽视的问题。对此,本发明在以上的改进方法基础上,引入背景像素占比判断,从而实现自适应控制跟踪框的大小,这样,无论目标远离和靠近,都可以使用分布场描述符正确表述跟踪目标,具体详见如下步骤a—步骤b。
步骤a.分别根据各个指定物品在第t+1帧图像中的中心坐标以及对应指定物品在第t帧图像中的跟踪框的长宽尺寸根据如下公式,分别获得第t+1帧图像中各个指定物品所对应长宽尺寸跟踪框对应的背景图像像素点占比并进入步骤b;
其中,表示第t+1帧图像中各个指定物品所对应长宽尺寸跟踪框对应的背景图像像素点的数目,表示第t+1帧图像中各个指定物品所对应长宽尺寸跟踪框所对应的所有像素点的数目。
步骤b.根据如下公式,分别获得第t+1帧图像中各个指定物品的跟踪框的长宽尺寸并进入步骤008;
其中,g1和g2分别表示跟踪框中所对应背景图像像素点占比的上限阈值和下限阈值,D为预设跟踪框长宽尺寸的缩放比例系数。
步骤008.根据第t+1帧图像中各个指定物品的中心坐标以及第t+1帧图像中各个指定物品的跟踪框的长宽尺寸分别更新第t+1帧图像中各个指定物品的模型,并进入步骤009。
本发明考虑到跟踪方法的准确性和实时性,提出一种运动位移向量递推运算的位置预测方法,再结合分布场跟踪算法对目标进行跟踪。在跟踪预测过程中,当前目标的运动信息可以通过目标以前的运动信息来判断估计,前一帧的运动信息是最具有参考价值的,其次是再往前一帧,以此类推,越靠前的运动信息参考价值越低,本发明提出方法充分利用这个规律,有效地利用跟踪过程的连续性,不仅采用了前一帧运动目标的位移信息,同时合理利用了目标在前面所有帧的运动位置信息。该方法能很好地应用在一个长时间的视频跟踪系统中,避免跟踪结果陷入局部最优,具体详见接下来的步骤009。
步骤009.针对第t+1帧图像中各个指定物品,通过如下公式,分别获得各个指定物品在第t+2帧图像中的预测位移向量并进入步骤010;
步骤010.用t+1的值更新t的取值,包括更新背景图像像素矩阵,各个物品的中心坐标、预测位移向量及各个物品所在图像区域的像素矩阵,并返回步骤003。
上述技术方案设计的固定位监控图像中指定物品实时跟踪方法,针对原始分布场跟踪算法容易被静态相似物体干扰的问题,提出了结合运动区域检测的分布场跟踪算法,提高了在背景相似的复杂情况下分布场跟踪算法的准确性;而且为了避免在搜索过程中分布场跟踪算法陷入局部最优,加入了动态位置预测机制,利用目标上一帧运动位移信息和过去运动信息,通过递推运算估计目标位置,再对目标进行梯度搜索,有效地提高了跟踪算法的准确性和实时性;不仅如此,由于视频中景深的影响,目标大小会发生变化,固定跟踪框的大小将影响跟踪算法的准确率,对此,提出了结合背景像素点信息的跟踪框自适应调节方法,提高跟踪算法的准确性。
针对本发明所设计固定位监控图像中指定物品实时跟踪方法在实际应用过程中的效果,进行了实验分析,首先,为了比较分布场实时跟踪算法和经典均值漂移跟踪算法在实时性方面的优越性,我们做了一组对比实验,通过实验来证明分布场实时跟踪算法较均值漂移跟踪算法,更适用于本发明研究的跟踪系统。
本次对比实验我们用视频1作为实验对象,图像大小为280*340,本视频共55帧。算法在Intel Core i5处理器,2.80GHz计算机上运行,Matlab编程实现。首先是利用分布场实时跟踪算法进行实验,实验是对视频中第二个目标进行跟踪,视频中跟踪目标周围环境较为简单,目标与目标之间间隔较大,不易产生相互间的干扰,运输轨道周围有物品周转箱堆积,但分隔较为明显。本次实验参数经过多次调试比较,并根据原文中对参数的分析研究,最后选择一组实验结果最好的参数作为实验参数,本次实验中空间域平滑的方差为[1,2],特征域平滑方差为0.625,模型的更新因子λ取0.95,分布场层数为8。
在本次实验中,运动目标的运动轨迹较为简单,目标周围环境干扰较少。视频的前40帧图像中,基于分布场的跟踪算法,跟踪极为准确。然而在视频的第41帧,物品周转箱周围出现干扰,跟踪框出现偏差,后续的实验中,跟踪框未能再次追踪到目标位置。在跟踪过程中,景深引起的目标变化也是影响跟踪结果的重要因素,随着物品周转箱的慢慢靠近,物品周转箱在视频中逐渐变大,而搜索框是固定的,在跟踪后期已经不能完全覆盖物品周转箱,这严重影响了跟踪结果。本次实验准确率为72.7%,故此我们得出初步结论,该算法不能直接应用到环境复杂的工业现场。然而在实时性方面,基于分布场的全局搜索算法在处理前55帧的实验视频所用时间为2.89秒,处理速度较快,满足视频跟踪的实时性要求。
接着,我们对均值漂移跟踪算法进行跟踪实验,在环境良好情况下,均值漂移跟踪算法跟踪效果较为出色。但是在跟踪过程中,即使在没有背景干扰情况下,均值漂移跟踪算法出经常出现偏移的情况。本次实验共跟踪55次,其中跟踪准确50次,跟踪失败5次。均值漂移跟踪算法复杂度较低,本次实验耗费时间为5.20s,即视频处理速度为10.57帧/s,实时性较好。
在实验中可以发现,均值漂移跟踪算法在遇到相似物体干扰时,会出现明显的偏移。实时性方面也无法满足实时跟踪系统的要求。所以,均值漂移跟踪算法不能适用于本文所研究的实验环境中。
最后,通过实验来展示本发明设计跟踪算法的优越性,我们利用视频2作为实验对象,跟踪目标为手动选取的前两个目标。在跟踪过程中,两个跟踪目标会随着时间推移,相互靠近,并且大小发生明显变化,而在视频序列的最后,目标为了避免轨道拥挤,目标会出现停止运动的情况。目标周围也存在着大量的相似干扰物体,该视频能很好地验证本文算法在多目标跟踪过程中的有效性。
本次实验从视频2的第1帧开始跟踪,跟踪到视频100帧结束。跟踪过程中,跟踪框一直稳定准确地确定目标位置,没有发生偏移,跟踪框的大小一直与目标大小吻合。在视频的后期,目标之间相互靠近,给跟踪算法带来一定的挑战,但是由于经过平滑后的分布场有很好的吸引域,以及跟踪框大小吻合,跟踪效果一直很好。在100帧的视频序列跟踪过程中,跟踪失败0次,所以,本发明提出的方法,多目标跟踪效果非常优秀。
视频3和视频4是两段测试多目标跟踪效果的视频,视频时长都为110帧,视频图像大小为480*640,在此我们也对这两段视频,采用了本发明设计方法进行跟踪实验。在跟踪过程中目标有一定的旋转变化和大小变化,目标周围堆放着大量的相似物体,目标之间也存在相互干扰。但是本发明设计方法依旧能准确地跟踪目标。在两段时间视频跟踪实验中,跟踪准确率达100%。实验证明,本发明设计方法能够应用到工业现场的视频监控系统中。
综上所述,本发明设计的固定位监控图像中指定物品实时跟踪方法的应用控制方法,能够很好地解决工业现场环境下的多目标跟踪问题,该方法有很好的实时性和准确性,可以应用到工业现场的多目标跟踪系统中。
上面结合附图对本发明的实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。

Claims (5)

1.一种固定位监控图像中指定物品实时跟踪方法,用于针对固定角度监控视频图像中的指定物品进行实时跟踪;其特征在于,包括如下步骤:
步骤001.获得固定角度监控在预设时长内所拍摄的各帧图像,通过统计平均法,获得固定角度监控所拍摄图像所对应的初始背景图像像素矩阵Bg,进入步骤002;
步骤002.依时序针对固定角度监控所拍摄的各帧图像,初始化t=1,t表示固定角度监控所拍摄的第t帧图像;并初始化第t帧图像所对应的背景图像像素矩阵Bgt为初始背景图像像素矩阵Bg;同时,分别初始化第t帧图像中各个指定物品的模型、各个指定物品的中心坐标各个指定物品在第t+1帧图像中的预测位移向量以及第t帧图像中所有指定物品所在图像区域的像素矩阵,即第t帧图像中初级跟踪图像区域像素矩阵Irt,i表示第t帧图像中第i个指定物品,并进入步骤003;
步骤003.获得第t+1帧图像像素矩阵It+1,并根据第t帧图像所对应的背景图像像素矩阵Bgt,采用帧差法获得第t+1帧图像所对应的背景图像像素矩阵Bgt+1;接着,获得第t+1帧图像像素矩阵It+1与第t+1帧图像所对应背景图像像素矩阵Bgt+1之间的差值像素矩阵Mdxt+1,并进入步骤004;
步骤004.根据如下模型,获得第t+1帧图像中的初级跟踪图像区域像素矩阵Irt+1,并进入步骤005;
<mrow> <msub> <mi>Ir</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>I</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>,</mo> <msub> <mi>Mdx</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>&gt;</mo> <mi>m</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> <mi>e</mi> <mi>l</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,m为预设图像中前景图像像素矩阵的阈值;
步骤005.将第t+1帧图像中的初级跟踪图像区域像素矩阵Irt+1与第t帧图像中的初级跟踪图像区域像素矩阵Irt进行逻辑或运算,获得第t+1帧图像中的跟踪图像区域像素矩阵Ict+1,并进入步骤006;
步骤006.针对各个指定物品,根据如下公式,分别获得第t+1帧图像中各个指定物品的起始搜索坐标并进入步骤007;
<mrow> <mo>(</mo> <msubsup> <mi>X</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> <mo>,</mo> <msubsup> <mi>Y</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> <mo>)</mo> <mo>=</mo> <mo>(</mo> <msubsup> <mi>x</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>)</mo> <mo>+</mo> <msubsup> <mi>motion</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> </mrow>
步骤007.在第t+1帧图像中的跟踪图像区域像素矩阵Ict+1中,分别根据各个指定物品的起始搜索坐标和各个指定物品的模型,采用L1距离范数算法,按照L1范数梯度下降的方向进行搜索,通过最优值的获取,分别获得第t+1帧图像中各个指定物品的中心坐标并进入步骤008;
步骤008.根据第t+1帧图像中各个指定物品的中心坐标分别更新第t+1帧图像中各个指定物品的模型,并进入步骤009;
步骤009.针对第t+1帧图像中各个指定物品,通过如下公式,分别获得各个指定物品在第t+2帧图像中的预测位移向量并进入步骤010;
<mrow> <msubsup> <mi>motion</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>2</mn> </mrow> <mi>i</mi> </msubsup> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mo>&amp;lsqb;</mo> <msubsup> <mi>motion</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> <mo>+</mo> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>x</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>x</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>t</mi> <mi>i</mi> </msubsup> </mrow> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow>
步骤010.用t+1的值更新t的取值,并返回步骤003。
2.根据权利要求1所述一种固定位监控图像中指定物品实时跟踪方法,其特征在于:所述步骤002中,还包括分别初始化第t帧图像中各个指定物品的跟踪框的长宽尺寸所述步骤007之后、步骤008之前还包括如下步骤a—步骤b,步骤007执行完之后进入步骤a,步骤b执行完后进入步骤008;
步骤a.分别根据各个指定物品在第t+1帧图像中的中心坐标以及对应指定物品在第t帧图像中的跟踪框的长宽尺寸根据如下公式,分别获得第t+1帧图像中各个指定物品所对应长宽尺寸跟踪框对应的背景图像像素点占比并进入步骤b;
<mrow> <msubsup> <mi>g</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> <mo>=</mo> <mfrac> <msubsup> <mi>m</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> <msubsup> <mi>M</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> </mfrac> </mrow>
其中,表示第t+1帧图像中各个指定物品所对应长宽尺寸跟踪框对应的背景图像像素点的数目,表示第t+1帧图像中各个指定物品所对应长宽尺寸跟踪框所对应的所有像素点的数目;
步骤b.根据如下公式,分别获得第t+1帧图像中各个指定物品的跟踪框的长宽尺寸并进入步骤008;
<mrow> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>c</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> <mo>,</mo> <msubsup> <mi>r</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> </mrow> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>c</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>,</mo> <msubsup> <mi>r</mi> <mi>t</mi> <mi>i</mi> </msubsup> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>D</mi> <mo>*</mo> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>c</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>,</mo> <msubsup> <mi>r</mi> <mi>t</mi> <mi>i</mi> </msubsup> </mrow> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msubsup> <mi>g</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> <mo>&gt;</mo> <msub> <mi>g</mi> <mn>1</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>c</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>,</mo> <msubsup> <mi>r</mi> <mi>t</mi> <mi>i</mi> </msubsup> </mrow> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>g</mi> <mn>2</mn> </msub> <mo>&lt;</mo> <msubsup> <mi>g</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> <mo>&lt;</mo> <msub> <mi>g</mi> <mn>1</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>c</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>,</mo> <msubsup> <mi>r</mi> <mi>t</mi> <mi>i</mi> </msubsup> </mrow> <mo>)</mo> </mrow> <mo>+</mo> <mi>D</mi> <mo>*</mo> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>c</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>,</mo> <msubsup> <mi>r</mi> <mi>t</mi> <mi>i</mi> </msubsup> </mrow> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msubsup> <mi>g</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>i</mi> </msubsup> <mo>&lt;</mo> <msub> <mi>g</mi> <mn>2</mn> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,g1和g2分别表示跟踪框中所对应背景图像像素点占比的上限阈值和下限阈值,D为预设跟踪框长宽尺寸的缩放比例系数;
所述步骤008中,根据第t+1帧图像中各个指定物品的中心坐标以及第t+1帧图像中各个指定物品的跟踪框的长宽尺寸分别更新第t+1帧图像中各个指定物品的模型,并进入步骤009。
3.根据权利要求1所述一种固定位监控图像中指定物品实时跟踪方法,其特征在于:所述步骤003中,获得第t+1帧图像像素矩阵It+1,并根据第t帧图像所对应的背景图像像素矩阵Bgt,采用帧差法获得第t+1帧图像所对应的背景图像像素矩阵Bgt+1,具体包括如下步骤:
步骤00301.获得第t+1帧图像像素矩阵It+1,以及获得相对于第t+1帧图像的前第n+1帧图像的像素矩阵It-n,n为预设参数,且n≥0,并进入步骤00302;
步骤00302.根据如下公式,根据第t帧图像所对应的背景图像像素矩阵Bgt,获得第t+1帧图像所对应的背景图像像素矩阵Bgt+1
<mrow> <msub> <mi>Bg</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>Bg</mi> <mi>t</mi> </msub> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mo>|</mo> <msub> <mi>I</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>-</mo> <msub> <mi>I</mi> <mrow> <mi>t</mi> <mo>-</mo> <mi>n</mi> </mrow> </msub> <mo>|</mo> <mo>&gt;</mo> <mi>T</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>&amp;lambda;I</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;lambda;</mi> <mo>)</mo> </mrow> <msub> <mi>Bg</mi> <mi>t</mi> </msub> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mo>|</mo> <msub> <mi>I</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>-</mo> <msub> <mi>I</mi> <mrow> <mi>t</mi> <mo>-</mo> <mi>n</mi> </mrow> </msub> <mo>|</mo> <mo>&amp;le;</mo> <mi>T</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,T为预设帧差法阈值;λ为预设背景图像像素矩阵更新因子。
4.根据权利要求1至2中任意一项所述一种固定位监控图像中指定物品实时跟踪方法,其特征在于:所述各个像素矩阵均采用分布场模型进行表示。
5.根据权利要求4所述一种固定位监控图像中指定物品实时跟踪方法,其特征在于:所述各个像素矩阵均采用经过高斯平滑处理的分布场模型进行表示。
CN201510502775.3A 2015-08-14 2015-08-14 一种固定位监控图像中指定物品实时跟踪方法 Expired - Fee Related CN105100727B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510502775.3A CN105100727B (zh) 2015-08-14 2015-08-14 一种固定位监控图像中指定物品实时跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510502775.3A CN105100727B (zh) 2015-08-14 2015-08-14 一种固定位监控图像中指定物品实时跟踪方法

Publications (2)

Publication Number Publication Date
CN105100727A CN105100727A (zh) 2015-11-25
CN105100727B true CN105100727B (zh) 2018-03-13

Family

ID=54580147

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510502775.3A Expired - Fee Related CN105100727B (zh) 2015-08-14 2015-08-14 一种固定位监控图像中指定物品实时跟踪方法

Country Status (1)

Country Link
CN (1) CN105100727B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778570B (zh) * 2016-12-05 2018-08-24 清华大学深圳研究生院 一种行人实时检测与跟踪方法
CN107507214B (zh) * 2017-07-06 2020-09-11 北京华泰诺安探测技术有限公司 获取货物图像的方法和装置
KR20200053474A (ko) * 2017-09-26 2020-05-18 소니 세미컨덕터 솔루션즈 가부시키가이샤 정보처리시스템
CN107977646B (zh) * 2017-12-19 2021-06-29 北京博睿视科技有限责任公司 一种隔栏递物检测方法
CN109685166A (zh) * 2018-12-05 2019-04-26 六安富华智能信息科技有限公司 一种储物柜中物品数量图像监测方法
TWI692731B (zh) * 2019-01-02 2020-05-01 瑞昱半導體股份有限公司 物件位置判斷電路
CN110969097B (zh) * 2019-11-18 2023-05-12 浙江大华技术股份有限公司 监控目标联动跟踪控制方法、设备及存储装置
CN111479062B (zh) * 2020-04-15 2021-09-28 上海摩象网络科技有限公司 目标对象的跟踪框显示方法、设备及手持相机
CN114359265B (zh) * 2022-03-04 2022-05-24 广东顺德富意德智能包装科技有限公司 一种基于目标跟踪的螺丝计数方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036528A (zh) * 2014-06-26 2014-09-10 西北农林科技大学 一种基于全局搜索的实时分布场目标跟踪方法
CN104268902A (zh) * 2014-09-30 2015-01-07 东南大学 面向工业现场的多目标视频跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8965898B2 (en) * 1998-11-20 2015-02-24 Intheplay, Inc. Optimizations for live event, real-time, 3D object tracking

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036528A (zh) * 2014-06-26 2014-09-10 西北农林科技大学 一种基于全局搜索的实时分布场目标跟踪方法
CN104268902A (zh) * 2014-09-30 2015-01-07 东南大学 面向工业现场的多目标视频跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于Mean-Shift的复杂工业环境运动目标跟踪算;华聚良等;《系统仿真学报》;20141204;第26卷(第11期);第2600-2606页 *
面向物流仓库的多目标视频跟踪;练海晨等;《计算机与现代化》;20141009(第9期);第77-85页 *

Also Published As

Publication number Publication date
CN105100727A (zh) 2015-11-25

Similar Documents

Publication Publication Date Title
CN105100727B (zh) 一种固定位监控图像中指定物品实时跟踪方法
Korban et al. Ddgcn: A dynamic directed graph convolutional network for action recognition
Wang et al. A PSO and BFO-based learning strategy applied to faster R-CNN for object detection in autonomous driving
Wang et al. Hidden‐Markov‐models‐based dynamic hand gesture recognition
Wozniak et al. Scene recognition for indoor localization of mobile robots using deep CNN
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
Gong et al. Tracking and grasping of moving target based on accelerated geometric particle filter on colored image
Klein et al. Boosting scalable gradient features for adaptive real-time tracking
Raj et al. Multi-scale convolutional architecture for semantic segmentation
Teng et al. Generative robotic grasping using depthwise separable convolution
CN110298402A (zh) 一种小目标检测性能优化方法
Kim et al. Holistically Constrained Local Model: Going Beyond Frontal Poses for Facial Landmark Detection.
Ding et al. Simultaneous body part and motion identification for human-following robots
Duan et al. A semantic robotic grasping framework based on multi-task learning in stacking scenes
Yan et al. SISG-Net: Simultaneous instance segmentation and grasp detection for robot grasp in clutter
Li et al. Multitarget tracking of pedestrians in video sequences based on particle filters
Juang et al. Moving object recognition by a shape-based neural fuzzy network
Zou Predictive visual control framework of mobile robot for solving occlusion
Shen et al. Comparative study of color feature for particle filter based object tracking
Wang et al. RGB-D based object segmentation in severe color degraded environment
Zhang et al. An improved meanshift tracking algorithm using adaptive quantization step in color space
Yang et al. Visual detection and tracking algorithms for human motion
Li et al. Moving object tracking based on multi-independent features distribution fields with comprehensive spatial feature similarity
An et al. SDAT: Simultaneous detection and tracking of humans using Particle Swarm Optimization
Wang et al. Multiple human tracking using particle filter with Gaussian process dynamical model

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180313

Termination date: 20200814

CF01 Termination of patent right due to non-payment of annual fee