CN103735269B - 一种基于视频多目标跟踪的高度测量方法 - Google Patents
一种基于视频多目标跟踪的高度测量方法 Download PDFInfo
- Publication number
- CN103735269B CN103735269B CN201310578363.9A CN201310578363A CN103735269B CN 103735269 B CN103735269 B CN 103735269B CN 201310578363 A CN201310578363 A CN 201310578363A CN 103735269 B CN103735269 B CN 103735269B
- Authority
- CN
- China
- Prior art keywords
- frame image
- target
- current frame
- pixel
- epsiv
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视频多目标跟踪的高度测量方法,包括如下步骤:对摄像机采集的视频序列进行背景建模,利用背景减除法提取出前景图像;将每帧图像映射成一个无向网络图G=<V,E>;建立能量函数;对所建立的能量函数最小化,得到当前帧图像的像素点属于不同目标和背景的标签值;将属于不同目标的像素点赋予不同的颜色,确定多目标的跟踪框;计算摄像机垂直于地平面方向的灭点Vy和地平面的灭线l;提取待测目标在每一帧图像中的头脚特征点;计算出每一帧图像中待测目标的高度;融合多帧视频序列的高度测量结果,确定待测目标的实际高度;本发明不需要对摄像机进行完全标定,只需要计算出灭点和地平面的灭线即可,降低了计算的复杂度。
Description
技术领域
本发明属于图像处理领域,具体为一种基于视频多目标跟踪的高度测量方法。
背景技术
基于视频的人体高度测量技术是计算机视觉领域的一门新兴技术,在智能视频监控、三维重建和虚拟现实等领域都有着广泛的应用。人体高度是识别人的重要参数之一,因此,近年来基于视频的人体高度测量受到了越来越多国内外研究人员的关注。按照视频传感器的数量进行分类,基于视频的高度测量技术可以分为:单目测量、双目测量和多目测量;其中,双目测量和多目测量都涉及到图像间的配准问题,这一问题是计算机视觉领域的一个难题,至今没有得到彻底的解决,而单目测量只需要一台摄像机,结构简单,又避免了图像配准的问题,因此成为了研究的重点。现有的单目人体高度测量方法多数是基于单幅静止图像的,这些方法对测量环境和被测目标都有较高的要求,比如:被测量的人必须保持静止直立等,随着智能视频监控系统的广泛应用,基于静止图像的人体高度测量已经无法满足人们的实际需求。除此之外,现有的单目人体高度测量算法多数只能测量单个目标的高度,无法同时对多个目标的高度进行测量。
发明内容
本发明针对以上问题的提出,而研制一种基于视频多目标跟踪的高度测量方法。
本发明的技术手段如下:
一种基于视频多目标跟踪的高度测量方法,包括如下步骤:
步骤1:采用码本模型对摄像机采集的视频序列进行背景建模,利用背景减除法提取出前景图像,所述前景图像由包括不同目标的前景团块组成;
步骤2:将摄像机采集的视频序列中每帧图像映射成一个无向网络图G=<V,E>,其中V是每帧图像的像素点的集合,E是每帧图像各像素点之间的边的集合;
步骤3:基于前一帧图像的目标跟踪结果和当前帧图像的前景团块建立当前帧图像的能量函数;
步骤4:采用最大流/最小化算法对所建立的能量函数最小化,得到当前帧图像的无向网络图中的像素点属于不同目标和背景的标签值;
步骤5:根据得到的当前帧图像的像素点属于不同目标和背景的标签值,将属于不同目标的像素点赋予不同的颜色,确定当前帧图像的多目标的跟踪框;
步骤6:将当前帧图像作为前一帧图像,将视频序列的下一帧图像作为当前帧图像,重复执行步骤3至步骤5直至当前帧图像为视频序列的最后一帧图像;
步骤7:计算摄像机垂直于地平面方向的灭点Vy和地平面的灭线l;
步骤8:提取待测目标在每一帧图像中的头脚特征点;
步骤9:根据公式计算出每一帧图像中待测目标的高度d(H2,F2),其中s为待测目标H1F1投射到参考物体H1F1上的交点S在像平面上的投影点,d(H1,F1)为参考物体的高度,d(h2,f2)为待测目标的头部特征点h2与脚部特征点f2之间的距离,d(Vy,s)为垂直于地平面方向的灭点Vy与投影点s之间的距离,d(Vy,h2)为垂直于地平面方向的灭点Vy与头部特征点h2之间的距离,d(s,f2)为投影点s与脚部特征点f2之间的距离;
步骤10:融合多帧视频序列的高度测量结果,确定待测目标的实际高度:假设当前帧图像目标i的跟踪结果表示为矩阵,该矩阵的协方差矩阵为协方差矩阵垂直方向和水平方向的特征向量特征值分别为和令提取值最小所对应的高度测量结果;
进一步地,所述步骤1和步骤2之间还具有如下步骤:
对第一帧图像的前景图像中的不同目标的像素点和背景的像素点分别赋予不同的初始标签;
进一步地,步骤3包括如下步骤:
步骤31:基于前一帧图像的目标跟踪结果和目标运动信息得出当前帧图像的目标预测值;
步骤32:根据对当前帧图像的目标预测值和前一帧图像的目标跟踪结果生成当前帧图像的预测区域的似然函数l1(p,fp,t),其中 表示前一帧图像的目标i的像素点的概率分布,qt-1(zt(p))表示前一帧图像的背景的像素点的概率分布,fp,t表示对当前帧图像的像素点p的标签的预测值,ob表示目标,bg表示背景;
步骤33:计算前一帧图像的目标跟踪结果与当前帧图像的前景团块之间的相似度d2(j,fp,t),其中 表示前一帧图像的目标i的像素点的概率分布和当前帧图像的前景团块j的像素点的概率分布之间的Kullback-lerbler距离,表示前一帧图像的背景的像素点的概率分布和当前帧图像的前景团块j的像素点的概率分布之间的Kullback-lerbler距离,fp,t表示对当前帧图像的像素点p的标签的预测值,ob表示目标,bg表示背景,i为1、2、3、……、n,j为1、2、3、……、m;
步骤34:计算当前帧图像的能量函数的数据项其中 α是常数、具体为前景团块j的像素数目,p为像素点,Vt为当前帧图像的像素点的集合,Ot|t-1为当前帧图像的目标预测值,m为当前帧图像的前景团块的个数,l1(p,fp,t)为当前帧图像的预测区域的似然函数,d2(j,fp,t)为前一帧图像的目标跟踪结果与当前帧图像的前景团块之间的相似度;
步骤35:计算当前帧图像的能量函数的平滑项B{p,q},t,其中 dist(p,q)表示当前帧图像的相邻像素p、q之间的距离,为像素点p的颜色信息,为像素点q的颜色信息,所述和均是一个YUV颜色空间的三维向量;
步骤36:根据计算出的数据项和平滑项B{p,q},t建立能量函数Et(Lt),其中 Vt为当前帧图像的像素点的集合,Et为当前帧图像的能量,δ(fp,t,fq,t)为单位冲激函数、当相邻像素p、q分别对应的标签的预测值fp,t和fq,t相等时δ(fp,t,fq,t)取1、否则取0;
进一步地,所述步骤31具体包括如下步骤:
步骤311:设定前一帧图像的目标跟踪结果为,其中i表示任一目标,取值为1、2、3、……、n,t表示当前帧图像,t-1表示前一帧图像;
步骤312:利用光流法得出前一帧图像的任一目标i的像素点p的运动信息即光流向量
步骤313:确定当前帧图像的目标预测值其中表示前一帧图像的目标i中所有像素点光流向量的均值;
进一步地,所述步骤7为利用建筑物的信息计算摄像机垂直于地平面方向的灭点Vy和地平面的灭线l,具体包括如下步骤:
步骤7a:采用Canny算子提取图像中的边缘信息;
步骤7b:通过Hough变换从边缘信息中提取出垂直于地平面方向上的一组平行线在像平面中对应的线段;
步骤7c:利用公式 计算出摄像机垂直于地平面方向的灭点Vy,其中wε为第ε条线段的中点坐标向量,hε、fε为第ε条线段的两个端点坐标向量,bε为第ε条线段的截距,ε为步骤7b所提取出的线段的索引,T表示向量的转置;同理,计算出摄像机在x方向上的灭点Vx和摄像机在z方向上的灭点Vz,地平面的灭线l即为连接灭点Vx和灭点Vz的直线;
进一步地,所述步骤7为利用标志物的信息计算摄像机垂直于地平面方向的灭点Vy和地平面的灭线l,具体包括如下步骤:
步骤7a′:预先在视频监控场景中放置四根垂直于地平面的标志物,所述标志物与地平面的接触点组成一矩形;
步骤7b′:采用Canny算子提取图像中的边缘信息;
步骤7c′:通过Hough变换从边缘信息中提取出垂直于地平面方向上的一组平行线在像平面中对应的线段;
步骤7d′:利用公式 计算出摄像机垂直于地平面方向的灭点Vy,其中wε为第ε条线段的中点坐标向量,hε、fε为第ε条线段的两个端点坐标向量,bε为第ε条线段的截距,ε为步骤7b所提取出的线段的索引,T表示向量的转置;同理,计算出摄像机在x方向上的灭点Vx和摄像机在z方向上的灭点Vz,地平面的灭线l即为连接灭点Vx和灭点Vz的直线;
步骤7e′:撤除标志物;
进一步地,所述步骤8具体包括如下步骤:
步骤81:提取待测目标在每一帧图像中的头部特征点;
步骤82:连接每一帧图像中待测运动目标的头部特征点和垂直于地平面方向的灭点Vy,将头部特征点和灭点Vy之间的直线与多目标的跟踪框的交点作为待测运动目标的脚部特征点。
由于采用了上述技术方案,本发明提供的一种基于视频多目标跟踪的高度测量方法,不需要对摄像机进行完全标定,只需要计算出灭点和地平面的灭线即可,降低了计算的复杂度;利用图割算法实现对多目标的轮廓跟踪,降低了对目标检测的依赖度;融合多帧测量结果提高了算法的准确度。本发明对遮挡和目标运动状态的变化具有较强的鲁棒性,同时可以满足准确性和实时性的要求。
附图说明
图1是本发明前一帧图像的无向网络图;
图2是本发明当前帧图像的无向网络图;
图3是本发明所述多目标的跟踪框的示意图;
图4是摄像机的投影成像示意图;
图5是高度测量的3D空间几何关系示意图;
图6是高度测量的2D像平面几何关系示意图;
图7是垂直灭点和地平面灭线的几何示意图;
图8是利用建筑物计算灭点和灭线的示意图;
图9是利用标志物计算灭点和灭线的示意图;
图10是融合多帧视频序列的高度测量结果的示意图;
图11-a是双腿分开时的特征值计算的示意图;
图11-b是双腿闭合时的特征值计算的示意图;
图12是的变化曲线示意图。
图中:1、地平面,2、像平面,3、相机,4、平面π,5、垂直灭点,6、摄像机光心,7、平面的灭线。
具体实施方式
本发明所述一种基于视频多目标跟踪的高度测量方法采用图割理论对多目标进行跟踪,图割理论是图论中一类关于网络流的算法,本发明首先采用背景减除法进行运动目标检测,得到每帧图像的前景图像,背景减除法是比较常用的一种运动目标检测方法,基本思想是建立背景模型,将当前帧图像与背景图像进行差分实现对运动目标的检测,本发明采用码本模型对背景进行建模,码本模型是Kim K[13]提出,该模型根据每个像素点连续采样值的颜色距离和亮度范围为每个像素点生成一个码本,根据采样值的变化情况,每个码本包含的码字个数不同,训练背景得到码本背景模型后,运用减背景的运动目标检测技术,根据像素点的采样值与其码本中的各个码字的匹配情况来确定该像素是否为前景点,假定第一帧图像的多目标没有互相遮挡的情况,则第一帧图像得到的前景图像为包括多个目标的前景团块,对第一帧图像的背景的像素点和不同目标的像素点赋予不同的初始标签,比如将背景的像素点赋予标签0,目标1的像素点赋予标签1,目标2的像素点赋予标签2…。
之后对视频序列的每帧图像均映射成一个无向网络图,假设当前帧图像共有n个目标被跟踪,其中第i个目标采用表示,在视频图像中每个目标可以看做是多个像素组成的集合,假设当前帧图像共有m个前景团块,第j个前景团块采用表示,也是一些像素组成的集合,i为1、2、3、……、n,j为1、2、3、……、m;将摄像机采集的视频序列中每帧图像映射成一个无向网络图G=<V,E>,其中V是每帧图像的像素点的集合,E是每帧图像各像素点之间的边的集合;如图1所示的前一帧图像的无向网络图的示例,其中白色像素点的标签值为目标,黑色像素点的标签值为背景,箭头表示目标的光流向量,基于前一帧图像的目标跟踪结果和目标运动信息得出当前帧图像的目标预测值,由于事先对第一帧图像的前景图像中的不同目标的像素点和背景的像素点分别赋予不同的初始标签,利用光流法可以得出前一帧图像的任一目标i的像素点p的运动信息即光流向量故能够根据第一帧图像的像素点的初始标签和像素点的运动信息得出第二帧图像的目标预测值,图2是本发明当前帧图像的无向网络图,其中和为当前帧图像的两个前景团块,分别包括了多个像素点,虚线框内的像素点是根据前一帧图像的目标跟踪结果和运动信息得到的当前帧图像的预测值
进一步地,需要通过建立能量函数并对能量函数最小化,以确定前景团块和以及预测值中的哪些像素点属于真正的目标;假设当前帧图像中的像素点p可以用特征向量zt(p)来描述,其中,表示像素点的颜色信息,是一个YUV颜色空间的三维向量;表示像素点的运动信息,是一个二维的光流向量;针对目标i来说,图像中的像素点不属于该目标,则可以看作背景,我们用包含运动信息和颜色信息的概率分布来表示像素点属于目标还是背景,假设当前帧图像属于目标i的像素点的概率分布用来表示,对应的特征向量为由于运动信息和颜色信息是相互独立的,所以可以分解为(对应的特征向量为)和(对应的特征向量为),则属于目标i的像素点的概率分布的数学表达式为同理,当前帧图像属于背景的像素点的概率分布(对应的特征向量为)可以表示为目标跟踪的任务是根据前一帧图像的目标利用图割算法得到当前帧图像的目标若当前帧图像共有mt个前景团块,第j个前景团块用表示,也可以看做是一些像素组成的集合,假设当前帧图像属于前景团块的像素点的概率分布用来表示,则可以用数学表达式表达为然后基于前一帧图像的目标跟踪结果和目标运动信息得出当前帧图像的目标预测值,具体为设定前一帧图像的目标跟踪结果为,其中i表示任一目标,取值为1、2、3、……、n,t表示当前帧图像,t-1表示前一帧图像,利用光流法得出前一帧图像的任一目标i的像素点p的运动信息即光流向量确定当前帧图像的目标预测值其中表示前一帧图像的目标i中所有像素点光流向量的均值;再根据对当前帧图像的目标预测值和前一帧图像的目标跟踪结果生成当前帧图像的预测区域的似然函数l1(p,fp,t),其中表示前一帧图像的目标i的像素点的概率分布,qt-1(zt(p))表示前一帧图像的背景的像素点的概率分布,fp,t表示对当前帧图像的像素点p的标签的预测值,ob表示目标,bg表示背景;然后计算前一帧图像的目标跟踪结果与当前帧图像的前景团块之间的相似度d2(j,fp,t),其中 表示前一帧图像的目标i的像素点的概率分布和当前帧图像的前景团块j的像素点的概率分布之间的Kullback-lerbler距离,表示前一帧图像的背景的像素点的概率分布和当前帧图像的前景团块j的像素点的概率分布之间的Kullback-lerbler距离,fp,t表示对当前帧图像的像素点p的标签的预测值,ob表示目标,bg表示背景,i为1、2、3、……、n,j为1、2、3、……、m,计算当前帧图像的能量函数的数据项其中 α是常数,这个常数是控制前景团块对数据项的影响程度的,具体为前景团块j的像素数目,p为像素点,Vt为当前帧图像的像素点的集合,Ot|t-1为当前帧图像的目标预测值,m为当前帧图像的前景团块的个数,l1(p,fp,t)为当前帧图像的预测区域的似然函数,d2(j,fp,t)为前一帧图像的目标跟踪结果与当前帧图像的前景团块之间的相似度;计算能量函数的平滑项B{p,q},t,平滑项B{p,q},t的设计是基于当前帧图像中的相邻像素点{p,q}的颜色梯度信息,具体为 dist(p,q)表示当前帧图像的相邻像素之间的距离,为像素点p的颜色信息,为像素点q的颜色信息,所述和均是一个YUV颜色空间的三维向量;根据计算出的数据项和平滑项B{p,q},t建立能量函数Et(Lt),其中 Vt为当前帧图像的像素点的集合,Et为当前帧图像的能量,δ(fp,t,fq,t)为单位冲激函数、当相邻像素p、q分别对应的标签的预测值fp,t和fq,t相等时δ(fp,t,fq,t)取1、否则取0。
采用最大流/最小化算法对所建立的能量函数最小化,得到当前帧图像的无向网络图中的像素点属于不同目标和背景的标签值根据得到的当前帧图像的像素点属于不同目标和背景的标签值,将属于不同目标的像素点赋予不同的颜色,确定当前帧图像的多目标的跟踪框,图3示出了多目标的跟踪框的示意图,将当前帧图像作为前一帧图像,将视频序列的下一帧图像作为当前帧图像,重复执行步骤3至步骤5直至当前帧图像为视频序列的最后一帧图像,其中由于事先对第一帧图像的前景图像中的不同目标的像素点和背景的像素点分别赋予不同的初始标签,利用光流法可以得出前一帧图像的任一目标i的像素点p的运动信息即光流向量,故能够根据第一帧图像的像素点的初始标签和像素点的运动信息得出第二帧图像的目标预测值,进而通过上述步骤确定第二帧图像的目标跟踪结果,再对第三帧图像进行目标预测,直至视频序列的最后一帧确定目标跟踪结果,视频序列的每帧图像均得出多目标的跟踪框;本发明利用多目标的运动信息和颜色信息,建立一个关于多目标标签的能量函数,最后利用最大流/最小割算法实现能量函数的最小化,从而将不同的像素赋予不同的标签,实现基于单目视频序列的多目标轮廓跟踪。
图4示出了摄像机的投影成像示意图,摄像机的基本成像模型通常称为基本针孔模型,这种模型在数学上是三维空间到二维空间的中心投影,如图4所示,图中用大写字母表示三维空间中的点,相应的小写字母表示该点在像平面中的成像点,当一个人双腿闭合直立时,可以近似的看做一条垂直于地平面的线段,H表示被测量目标的头顶点,F表示该目标的脚在地平面上的特征点,连接H和F的线段记为HF,h和f分别表示H和F在像平面中的成像点,因此线段hf为HF在像平面中成的像,任意两点间距离用d(,)表示,图5示出了高度测量的3D空间几何关系示意图,图6示出了高度测量的2D像平面几何关系示意图,如图5所示,H1F1表示我们要测量的目标,H2F2表示我们预先选定的参考高度,参考高度很容易获得,比如可以在监控场景中建筑物上选定一个预先测量好高度的点,也可以选择任意已知高度的垂直于地面的物体,首先,将待测目标H1F1投射到参考高度H2F2上,从点H1向H2F2引直线,使其平行于线段F1F2,交点为S,由于线段H1F1,H2F2均垂直于地平面,所以H1F1平行于H2F2,可知d(S,F2)=d(H1,F1),该投射过程在像平面中相应的示意图如图6所示,图中Vy表示垂直于地平面方向的灭点,l表示地平面的灭线;连接f1和f2使其与灭线l相交于点u,连接h1和u,与Vy、f2相交于点s,根据摄影几何中4个共线点的交比(Cross Ratio)公式可得根据2D像平面和3D空间的对应关系可知又因为d(S,F2)=d(H1,F1),可得,故h1f1和h2f2在空间中对应的直线是平行的,h1s和f1f2在空间中对应的线段也是平行的,因此s为S在像平面上的投影点,这样便在像平面获得了4个共线点,分别是Vy,h2,s,f2,由此可以看出,只要计算出摄像机垂直于地平面方向的灭点Vy和地平面的灭线l,便可以通过公式计算出待测目标的高度d(H2,F2)。
图7示出了垂直灭点和地平面灭线的几何示意图,直线上无穷远点的图像称为该直线的灭点,由于平行直线与无穷远平面相交于同一个无穷远点,因此一组平行的直线有一个相同的灭点,即灭点只与直线的方向有关而与直线的位置无关,在摄影几何关系里,通过摄像机光心垂直于平面π的方向引直线,该直线和像平面的交点就是垂直方向的灭点;平面π上无穷远直线L∞在像平面上的投影称为该平面的灭线在摄影几何关系里,平面π的灭线是平行于平面π且通过摄像机光心的平面与像平面的交线。
图8示出了利用建筑物计算灭点和灭线的示意图;如果视频监控场景中有建筑物的信息,可以利用建筑物信息来计算垂直方向的灭点Vy和地平面的灭线l,通过对灭点灭线概念的理解可知,空间中垂直于地平面方向上的一组平行线在像平面中的交点即为垂直方向上的灭点Vy,同理地平面上X方向的一组平行线在像平面中的交点即为X方向上的灭点Vx,Z方向的一组平行线在像平面中的交点即为Z方向上的的灭点Vz,连接Vx和Vz的直线,即为地平面的灭线l,利用建筑物的信息计算摄像机垂直于地平面方向的灭点Vy和地平面的灭线l,具体包括如下步骤:
步骤7a:采用Canny算子提取图像中的边缘信息;
步骤7b:通过Hough变换从边缘信息中提取出垂直于地平面方向上的一组平行线在像平面中对应的线段;
步骤7c:利用公式 计算出摄像机垂直于地平面方向的灭点Vy,其中wε为第ε条线段的中点坐标向量,hε、fε为第ε条线段的两个端点坐标向量,bε为第ε条线段的截距,ε为步骤7b所提取出的线段的索引,T表示向量的转置;同理,计算出摄像机在x方向上的灭点Vx和摄像机在z方向上的灭点Vz,地平面的灭线l即为连接灭点Vx和灭点Vz的直线。
图9是利用标志物计算灭点和灭线的示意图;如果视频监控场景中无法在建筑物信息中提取三个方向的平行线,则可以预先在视频监控场景中放置4根带底座的垂直于地面的标志物(杆子),让4个标志物与地的接触点组成一个矩形,如图9所示,利用标志物信息计算灭点和灭线,获得灭点和灭线后标志物即可撤除,不会影响后续的多目标高度测量,该方法简单易行,计算量小,同时,计算灭点和灭线的准确度高。
在计算摄像机垂直于地平面方向的灭点Vy和地平面的灭线l之后,需要提取待测目标在每一帧图像中的头脚特征点;首先,计算多目标的跟踪框的主轴,利用文献Lv F,Zhao T,and Nevatia R.Camera Calibration from Video of aWalking Human[J].IEEE Transactions on Pattern Analysis and MachineIntelligence,2006,28(9):1513-1518中的方法提取运动目标的头部特征点,且由于运动目标的头脚特征点和垂直方向的灭点应该在同一条直线上,因此取连接头部特征点和垂直方向灭点的直线与多目标的跟踪框的交点作为目标的脚部特征点,获得运动目标的头脚特征点后,就可以得到h1f1,再结合预先选好的参考高度h2f2,即可计算出每一帧中多目标的高度值。
图10示出了融合多帧视频序列的高度测量结果的示意图;监控视频中运动目标的高度是随着运动状态的改变而改变的,比如人在行走过程中双腿闭合和分开时,高度会随之发生变化。运动目标下蹲或者部分进入监控画面时的高度和实际身高的差距也较大,可以通过设置阈值将这部分测量结果作为外点排除掉;如图10所示,通常情况下,当双腿闭合时测得的高度值更接近目标的实际身高,故提取视频序列中目标双腿闭合时的视频帧,然后融合这些视频帧的测量结果来确定运动目标的实际高度。
图11-a示出了双腿分开时的特征值计算的示意图,图11-b示出了双腿闭合时的特征值计算的示意图,图12是的变化曲线示意图;如图11、图12所示,假设当前帧图像目标i的跟踪结果表示为矩阵,该矩阵的协方差矩阵为,协方差矩阵垂直方向和水平方向的特征向量特征值分别为和令人在行走过程中,双腿的闭合和分开是接近周期性变化的,在每个运动周期中的值最小时即是双腿闭合的状态,故提取值最小所对应的高度测量结果。
本发明提供的一种基于视频多目标跟踪的高度测量方法,不需要对摄像机进行完全标定,只需要计算出灭点和地平面的灭线即可,降低了计算的复杂度;利用图割算法实现对多目标的轮廓跟踪,降低了对目标检测的依赖度;融合多帧测量结果提高了算法的准确度。本发明对遮挡和目标运动状态的变化具有较强的鲁棒性,同时可以满足准确性和实时性的要求。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (4)
1.一种基于视频多目标跟踪的高度测量方法,其特征在于包括如下步骤:
步骤1:采用码本模型对摄像机采集的视频序列进行背景建模,利用背景减除法提取出前景图像,所述前景图像由包括不同目标的前景团块组成;
步骤2:将摄像机采集的视频序列中每帧图像映射成一个无向网络图G=<V,E>,其中V是每帧图像的像素点的集合,E是每帧图像各像素点之间的边的集合;
步骤3:基于前一帧图像的目标跟踪结果和当前帧图像的前景团块建立当前帧图像的能量函数;
步骤4:采用最大流/最小化算法对所建立的能量函数最小化,得到当前帧图像的无向网络图中的像素点属于不同目标和背景的标签值;
步骤5:根据得到的当前帧图像的像素点属于不同目标和背景的标签值,将属于不同目标的像素点赋予不同的颜色,确定当前帧图像的多目标的跟踪框;
步骤6:将当前帧图像作为前一帧图像,将视频序列的下一帧图像作为当前帧图像,重复执行步骤3至步骤5直至当前帧图像为视频序列的最后一帧图像;
步骤7:计算摄像机垂直于地平面方向的灭点Vy和地平面的灭线l;
步骤8:提取待测目标在每一帧图像中的头脚特征点;
步骤9:根据公式 计算出每一帧图像中待测目标的高度d(H1,F1),其中s为待测目标H1F1投射到参考物体H2F2上的交点S在像平面上的投影点,d(H2,F2)为参考物体的高度,d(h2,f2)为待测目标的头部特征点h2与脚部特征点f2之间的距离,d(Vy,s)为垂直于地平面方向的灭点Vy与投影点s之间的距离,d(Vy,h2)为垂直于地平面方向的灭点Vy与头部特征点h2之间的距离,d(s,f2)为投影点s与脚部特征点f2之间的距离;
步骤10:融合多帧视频序列的高度测量结果,确定待测目标的实际高度:假设当前帧图像目标i的跟踪结果表示为矩阵该矩阵的协方差矩阵为协方差矩阵垂直方向和水平方向的特征向量特征值分别为和令提取值最小所对应的高度测量结果;
其中,步骤3包括如下步骤:
步骤31:基于前一帧图像的目标跟踪结果和目标运动信息得出当前帧图像的目标预测值;
步骤32:根据对当前帧图像的目标预测值和前一帧图像的目标跟踪结果生成当前帧图像的预测区域的似然函数l1(p,fp,t),其中 表示前一帧图像的目标i的像素点的概率分布,qt-1(zt(p))表示前一帧图像的背景的像素点的概率分布,fp,t表示对当前帧图像的像素点p的标签的预测值,ob表示目标,bg表示背景;
步骤33:计算前一帧图像的目标跟踪结果与当前帧图像的前景团块之间的相似度d2(j,fp,t),其中 表示前一帧图像的目标i的像素点的概率分布和当前帧图像的前景团块j的像素点的概率分布之间的Kullback-lerbler距离,表示前一帧图像的背景的像素点的概率分布和当前帧图像的前景团块j的像素点的概率分布之间的Kullback-lerbler距离,fp,t表示对当前帧图像的像素点p的标签的预测值,ob表示目标,bg表示背景,i为1、2、3、……、n,j为1、2、3、……、m,n为被跟踪的目标个数,m为当前帧图像的前景团块的个数;
步骤34:计算当前帧图像的能量函数的数据项其中 α为前景团块j的像素数目,p为像素点,Vt为当前帧图像的像素点的集合,Ot|t-1为当前帧图像的目标预测值,m为当前帧图像的前景团块的个数,l1(p,fp,t)为当前帧图像的预测区域的似然函数,d2(j,fp,t)为前一帧图像的目标跟踪结果与当前帧图像的前景团块之间的相似度;
步骤35:计算当前帧图像的能量函数的平滑项B{p,q},t,其中 dist(p,q)表示当前帧图像的相邻像素p、q之间的距离,为像素点p的颜色信息,为像素点q的颜色信息,所述和均是一个YUV颜色空间的三维向量;
步骤36:根据计算出的数据项和平滑项B{p,q},t建立能量函数Et(Lt),其中 Vt为当前帧图像的像素点的集合,Et为当前帧图像的能量,Lt表示当前帧图像的像素点属于不同目标和背景的标签值,δ(fp,t,fq,t)为单位冲激函数、当相邻像素p、q分别对应的标签的预测值fp,t和fq,t相等时δ(fp,t,fq,t)取1、否则取0;
其中,所述步骤7为利用建筑物的信息计算摄像机垂直于地平面方向的灭点Vy和地平面的灭线l,具体包括如下步骤:
步骤7a:采用Canny算子提取图像中的边缘信息;
步骤7b:通过Hough变换从边缘信息中提取出垂直于地平面方向上的一组平行线在像平面中对应的线段;
步骤7c:利用公式 计算出摄像机垂直于地平面方向的灭点Vy,其中wε为第ε条线段的中点坐标向量,hε、fε为第ε条线段的两个端点坐标向量,bε为第ε条线段的截距,ε为步骤7b所提取出的线段的索引,T表示向量的转置;同理,计算出摄像机在x方向上的灭点Vx和摄像机在z方向上的灭点Vz,地平面的灭线l即为连接灭点Vx和灭点Vz的直线;
其中,所述步骤8具体包括如下步骤:
步骤81:提取待测目标在每一帧图像中的头部特征点;
步骤82:连接每一帧图像中待测运动目标的头部特征点和垂直于地平面方向的灭点Vy,将头部特征点和灭点Vy之间的直线与多目标的跟踪框的交点作为待测运动目标的脚部特征点。
2.根据权利要求1所述的一种基于视频多目标跟踪的高度测量方法,其特征在于所述步骤1和步骤2之间还具有如下步骤:
对第一帧图像的前景图像中的不同目标的像素点和背景的像素点分别赋予不同的初始标签。
3.根据权利要求1所述的一种基于视频多目标跟踪的高度测量方法,其特征在于所述步骤31具体包括如下步骤:
步骤311:设定前一帧图像的目标跟踪结果为其中i表示任一目标,取值为1、2、3、……、n,t表示当前帧图像,t-1表示前一帧图像,n为被跟踪的目标个数;
步骤312:利用光流法得出前一帧图像的任一目标i的像素点p的运动信息即光流向量
步骤313:确定当前帧图像的目标预测值其中表示前一帧图像的目标i中所有像素点光流向量的均值。
4.根据权利要求1所述的一种基于视频多目标跟踪的高度测量方法,其特征在于所述步骤7还可以为利用标志物的信息计算摄像机垂直于地平面方向的灭点Vy和地平面的灭线l,具体包括如下步骤:
步骤7a′:预先在视频监控场景中放置四根垂直于地平面的标志物,所述标志物与地平面的接触点组成一矩形;
步骤7b′:采用Canny算子提取图像中的边缘信息;
步骤7c′:通过Hough变换从边缘信息中提取出垂直于地平面方向上的一组平行线在像平面中对应的线段;
步骤7d′:利用公式 计算出摄像机垂直于地平面方向的灭点Vy,其中wε为第ε条线段的中点坐标向量,hε、fε为第ε条线段的两个端点坐标向量,bε为第ε条线段的截距,ε为步骤7b所提取出的线段的索引,T表示向量的转置;同理,计算出摄像机在x方向上的灭点Vx和摄像机在z方向上的灭点Vz,地平面的灭线l即为连接灭点Vx和灭点Vz的直线;
步骤7e′:撤除标志物。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310578363.9A CN103735269B (zh) | 2013-11-14 | 2013-11-14 | 一种基于视频多目标跟踪的高度测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310578363.9A CN103735269B (zh) | 2013-11-14 | 2013-11-14 | 一种基于视频多目标跟踪的高度测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103735269A CN103735269A (zh) | 2014-04-23 |
CN103735269B true CN103735269B (zh) | 2015-10-28 |
Family
ID=50492396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310578363.9A Expired - Fee Related CN103735269B (zh) | 2013-11-14 | 2013-11-14 | 一种基于视频多目标跟踪的高度测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103735269B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101878095B1 (ko) * | 2017-02-07 | 2018-07-12 | 동의대학교 산학협력단 | 전방의 깊이 영상을 이용한 사람의 키 추정 방법 및 장치 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103986906B (zh) * | 2014-05-08 | 2017-05-10 | 杭州同尊信息技术有限公司 | 基于监控视频的开关门检测方法 |
CN104732559B (zh) * | 2015-02-02 | 2017-08-01 | 大连民族学院 | 一种基于rgb‑d数据的多目标检测与跟踪方法 |
CN105286871B (zh) * | 2015-11-27 | 2017-04-26 | 西安交通大学 | 一种基于视频处理的人体身高测量方法 |
CN105956539B (zh) * | 2016-04-27 | 2019-06-25 | 武汉大学 | 一种应用背景建模和双目视觉原理的人体身高测量方法 |
KR101878093B1 (ko) * | 2017-01-31 | 2018-07-12 | 동의대학교 산학협력단 | 하방의 깊이 영상을 이용한 신장 측정 방법 및 장치 |
CN108961182B (zh) * | 2018-06-25 | 2021-06-01 | 北京大学 | 针对视频图像的竖直方向灭点检测方法及视频扭正方法 |
CN109712199B (zh) * | 2018-12-28 | 2020-09-08 | 南京泛在地理信息产业研究院有限公司 | 一种基于a4纸提取二灭点的相机简易标定方法及装置 |
CN110677619A (zh) * | 2019-08-20 | 2020-01-10 | 青岛萨纳斯智能科技股份有限公司 | 一种智能监控视频处理方法 |
CN110604574A (zh) * | 2019-09-16 | 2019-12-24 | 河北微幼趣教育科技有限公司 | 一种基于视频成像原理的人体身高测量方法 |
CN112535476B (zh) * | 2020-12-01 | 2022-11-22 | 业成科技(成都)有限公司 | 跌倒侦测系统及其方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6963658B2 (en) * | 2000-09-27 | 2005-11-08 | Hitachi, Ltd. | Method of detecting and measuring a moving object and apparatus therefor, and a recording medium for recording a program for detecting and measuring a moving object |
CN101876535A (zh) * | 2009-12-02 | 2010-11-03 | 北京中星微电子有限公司 | 一种高度测量方法、装置及监控系统 |
CN101488222B (zh) * | 2008-01-16 | 2011-02-09 | 中国科学院自动化研究所 | 一种基于运动目标表象和运动信息的摄像机自标定方法 |
CN102074095A (zh) * | 2010-11-09 | 2011-05-25 | 无锡中星微电子有限公司 | 幼儿行为监控系统及方法 |
CN102243765A (zh) * | 2011-05-06 | 2011-11-16 | 大连民族学院 | 基于多相机的多目标定位跟踪方法及系统 |
CN101882217B (zh) * | 2010-02-26 | 2012-06-27 | 杭州海康威视软件有限公司 | 视频图像的目标分类方法及装置 |
CN102609686A (zh) * | 2012-01-19 | 2012-07-25 | 宁波大学 | 一种行人检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9530060B2 (en) * | 2012-01-17 | 2016-12-27 | Avigilon Fortress Corporation | System and method for building automation using video content analysis with depth sensing |
-
2013
- 2013-11-14 CN CN201310578363.9A patent/CN103735269B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6963658B2 (en) * | 2000-09-27 | 2005-11-08 | Hitachi, Ltd. | Method of detecting and measuring a moving object and apparatus therefor, and a recording medium for recording a program for detecting and measuring a moving object |
CN101488222B (zh) * | 2008-01-16 | 2011-02-09 | 中国科学院自动化研究所 | 一种基于运动目标表象和运动信息的摄像机自标定方法 |
CN101876535A (zh) * | 2009-12-02 | 2010-11-03 | 北京中星微电子有限公司 | 一种高度测量方法、装置及监控系统 |
CN101882217B (zh) * | 2010-02-26 | 2012-06-27 | 杭州海康威视软件有限公司 | 视频图像的目标分类方法及装置 |
CN102074095A (zh) * | 2010-11-09 | 2011-05-25 | 无锡中星微电子有限公司 | 幼儿行为监控系统及方法 |
CN102243765A (zh) * | 2011-05-06 | 2011-11-16 | 大连民族学院 | 基于多相机的多目标定位跟踪方法及系统 |
CN102609686A (zh) * | 2012-01-19 | 2012-07-25 | 宁波大学 | 一种行人检测方法 |
Non-Patent Citations (4)
Title |
---|
Video-based Height Measurements of Multiple Moving Objects;Jiang Mingxin,et al.;《KSII TRANSACTIONS ON INTERNET AND INFORMATION SYSTEMS》;20140930;第8卷(第9期);第3196-3210页 * |
基于Mean Shift的运动目标的头脚点检测;郭晓艺等;《黑龙江科技信息》;20130331;第87页 * |
基于多相机的多目标跟踪算法;姜明新等;《自动化学报》;20120430;第38卷(第4期);第531-539页 * |
基于目标检测和图割的多目标跟踪算法;姜明新等;《大连理工大学学报》;20141130;第54卷(第6期);第632-636页 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101878095B1 (ko) * | 2017-02-07 | 2018-07-12 | 동의대학교 산학협력단 | 전방의 깊이 영상을 이용한 사람의 키 추정 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
CN103735269A (zh) | 2014-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103735269B (zh) | 一种基于视频多目标跟踪的高度测量方法 | |
CN106897670B (zh) | 一种基于计算机视觉的快递暴力分拣识别方法 | |
CN104715493B (zh) | 一种运动人体姿态估计的方法 | |
CN103971386B (zh) | 一种动态背景场景下的前景检测方法 | |
CN105931220B (zh) | 基于暗通道先验与最小图像熵的交通雾霾能见度检测方法 | |
CN105869178B (zh) | 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法 | |
CN104680559B (zh) | 基于运动行为模式的多视角室内行人跟踪方法 | |
CN104240264A (zh) | 一种运动物体的高度检测方法和装置 | |
CN105160649A (zh) | 基于核函数非监督聚类的多目标跟踪方法及系统 | |
CN110309701B (zh) | 一种基于跨视角同一区域的行人重识别方法 | |
CN103164693B (zh) | 一种监控视频行人检测匹配方法 | |
CN104376334B (zh) | 一种多尺度特征融合的行人比对方法 | |
WO2016165064A1 (zh) | 基于多视角学习的鲁棒性前景检测方法 | |
CN105279769A (zh) | 一种联合多特征的层次粒子滤波跟踪方法 | |
CN103747240A (zh) | 融合颜色和运动信息的视觉显著性滤波方法 | |
CN105574515A (zh) | 一种无重叠视域下的行人再识别方法 | |
CN104217442B (zh) | 基于多模型估计的航拍视频运动目标检测方法 | |
CN109284663A (zh) | 一种基于正态和均匀混合分布模型的海面障碍物检测方法 | |
CN104182968A (zh) | 宽基线多阵列光学探测系统模糊动目标分割方法 | |
CN105513094A (zh) | 基于三维Delaunay三角剖分的立体视觉跟踪方法及系统 | |
CN107194950B (zh) | 一种基于慢特征分析的多人跟踪方法 | |
CN106056078A (zh) | 一种基于多特征回归式集成学习的人群密度估计方法 | |
Jin et al. | Human tracking in the complicated background by particle filter using color-histogram and hog | |
CN104574435B (zh) | 基于块聚类的运动相机前景分割方法 | |
Wang et al. | Improving RGB-D SLAM accuracy in dynamic environments based on semantic and geometric constraints |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20151028 Termination date: 20161114 |