一种视频多目标跟踪方法及装置
技术领域
本发明涉及目标跟踪领域,特别是涉及一种视频多目标跟踪方法及装置。
背景技术
在线目标跟踪是计算机视觉中的一个热点研究课题,其对于动作识别、行为分析、场景理解等高层次的视觉研究具有重要意义,并且在视频监控、智能机器人、人机交互等领域有着广泛的应用前景。
在复杂场景下,由于目标自身形变、目标间相互遮挡或者背景静物对目标的遮挡等因素的影响,尤其是目标被长时间遮挡或目标轨迹长时间没有更新的情况下,目标轨迹会出现断批现象,降低目标跟踪精度。
发明内容
本发明主要解决的技术问题是提供一种视频多目标跟踪方法及装置,能够解决现有技术中由于目标轨迹的断批现象导致跟踪精度低的问题。
为了解决上述技术问题,本发明采用的一个技术方案是:提供一种视频多目标跟踪方法,包括:对当前视频帧进行运动检测,检测得到的可能运动对象作为观测结果;对观测结果和目标的预测结果进行数据关联,其中预测结果是至少利用前一视频帧的目标的轨迹进行预测而得到的;对未被关联的观测结果和预测结果进行轨迹管理,轨迹管理包括利用未被关联的预测结果获取终结轨迹,利用未被关联的观测结果获取新轨迹;对终结轨迹和新轨迹进行轨迹关联;对被关联的终结轨迹和新轨迹进行轨迹融合;删除符合预设条件的未被关联的终结轨迹。
为了解决上述技术问题,本发明采用的另一个技术方案是:提供一种视频多目标跟踪装置,包括:处理器和摄像机,处理器连接摄像机;处理器工作时,用于实现如上所述的方法。
本发明的有益效果是:本发明对当前视频帧进行运动检测获得观测结果,对观测结果和目标的预测结果进行数据关联,对未被关联的观测结果和预测结果进行轨迹管理,以获得终结轨迹和新轨迹,对终结轨迹和新轨迹进行轨迹关联,对被关联的终结轨迹和新轨迹进行轨迹融合,并删除符合预设条件的未被关联的终结轨迹,使得暂时未被关联的预测结果和观测结果可以生成终结轨迹和新轨迹,利用终结轨迹和新轨迹进行轨迹关联和轨迹融合,使得断批的目标轨迹重新连接,从而实现同一目标不同时刻的轨迹连接,提高目标跟踪的精度,改善目标跟踪的性能。
附图说明
图1是本发明视频多目标跟踪方法第一实施例的流程示意图;
图2是本发明视频多目标跟踪方法第二实施例的流程示意图;
图3是利用模糊推理系统计算获取观测结果和预测结果的关联概率的原理示意图;
图4是图2中步骤S121的具体流程示意图;
图5是图2中步骤S122的具体流程示意图;
图6是输入模糊集的隶属度函数示意图;
图7是输出模糊集的隶属度函数示意图;
图8是本发明视频多目标跟踪方法第三实施例的流程示意图;
图9是图8中步骤S141的具体流程示意图;
图10是图8中步骤S144的具体流程示意图;
图11是本发明视频多目标跟踪方法第四实施例的流程示意图;
图12是本发明视频多目标跟踪方法第五实施例的流程示意图;
图13是本发明视频多目标跟踪方法第六实施例的流程示意图;
图14是本发明视频多目标跟踪装置一实施例的流程示意图。
具体实施方式
如图1所示,本发明视频多目标跟踪方法第一实施例包括:
步骤S11:对当前视频帧进行运动检测,检测得到的可能运动对象作为观测结果;
具体地,可以使用帧差法、光流法、背景减除法等运动检测算法对当前视频帧进行运动检测,以从中找出属于运动前景的像素,辅以中值滤波和简单的形态学处理,最终得到当前视频帧中的可能运动对象作为观测结果。一个观测结果是当前视频帧中的一个图像块,一般而言,观测结果的形状为矩形。在一个应用例中,采用混合高斯检测方法对当前视频帧进行运动检测,获取的观测结果可以包括该图像块的x坐标、y坐标、高度和宽度等状态信息。
步骤S12:对观测结果和目标的预测结果进行数据关联;
其中,预测结果是至少利用前一视频帧的目标的轨迹进行预测而得到的目标的预测状态,预测结果可以包括目标预测位置的x坐标、y坐标、x和/或y方向的速度、高度、宽度等状态信息,该预测方法可以根据实际需求而定,此处不做具体限定。
具体地,在一个应用例中,利用模糊推理系统对观测结果和目标的预测结果进行数据关联,获取观测结果和预测结果的模糊隶属度,采用该模糊隶属度代替观测结果和预测结果的关联概率,建立关联概率矩阵,基于最大隶属度准则,根据关联概率矩阵对观测结果和预测结果进行关联,正确关联上的一对预测结果与观测结果为有效目标轨迹。此外,对关联成功的该有效目标轨迹利用其关联的观测结果对其预测结果进行卡尔曼滤波以更新该有效目标轨迹。
当然,在其他应用例中,也可以采用其他关联方法对观测结果和目标的预测结果进行数据关联,此处不做具体限定。
步骤S13:对未被关联的观测结果和预测结果进行轨迹管理;
其中,轨迹管理包括利用未被关联的预测结果获取终结轨迹,利用未被关联的观测结果获取新轨迹;
复杂环境下,由于背景干扰、目标自身形变等多种因素的影响,可能出现虚假观测结果,例如对同一个目标检测出多个观测结果,将多个目标或者目标与背景作为观测结果等。未被关联的观测结果可能是新出现的目标,也可能是虚假观测结果,因此需要判断未被关联的观测结果是否为虚假观测结果,不是虚假观测结果的未被关联的观测结果被判定为新的目标,为其建立新轨迹。
具体地,在一个应用例中,可以将该未被关联的观测结果作为轨迹起始点进行预测,并与下一帧的观测结果进行数据关联,若连续多帧(例如连续5帧)关联成功,则该被关联的观测结果被判定为新的目标,为其建立新轨迹。当然,在其他应用例中,也可以采用其他方法判定该未被关联的观测结果是否为新的目标,此处不做具体限定。
当目标移动出摄像机的拍摄范围、被背景或者其他目标遮挡时,可能会出现未被关联的预测结果。对未被关联的预测结果,继续进行外推预测,并与下一帧观测结果进行数据关联,若该目标连续多帧(例如连续5帧)未被关联,则将该未被关联的预测结果对应的目标轨迹作为终结轨迹。
步骤S14:对终结轨迹和新轨迹进行轨迹关联;
具体地,在一个应用例中,利用终结轨迹和新轨迹的运动、形状、颜色、局部二进制模式、速度等各个特征的平均模糊相似度,计算终结轨迹和新轨迹的模糊相似度,建立模糊可信度矩阵,基于最大可信度原则,根据模糊可信度矩阵对终结轨迹和新轨迹进行轨迹关联,连续多帧(例如连续3帧)成功关联上的一对终结轨迹和新轨迹被判定为同一目标的轨迹。
当然,在其他应用例,也可以采用其他方法对终结轨迹和新轨迹进行轨迹关联,此处不做具体限定。
步骤S15:对被关联的终结轨迹和新轨迹进行轨迹融合;
具体地,在一个应用例中,采用线性插值方法在被关联的终结轨迹和新轨迹之间插入视频帧,以使得被关联的终结轨迹和新轨迹融合为同一轨迹,同时,可以将新轨迹的轨迹标识(轨迹ID)设置为关联的终结轨迹的轨迹ID,从而使得该终结轨迹恢复为可正常预测关联的已存在的有效轨迹,继续进行目标跟踪。
当然,在其他应用例中,也可以采用其他方法对被关联的终结轨迹和新轨迹进行轨迹融合,此处不做具体限定。
步骤S16:删除符合预设条件的未被关联的终结轨迹。
其中,预设条件是预先设置的无效轨迹条件,可以根据具体需求设置,此处不做具体限定。
具体地,在一个应用例中,将连续未更新帧数超过70帧的终结轨迹设置为无效轨迹,则该终结轨迹连续71帧未被关联时,该终结轨迹为无效轨迹,予以删除,从而节省存储空间,控制计算量。
当然,在其他应用例中,也可以将连续未更新帧数超过50/60/65帧的终结轨迹设置为无效轨迹,此处不做具体限定。
本实施方式中,通过对当前视频帧进行运动检测获得观测结果,对观测结果和目标的预测结果进行数据关联,对未被关联的观测结果和预测结果进行轨迹管理,以获得终结轨迹和新轨迹,对终结轨迹和新轨迹进行轨迹关联,对被关联的终结轨迹和新轨迹进行轨迹融合,并删除符合预设条件的未被关联的终结轨迹,使得暂时未被关联的预测结果和观测结果可以生成终结轨迹和新轨迹,利用终结轨迹和新轨迹进行轨迹关联和轨迹融合,使得断批的目标轨迹重新连接,从而实现不同时刻同一目标的轨迹连接,提高目标跟踪的精度,改善目标跟踪的性能。
如图2所示,本发明视频多目标跟踪方法第二实施例是在本发明视频多目标跟踪方法第一实施例的基础上,步骤S12进一步包括:
S121:利用观测结果和预测结果获取目标的预测误差和预测误差变化量;
具体地,结合图3所示,在本实施例中,利用观测结果和预测结果的运动特征、形状特征、颜色特征(即RGB颜色直方图特征)和局部二进制模式特征(Local Binary Patterns,LBP)之间的相似性来构建模糊推理系统的输入变量Ei,j(k)和ΔEi,j(k),其中Ei,j(k)和ΔEi,j(k)分别表示该目标的预测误差和误差变化量。
其中,假设第k帧中第i个预测结果为
其中
s
i(k)=(h
i(k),w
i(k)),x
i(k)表示第i个目标预测位置的x坐标,y
i(k)表示第i个目标预测位置的y坐标,
和
分别表示第i个目标在x和y方向的速度,h
i(k)和w
i(k)分别表示第i个目标的高度和宽度;同时假设当前第k帧中第j个观测结果为
其中
和
分别表示第j个观测结果的x坐标、y坐标、高度和宽度。
进一步地,如图4所示,步骤S121具体包括:
S1211:利用公式(1)计算目标的运动模型预测误差:
其中,||·||
2为二范数,
为当前第k帧中第i个预测结果和第j个观测结果之间的运动模型预测误差,
为第k帧中第j个观测结果的x坐标和y坐标,
为第k-1帧中第i个预测结果,
为第k帧中第j个预测结果,定义为:
其中,
为第k-1帧第i个预测结果的x坐标、在x方向的速度、y坐标以及在y方向的速度,H
k为观测矩阵,
为状态转移矩阵,H
k和
分别定义如下:
其中τ=1。
S1212:利用公式(4)计算目标的形状模型预测误差:
其中,
为当前第k帧中第i个预测结果和第j个观测结果之间的形状模型预测误差,h
i(k)为第k帧中第i个预测结果的高度,
为第k帧中第j个观测结果的高度,σ
s为高度标准方差;
本实施例中,高度标准方差σs=6,在其他实施例中,该高度标准方差σs也可以根据实际需求取其他值,例如8,此处不做具体限定。
表观是多目标跟踪中的一个重要的特征,本实施例中,为了使得表观更具鲁棒性,利用RGB颜色特征和LBP特征提取目标的统计和纹理信息。
S1213:利用公式(5)计算目标的颜色特征预测误差:
其中,
为当前第k帧中第i个预测结果和第j个观测结果之间的颜色特征预测误差,N为颜色空间的个数,H
m(x
i)为第i个预测结果在第m个颜色空间中的像素个数,H
n(z
j)为第j个观测结果在第n个颜色空间中的像素个数,
和
分别为第i个预测结果和第j个观测结果在N个颜色空间中的平均像素个数;
本实施例中,颜色空间的个数N=16,在其他实施例中,该颜色空间的个数N也可以根据实际需求取其他值,例如8,此处不做具体限定。
S1214:利用公式(6)计算目标的局部二进制模式特征预测误差:
其中,
为当前第k帧中第i个预测结果和第j个观测结果之间的局部二进制模式特征预测误差,
和
分别为第i个预测结果和第j个观测结果的局部二进制模式特征直方图,ρ为
和
的巴氏系数,定义如下:
S1215:利用公式(8)计算目标的运动模型预测误差变化量:
其中,
为第k帧中第i个预测结果和第j个观测结果之间的运动模型预测误差变化量,
为第k帧中第i个预测结果和第j个观测结果之间的运动模型预测误差,
为第k-1帧中第i个预测结果和第j个观测结果之间的运动模型预测误差;
S1216:利用公式(9)计算目标的形状模型预测误差变化量:
其中,
为第k帧中第i个预测结果和第j个观测结果之间的形状模型预测误差变化量,
为第k帧中第i个预测结果和第j个观测结果之间的形状模型预测误差,
为第k-1帧中第i个预测结果和第j个观测结果之间的形状模型预测误差;
S1217:利用公式(10)计算目标的颜色特征预测误差变化量:
其中,
为第k帧中第i个预测结果和第j个观测结果之间的颜色特征预测误差变化量,
为第k帧中第i个预测结果和第j个观测结果之间的颜色特征预测误差,
为第k-1帧中第i个预测结果和第j个观测结果之间的颜色特征预测误差;
S1218:利用公式(11)计算目标的局部二进制模式特征预测误差变化量:
其中,
为第k帧中第i个预测结果和第j个观测结果之间的局部二进制模式特征预测误差变化量,
为第k帧中第i个预测结果和第j个观测结果之间的局部二进制模式特征预测误差,
为第k-1帧中第i个预测结果和第j个观测结果之间的局部二进制模式特征预测误差;
S1219:利用公式(12)和(13)计算目标的预测误差和预测误差变化量:
其中,Ei,j(k)为第k帧中第i个预测结果和第j个观测结果之间的预测误差,ΔEi,j(k)为第k帧中第i个预测结果和第j个观测结果之间的预测误差变化量,Ei,j(k)和ΔEi,j(k)的取值范围为[0,1]。
本实施例中,利用公式(1-7)和公式(8-11)分别计算出预测结果和观测结果的运动特征、形状特征、颜色特征(即RGB颜色直方图特征)和局部二进制模式特征(LocalBinary Patterns,LBP)之间的相似性,即各特征的预测误差和预测误差变化量,再通过公式(11-12)来构建模糊推理系统的输入变量Ei,j(k)和ΔEi,j(k),以便于后续模糊推理。
当然,在其他实施例中,也可以采用观测结果和预测结果的其他特征,例如速度特征等计算目标的预测误差和预测误差变化量,此处不做具体限定。
S122:利用预测误差和预测误差变化量进行模糊推理,获取观测结果和预测结果的关联概率;
其中,模糊推理系统主要包含四个基本要素:输入的模糊化、建立模糊规则库、模糊推理机、去模糊器(模糊信息精确化输出)。在本实施例中,利用Ei,j(k)和ΔEi,j(k)作为模糊推理机的输入变量,通过模糊推理得到观测结果与预测结果的模糊隶属度,然后用模糊隶属度代替观测结果与预测结果之间的关联概率,从而实现数据关联和不确定性的处理。
进一步地,如图5所示,步骤S122具体包括:
S1221:根据模糊规则分别确定预测误差和预测误差变化量对应的输入模糊隶属度函数;
一般来说,输出的精度受到模糊集数量的影响,模糊集越多,输出就越精确;但同时,模糊集越多,计算复杂度就越大,所以通常模糊集数量是由经验选取的。
本实施例中,输入变量Ei,j(k)和ΔEi,j(k)利用5个语言模糊集{ZE,SP,MP,LP,VP}进行模糊化,如图6所示,其模糊隶属函数分别用μ0,ZE(k)、μ0,SP(k)、μ0,MP(k)、μ0,LP(k)、μ0,VP(k),5个模糊集分别表示零、正小、正中、正大和非常大。对于输出,包含五个模糊集:{ZE,SP,MP,LP,VP,EP},其中EP表示极大模糊集,如图7所示,其模糊隶属函数分别用μ1,ZE(k)、μ1,SP(k)、μ1,MP(k)、μ1,LP(k)、μ1,VP(k)、μ1,EP(k)表示。
根据上述定义的输入和输出模糊集,模糊推理规则可以如下表1所示:
表1模糊规则
S1222:利用输入模糊隶属度函数分别获取预测误差和预测误差变化量对应的模糊隶属度值;
具体地,以规则1:如果E
i,j(k)是ZE,并且ΔE
i,j(k)是ZE,则μ
i,j(k)是EP为例,根据规则1,模糊输入变量E
i,j(k)对应的模糊集为ZE,则可以根据图6所示的模糊隶属函数,利用E
i,j(k)的值求出对应的模糊隶属度值
可以采用同样的方法求出模糊输入变量ΔE
i,j(k)对应的模糊隶属度值
S1223:利用模糊隶属度值获取模糊规则的适用度;
具体地,利用如下公式计算出规则1的适用度:
其中,∧表示取小。
S1224:利用适用度获取模糊规则的模糊输出;
具体地,根据规则1,对应的模糊输出为EP,则规则1的输出可以用如下公式计算:
采用同样的方法,可以计算出所有规则的模糊输出
其中,根据表1可知,本实施例中,规则的数量M=25。当然,在其他实施例中,规则的数量可以根据实际需求设置,此处不做具体限定。
S1225:利用所有模糊规则的模糊输出获取观测结果和预测结果的关联概率。
具体地,所有模糊规则的模糊输出中最大的模糊输出为:
其中,∨表示取大。由于上述公式得到的是一个模糊化的输出,可以利用如下公式获得去模糊化的输出结果:
该去模糊化的输出结果μi,j(k)即为第j个观测结果和第i个预测结果的关联概率。
S123:以关联概率为元素建立关联概率矩阵;
具体地,重复上述步骤S121和S122,可以获取的当前帧中所有观测结果和预测结果的关联概率,然后将获取的关联概率作为元素,建立关联概率矩阵
S124:从关联概率矩阵中选取未被标记的关联概率最大值的元素,标记关联概率最大值的元素所在行和列的所有元素,并将关联概率最大值的元素对应的观测结果和预测结果关联;
具体地,基于最大隶属度原则,从关联矩阵U中未被标记的所有元素中找出最大值μpq=max([μij(k)],i=1,2,...,m;j=1,2,...,n;并标记关联矩阵U中的第p行所有元素以及第q列所有元素,即标记该最大值μpq对应的行和列的所有元素,同时确认第p个预测结果与第q个观测结果关联。
S125:循环前一步骤直至不存在未被标记的行/列后,将未被关联的观测结果记录到未关联观测集,将未被关联的预测结果记录到未关联预测集。
具体地,重复上述步骤S124,直至该关联矩阵U的行/列均被标记后,则将未被标记的列对应的未被关联的观测结果记录到未关联观测集
将未被标记的行对应的未被关联的预测结果记录到未关联预测集
如图8所示,本发明视频多目标跟踪方法第三实施例是在本发明视频多目标跟踪方法第一实施例的基础上,步骤S14进一步包括:
S141:计算终结轨迹和新轨迹的模糊相似度;
具体地,假设第k帧,
表示终结轨迹集,
表示新轨迹集,其中,
和
分别表示终结轨迹的数量和新轨迹的数量,l
0,i表示终结轨迹i终结的时刻,l
1,j表示新轨迹j的起始时间,如果l
1,j=k,则新轨迹
为一个新的未被关联的观测结果。设U
k={μ
ij}为
可信度矩阵,μ
ij表示终结轨迹i和新轨迹j的模糊相似度。
本实施例中,利用终结轨迹和新轨迹的运动、形状、RGB颜色直方图、LBP和速度特征的相似度,计算终结轨迹和新轨迹的模糊相似度。当然,在其他实施例中,也可以利用其他特征,此处不做具体限定。
进一步地,如图9所示,步骤S141具体包括:
S1411:利用公式(14)计算终结轨迹和新轨迹的运动特征相似度:
其中,f
M(i,j)为第k帧终结轨迹i和新轨迹j的运动特征相似度,
为第k帧终结轨迹i和新轨迹j的运动模型预测误差,
为运动特征的方差;
本实施例中,运动特征的方差
在其他实施例中,该运动特征的方差
可以根据实际需求取其他值,例如4,此处不做具体限定。
S1412:利用公式(15)计算终结轨迹和新轨迹的形状特征相似度:
其中,f
S(i,j)为第k帧终结轨迹i和新轨迹j的形状特征相似度,
为第k帧终结轨迹i和新轨迹j的形状模型预测误差,
为形状特征的方差;
本实施例中,形状特征的方差
在其他实施例中,该形状特征的方差
可以根据实际需求取其他值,例如4,此处不做具体限定。
S1413:利用公式(16)计算终结轨迹和新轨迹的颜色特征相似度:
其中,
为第k帧终结轨迹i和新轨迹j的颜色特征相似度,
为第k帧终结轨迹i和新轨迹j的颜色特征预测误差,
为颜色特征的方差;
本实施例中,颜色特征的方差
在其他实施例中,该颜色特征的方差
可以根据实际需求取其他值,例如4,此处不做具体限定。
S1414:利用公式(17)计算终结轨迹和新轨迹的局部二进制模式特征相似度:
其中,
为第k帧终结轨迹i和新轨迹j的局部二进制模式特征相似度,
为第k帧终结轨迹i和新轨迹j的局部二进制模式特征预测误差,
为局部二进制模式特征的方差;
本实施例中,局部二进制模式特征的方差
在其他实施例中,该局部二进制模式特征的方差
可以根据实际需求取其他值,例如4,此处不做具体限定。
S1415:利用公式(18)计算终结轨迹和新轨迹的速度特征相似度:
其中,f
V(i,j)为第k帧终结轨迹i和新轨迹j的速度特征相似度,x
i和y
i分别为第k帧终结轨迹i的x坐标和y坐标,x
j和y
j分别为第k帧新轨迹j的x坐标和y坐标,
和
分别为第k帧终结轨迹i的x方向和y方向的速度,
为速度特征的方差;
本实施例中,局部二进制模式特征的方差
在其他实施例中,该局部二进制模式特征的方差
可以根据实际需求取其他值,例如80,此处不做具体限定。
S1416:利用公式(19)计算终结轨迹和新轨迹的模糊相似度:
其中,∧为取小操作,∨为取大操作,μ
ij=S
k(Λ
k(i,j))为第k帧终结轨迹i和新轨迹j的模糊相似度,
为第k帧终结轨迹i和新轨迹j各特征的平均相似度,Λ
k(i,j)为相似度矢量,Λ
k(i,j)定义如下:
其中,
分别为第k帧终结轨迹i和新轨迹j的运动、形状、颜色、局部二进制模式和速度特征的平均相似度。
具体地,第k帧终结轨迹i和新轨迹j的运动、形状、颜色、局部二进制模式和速度各特征平均相似度分别定义为:
其中,κ=k-l
1,j+3,
为第m帧终结轨迹i和第n帧新轨迹j的运动特征相似度,
为第m帧终结轨迹i和第n帧新轨迹j的形状特征相似度,
为第m帧终结轨迹i和第n帧新轨迹j的颜色特征相似度,
为第m帧终结轨迹i和第n帧新轨迹j的局部二进制模式特征相似度,
为第m帧终结轨迹i和第n帧新轨迹j的速度特征相似度。
S142:判断终结轨迹和新轨迹的最大模糊相似度是否不小于可信度阈值;
S143:若不小于,则关联相似度最大的终结轨迹和新轨迹;
具体地,终结轨迹和新轨迹的最大模糊相似度为:
如果
则终结轨迹i与新航迹j关联,同时新轨迹j不再与其它终结轨迹进行关联,其中,ε表示可信度阈值,本实施例中0.5≤ε≤1。
当然,在其他实施例中,该可信度阈值ε也可以根据需求采用其他取值范围,例如0.4≤ε≤0.9,此处不做具体限定。
S144:判断终结轨迹和新轨迹是否连续预设帧数关联;
S145:若是,则执行对被关联的终结轨迹和新轨迹进行轨迹融合的步骤。
进一步地,如图10所示,步骤S144具体包括:
S1441:判断终结轨迹和新轨迹的轨迹质量是否不小于预设阈值;
S1442:若是,则判定终结轨迹和新轨迹连续预设帧数关联。
具体地,轨迹质量定义如下:
其中,
为第k帧终结轨迹i和新轨迹j的轨迹质量,
为第k-1帧终结轨迹i和新轨迹j的轨迹质量。
本实施例中,该预设阈值为3,若终结轨迹i和新轨迹j关联,则轨迹质量
加1,如果
则认为终结轨迹i与新轨迹j为同一轨迹,则可以执行后续对被关联的终结轨迹和新轨迹进行轨迹融合的步骤。
本实施例可以与本发明视频多目标跟踪方法第一和/或第二实施例相结合。
如图11所示,本发明视频多目标跟踪方法第四实施例是在本发明视频多目标跟踪方法第一实施例的基础上,步骤S13进一步包括:
S131:对未被关联的预测结果进行预测,并继续与下一视频帧的观测结果进行关联;
S132:判断未被关联的预测结果连续未被关联的帧数是否大于第一阈值;
S133:若大于第一阈值,则未被关联的预测结果对应目标的轨迹为终结轨迹;
具体地,在一个应用例中,对未被关联的预测结果,继续进行外推预测,并与下一帧观测结果进行数据关联,若该目标连续未被关联的帧数是否大于第一阈值(例如5),则将该未被关联的预测结果对应的目标轨迹作为终结轨迹。其中,第一阈值的具体取值可以根据实际需求设置,此处不做具体限定。
S134:以未被关联的观测结果为起点进行预测,并继续与下一视频帧的观测结果进行关联;
S135:判断未被关联的观测结果连续被关联的帧数是否不小于第二阈值;
S136:若不小于第二阈值,则未被关联的观测结果对应目标的轨迹为新轨迹。
具体地,在一个应用例中,可以将该未被关联的观测结果作为轨迹起始点进行预测,并继续与下一帧的观测结果进行数据关联,若连续关联成功的帧数不小于第二阈值(例如4),则该被关联的观测结果被判定为新的目标,为其建立新轨迹。其中,第二阈值的具体取值可以根据实际需求设置,此处不做具体限定。
本实施例还可以与本发明视频多目标跟踪方法第二和/或第三实施例相结合。
如图12所示,本发明视频多目标跟踪方法第五实施例是在本发明视频多目标跟踪方法第一实施例的基础上,步骤S15进一步包括:
S151:在被关联的终结轨迹和新轨迹之间进行线性插值,以连接被关联的终结轨迹和新轨迹。
具体地,在一个应用例中,采用线性插值方法在被关联的终结轨迹和新轨迹之间均匀插入视频帧,以使得被关联的终结轨迹和新轨迹融合为同一轨迹。
本实施例还可以与本发明视频多目标跟踪方法第二至第四任一实施例或者其组合相结合。
如图13所示,本发明视频多目标跟踪方法第六实施例是在本发明视频多目标跟踪方法第一实施例的基础上,步骤S16进一步包括:
S161:判断未被关联的终结轨迹的未更新帧数是否大于预设帧数;
S162:若大于,则将未被关联的终结轨迹删除。
具体地,在一个应用例中,若未被关联的终结轨迹的未更新帧数大于预设帧数(例如70帧),则认为该终结轨迹是无效轨迹,予以删除,从而节省存储空间,控制计算量。其中,该预设帧数可以根据实际需求设置,此处不做具体限定。
本实施例还可以与本发明视频多目标跟踪方法第二至第五任一实施例或者其组合相结合。
下面为使用本发明视频多目标跟踪方法一实施例进行实验验证比较的结果,本实施例是本发明视频多目标跟踪方法第一至第六实施例的结合,并采用卡尔曼滤波器对有效轨迹进行滤波和预测,是一种基于模糊数据关联及轨迹关联的视频多目标跟踪算法(FLDA-TM)。本实验采用TUD-Crossing、PETS09-S2L2、ETH-Jelmoli和AVG-TownCentre四个数据集进行验证,数据信息如表2所示,同时与当前性能较好的7种多目标跟踪算法进行对比,7种算法具体如下:结构约束事件聚合方法(SCEA),结构稀疏标准的多帧数据关联方法(LINF1),重溯联合概率数据关联(JPDA_m),子轨迹信任和判别式表观学习的多目标跟踪方法(TC_ODAL),回归神经网络方法(RNN_LSTM),Siamese卷积神经网络方法(SiameseCNN),四联组神经网络方法(QuadMOT)。
为了对比各个算法的性能,采用以下8个公共性能指标:多目标跟踪精度(MOTA),虚假目标数(FPs),漏检目标数(FNs),目标编号变化次数(IDS),多目标估计精度(MOTP),估计最多目标数(MT),丢失目标数(ML),目标轨迹断批次数(FG)。其中,MOTA、MOTP和MT的数值越大,则说明跟踪性能越好;ML、FPs、FNs、IDS和FG的数值越小,则说明跟踪性能越好。
表2数据集信息
针对本实施例采用的TUD-Crossing、PETS09-S2L2、ETH-Jelmoli和AVG-TownCentre四个数据集,本实施例的FLDA-TM方法与其他7个算法的性能对比如下表3所示:
表3各个算法的性能对比
从表3可以看出,本实施例的FLDA-TM方法对于PETS09-S2L2和ETH-Jelmoli两个数据集,在目标跟踪精度、估计精度等指标上要明显好于其他方法,对于TUD-Crossing和AVG-TownCentre数据集,提出方法也能很好的对多目标进行跟踪,性能与其他方法相当。
如图14所示,本发明视频多目标跟踪装置一实施例包括:处理器110和摄像机120。摄像机120可以为本地摄像机,处理器110通过总线连接摄像机120;摄像机120也可以为远程摄像机,处理器110通过局域网或互联网连接摄像机120。
处理器110控制视频多目标跟踪装置的操作,处理器110还可以称为CPU(CentralProcessing Unit,中央处理单元)。处理器110可能是一种集成电路芯片,具有信号的处理能力。处理器110还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
该视频多目标跟踪装置可以进一步包括存储器(图中未画出),存储器用于存储处理器110工作所必需的指令及数据,也可以存储传输器120拍摄的视频数据。
处理器110工作时,用于实现如本发明视频多目标跟踪方法第一至第六任一实施例或者其不矛盾的组合所述的方法,具体功能可以参考本发明视频多目标跟踪方法各对应实施例中的描述,此处不再重复。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。