CN111862153B - 一种面向行人的长时间多目标跟踪方法 - Google Patents

一种面向行人的长时间多目标跟踪方法 Download PDF

Info

Publication number
CN111862153B
CN111862153B CN202010661169.7A CN202010661169A CN111862153B CN 111862153 B CN111862153 B CN 111862153B CN 202010661169 A CN202010661169 A CN 202010661169A CN 111862153 B CN111862153 B CN 111862153B
Authority
CN
China
Prior art keywords
track
target
appearance
value
tracks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010661169.7A
Other languages
English (en)
Other versions
CN111862153A (zh
Inventor
田玲
金琪
段贵多
罗光春
李诗琪
高向孚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202010661169.7A priority Critical patent/CN111862153B/zh
Publication of CN111862153A publication Critical patent/CN111862153A/zh
Application granted granted Critical
Publication of CN111862153B publication Critical patent/CN111862153B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向行人的长时间多目标跟踪方法,属于多目标跟踪算法领域,具体涉及行人长时间跟踪算法技术领域,以解决如何对长时间遮挡的目标实现正确的目标关联,包括如下步骤:数据预处理、目标检测以及目标跟踪,其中,目标跟踪包括特征提取、特征度量、目标关联、轨迹核查以及轨迹更新。通过数据预处理,实现了原始数据的接收以及图像的处理,之后通过目标检测,获得当前接收图像所涉及的行人信息,在通过目标跟踪,对连续图像序列涉及到的行人,实现目标关联,从而产生跟踪轨迹,该算法在考虑多种复杂情况下,通过二次比对的方式实现对长期遮挡目标的正确关联,提高了算法的鲁棒性,同时提高了目标关联的准确率。

Description

一种面向行人的长时间多目标跟踪方法
技术领域
一种面向行人的长时间多目标跟踪方法,本发明属于多目标跟踪算法领域,具体涉及行人长时间跟踪算法技术领域。
背景技术
多目标跟踪主要是针对连续的图像序列,根据目标检测算法得到图像中存在的目标,接着调用目标跟踪算法对连续图像中运动的目标进行正确的关联。多目标跟踪算法主要是采用基于检测的多目标跟踪的技术路线。多目标跟踪算法中的目标跟踪部分主要含有外观模型与运动模型,外观模型主要是对检测算法得到的目标进行外观特征提取,运动模型主要是捕获目标的运动行为,学习目标运动的方式,从而预估目标在后续帧中的位置信息。
传统的多目标跟踪算法是根据单一特征在连续图像中实现多目标之间的关联。然后如果仅考虑外观特征,可能出现相似外观的目标进行关联的现象;如果仅考虑运动特征,可能出现跟踪目标漂移的现象。因此在复杂的环境中采用传统的多目标跟踪算法会造成算法性能下降。由于跟踪的场景具有复杂性,会出现目标长时间遮挡的现象,如何在复杂环境中对长期遮挡的目标实现正确关联极其重要。
发明内容
本发明的目的在于:提供一种面向行人的长时间多目标跟踪方法,以解决如何对长时间遮挡的目标实现正确的目标关联。
本发明采用的技术方案如下:
一种面向行人的长时间多目标跟踪方法,其特征在于,包括如下步骤:
步骤1、接收远程监控的视频数据,进行数据预处理,将处理好后的图像image得存放在缓存buffer中,得到视频数据date;
步骤2、读取视频数据date,对读取的图像进行目标检测,得到图像所涉及的所有行人的位置信息,将检测的结果存储到txt文件中;
步骤3、对txt文件中记录的行人的位置信息进行目标跟踪处理,提取外观特征;
步骤4、用LSTM网络对已存在轨迹集合中的轨迹提取运动特征;
步骤5、对外观特征和运动特征进行特征度量;
步骤6、根据度量结果,采用匈牙利算法进行目标关联,生成如下轨迹情况,情况b,图像帧中出现新的目标,将其初始化为暂定轨迹,把该条轨迹添加到新增已确认轨迹集合add_ct;情况c,暂定轨迹集合tentative_t中出现状态转换为已确认轨迹,即暂定轨迹存在连续3帧能够关联到目标对象,把该条轨迹添加到新增已确认轨迹集合add_ct;
步骤7、对步骤6生成的轨迹进行核查;
步骤8、根据步骤6和步骤7的结果对轨迹更新,更新结束后,返回步骤2,接着对后续视频帧进行多目标跟踪,直到没有接收到监控视频数据。
优选的,步骤1中,使用Socket实现系统与远程摄像头连接,接收远程监控的视频数据,数据预处理具体为:每间隔5帧图像,本地系统接收1帧图像,将该图像调整成224×224。
优选的,读取buffer中的视频数据date,对读取的图像使用YOLOv3算法实现目标检测,得到当前图像所涉及所有行人的位置信息,即<id,<x,y,w,h>>,其中<x,y,w,h>为行人检测框左上角的坐标,将检测的结果存储在txt文件中。
优选的,针对完成检测功能的图像进行目标跟踪处理,根据txt文件记录行人在图像中左上角的坐标,对该图像进行剪裁,得到单一的行人图像,存储于目标集合O中,接着遍历目标集合O中的行人目标,并且使用VGG16网络对该遍历的目标提取外观特征,得到维度为1×128的外观特征向量,把所有目标的外观特征存储到目标外观特征集合,即Fdet={fdet1,fdet2,...,fdetn}。
优选的,步骤4中,已存在的轨迹集合包括已确认轨迹、暂定轨迹、暂时删除暂定轨迹、暂时删除已确认轨迹,永久删除轨迹,当有新增目标出现时,此时将该目标初始为暂定轨迹,若不能连续关联到目标,则转换为暂时删除暂定轨迹,当暂时删除暂定轨迹在一段时间内关联到目标,则将状态转换为暂定轨迹;当暂定轨迹连续3帧能关联到对象,轨迹状态转换为已确认轨迹,若超过15帧未关联到对象,将轨迹状态转换为暂时删除已确认轨迹,当暂时删除已确认轨迹在一段时间内关联到目标,则将状态转换为已确认轨迹;当暂定删除的轨迹超过10帧未能关联到目标,表明目标永久消失,则转换为永久删除轨迹。对已确认轨迹集合confirm_t={ct1,ct2,...,ctn}以及暂定轨迹集合tentative_t={tt1,tt2,...,ttn}提取运动特征,把集合中的每条轨迹的后续16个坐标点作为LSTM网络的输入,从而得到每条轨迹对当前时刻的坐标预估值<x′,y′,w′,h′>,即行人左上角坐标。
优选的,根据Fdet={fdet1,fdet2,...,fdetn}与坐标预估值<x′,y′,w′,h′>,进行如下操作,首先根据Fdet,对当前帧中的行人外观特征与轨迹外观特征进行比较,比较方法如公式(2)所示,由于轨迹含有外观特征f1这一属性,轨迹外观特征的获取则可直接读取该属性值,将轨迹外观特征与Fdet中记录当前目标的外观特征通过公式(2)进行比较。
Figure BDA0002578605300000021
其中,f1为轨迹的外观特征,fdet为目标外观特征。
当d1值大于等于0.5时,表明两者的外观相似,当前目标可能为当前轨迹跟踪的对象,则继续进行后续操作,反之,将该值丢弃,不对两者进行后续操作。
根据满足外观特征度量结果条件得到轨迹目标对,即<track,object>,接着对其进行运动特征度量,根据轨迹track的坐标预估值
Figure BDA0002578605300000034
(即坐标预估值<x′,y′,w′,h′>),与object的位置信息进行比较,其中,每个目标的坐标信息记录在fdet中的后4列中,比较方式如公式(3)所示:
Figure BDA0002578605300000031
其中,
Figure BDA0002578605300000032
为预测位置的面积,
Figure BDA0002578605300000033
为实际目标位置的面积。
当d2值大于等于0.5时,表明预测位置与对比目标的位置接近,当前目标可能为当前轨迹跟踪的对象,则继续进行后续操作,反之,将该值丢弃,不对两者进行后续操作。
根据上述对未满足条件的轨迹目标对筛选,接着把满足条件的轨迹目标对<track,object>所对应的外观特征度量值以及运动特征度量值代入公式(1)中,得到轨迹目标对最终的度量值d,公式(1)如下所示,
d=λ·d1+(1-λ)·d2 (1)
其中,d1为外观特征度量结果,d2为运动特征度量结果,λ为权重。
优选的,将最终的度量值d存入矩阵cost中,将该矩阵输入到匈牙利算法得到最终目标匹配对<track,object>,匈牙利算法过程:先矩阵中每行减去当前行的最小值,接着判断矩阵的每行中0是否出现在矩阵的不同行不同列中,若为真,则结束算法,然后,在行和列中交替进行对含有0的行和列上打勾,对没有打勾的行与打有勾的列上画线接着在矩阵中剩下元素中找出最小值,对已画线的行中元素减去最小值和列中元素加上最小值,不停迭代循环。
优选的,步骤6还生成如下轨迹情况,情况a,已有的轨迹集中的轨迹在当前图像中找到可关联的目标,并且轨迹状态没有发生变化;情况d,暂定删除轨迹集中的轨迹超过24帧未能关联到目标,此时轨迹状态变为永久删除轨迹,后续操作不再对这类轨迹进行操作。
优选的,针对出现情况b新增暂定轨迹集合add_tt={addtt1,addtt2,...,addttn}中每条轨迹与暂时删除暂定轨迹集合d_tt={dtt1,dtt2,...,dttn}进行核查,对该情况的轨迹对<addttj,dtti>核查时,使用公式(2)得到的d1值进行外观特征比较,由于暂时删除暂定轨迹与新增暂定轨迹相隔时间间距大于等于15帧,此时比较的过程还需要参考轨迹可信基数θ,两条轨迹相隔距离越大,说明可行度越低,θ的计算如公式(4)所示,最终轨迹应该满足的核查条件如公式(5)所示,
Figure BDA0002578605300000041
df=θ+d1≥check_γ (5)
其中,θ为轨迹可信基数,length为当前轨迹的长度,check_γ为阈值,d1为公式2得到的结果;
根据公式(5)得出的df值,判断是否大于等于check_γ,check_γ取值为1.6,若满足则说明两条轨迹为跟踪同一目标的轨迹;
针对出现情况c新增已确认轨迹集合add_ct={addct1,addct2,...,addctn}中的每条轨迹与暂时删除确认轨迹集合d_ct={dct1,dct2,...,dctn}中的每一条轨迹进行核查,首先把轨迹对<addctj,dcti>的外观特征通过公式(2)进行度量,若d1值大于等于0.7,则接着对暂时删除确认轨迹dcti主要通过LSTM网络生成与addctj轨迹时间相对应的预测轨迹,然后把预测轨迹上的预估点与addctj轨迹上的时间相对应的轨迹点,通过公式(3)对运动特征进行度量,每对轨迹点度量结果为ti,所有相应两点的度量结果如公式(6)所示,整体比较的过程中依然需要参考轨迹可信基数θ,θ的计算如公式(4)所示,最终轨迹应该满足的核查条件如公式(7)所示,
Figure BDA0002578605300000042
dm=θ+ttotal≥check_ε (7)
其中,ttotal为轨迹度量结果,ti为轨迹点度量值,θ为轨迹可信基数,check_ε为阈值,
根据公式(7)得出的df值,判断是否大于等于check_ε,check_ε取值为1.7,若满足则说明两条轨迹为跟踪同一目标的轨迹。
优选的,对已确认轨迹集合confirm_t={ct1,ct2,...,ctn}、暂定轨迹集合tentative_t={tt1,tt2,...,ttn}、暂时删除暂定轨迹集合d_tt={dtt1,dtt2,...,dttn}、暂时删除确认轨迹集合d_ct={dct1,dct2,...,dctn}以及永久删除轨迹集合d_ft={dft1,dft2,...,dftn}进行更新,更新结束后,返回步骤2,接着对后续视频帧进行多目标跟踪,直到没有接收到监控视频数据。
本申请中,算法也可用于跟踪别的运动物体,比如针对车辆的跟踪。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1、本发明中,通过数据预处理,实现了原始数据的接收以及图像的处理,之后通过目标检测,获得当前接收图像所涉及的行人信息,在通过目标跟踪,对连续图像序列涉及到的行人,实现目标关联,从而产生跟踪轨迹,该算法在考虑多种复杂情况下,通过二次比对的方式实现对长期遮挡目标的正确关联,提高了算法的鲁棒性,同时提高了目标关联的准确率;
2、本发明中,通过对外观特征度量结果与运动特征度量结果,进行整体特征度量,为了对遮挡目标实现长时间关联,对情况b当前图像帧中出现新的目标,将其初始化为暂定轨迹,把该条轨迹添加到新增暂定轨迹集合add_tt;情况c暂定轨迹集合tentative_t中出现状态转换为已确认轨迹,即暂定轨迹存在连续3帧能够关联到目标对象,把该条轨迹添加到新增已确认轨迹集合add_ct,分别进行了核查,使对同一目标的轨迹跟踪更为准确,且易于实现;
3、本发发明的算法实现了模块化,可以结合不同的检测与跟踪算法,便于工程使用。
4、本申请的算法也可用于跟踪别的运动物体,比如针对车辆的跟踪,具有较好的扩展性。
附图说明
图1为本发明一种面向行人的长时间多目标跟踪方法的流程图;
图2为本发明轨迹状态的转换图;
图3为本发明轨迹核查的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例1
如图1,一种面向行人的长时间多目标跟踪方法,包括如下步骤:
步骤1、使用Socket实现系统与远程摄像头连接,接收远程监控的视频数据,数据预处理具体为:每间隔5帧图像,本地系统接收1帧图像,将该图像调整成224×224,将处理好后的图像image得存放在缓存buffer中,得到视频数据date;
步骤2、读取bufier中的视频数据date,对读取的图像使用YOLOv3算法实现目标检测,得到当前图像所涉及所有行人的位置信息,即<id,<x,y,w,h>>,其中<x,y,w,h>为行人检测框左上角的坐标,将检测的结果存储在txt文件中;
步骤3、针对完成检测功能的图像进行目标跟踪处理;
根据txt文件记录行人在图像中左上角的坐标,对该图像进行剪裁,得到单一的行人图像,存储于目标集合O中,接着遍历目标集合O中的行人目标,并且使用VGG16网络对该遍历的目标提取外观特征,得到维度为1×128的外观特征向量,把所有目标的外观特征存储到目标外观特征集合,即Fdet={fdet1,fdet2,...,fdetn}。
图2展示了轨迹状态转换过程,跟踪目标产生的轨迹拥有5个状态:已确认轨迹、暂定轨迹、暂时删除暂定轨迹、暂时删除已确认轨迹,永久删除轨迹。当有新增目标出现时,此时将该目标初始为暂定轨迹,若不能连续关联到目标(连续3帧未关联),则转换为暂时删除暂定轨迹,当暂时删除暂定轨迹在10帧以内关联到目标,则将状态转换为暂定轨迹;当暂定轨迹连续3帧能关联到对象,轨迹状态转换为已确认轨迹,若超过15帧未关联到对象,将轨迹状态转换为暂时删除已确认轨迹,当暂时删除已确认轨迹在10帧以内关联到目标,则将状态转换为已确认轨迹;当暂时删除暂定轨迹超过10帧未能关联到目标,表明目标永久消失,则转换为永久删除轨迹;当暂时删除已确定轨迹超过10帧未能关联到目标,表明目标永久消失,则转换为永久删除轨迹。
步骤4、对已确认轨迹集合confirm_t={ct1,ct2,...,ctn}以及暂定轨迹集合tentative_t={tt1,tt2,...,ttn}提取运动特征,把集合中的每条轨迹的后续16个坐标点作为LSTM网络的输入,从而得到每条轨迹对当前时刻的坐标预估值<x′,y′,w′,h′>,即行人左上角坐标。
步骤5、根据步骤3的结果Fdet={fdet1,fdet2,...,fdetn}与步骤4的坐标预估值<x′,y′,w′,h′>,进行如下操作,首先根据Fdet,对当前帧中的行人外观特征与轨迹外观特征进行比较,比较方法如公式(2)所示,由于轨迹含有外观特征f1这一属性,轨迹外观特征的获取则可直接读取该属性值,将轨迹外观特征与Fdet中记录当前目标的外观特征通过公式(2)进行比较。
Figure BDA0002578605300000061
其中,f1为轨迹的外观特征,fdet为目标外观特征。
当d1值大于等于0.5时,表明两者的外观相似,当前目标可能为当前轨迹跟踪的对象,则继续进行后续操作,反之,将该值丢弃,不对两者进行后续操作。
根据满足外观特征度量结果条件得到轨迹目标对,即<track,object>,接着对其进行运动特征度量,根据轨迹track的坐标预估值
Figure BDA0002578605300000062
(即坐标预估值<x′,y′,w′,h′>),与object的位置信息进行比较,其中,每个目标的坐标信息记录在fdet中的后4列中,比较方式如公式(3)所示:
Figure BDA0002578605300000071
其中,
Figure BDA0002578605300000072
为预测位置的面积,
Figure BDA0002578605300000073
为实际目标位置的面积。
当d2值大于等于0.5时,表明预测位置与对比目标的位置接近,当前目标可能为当前轨迹跟踪的对象,则继续进行后续操作,反之,将该值丢弃,不对两者进行后续操作。
根据上述对未满足条件的轨迹目标对筛选,接着把满足条件的轨迹目标对<track,object>所对应的外观特征度量值以及运动特征度量值代入公式(1)中,得到轨迹目标对最终的度量值d,公式(1)如下所示,
d=λ·d1+(1-λ)·d2 (1)
其中,d1为外观特征度量结果,d2为运动特征度量结果,λ为权重。
步骤6、把步骤5得到的轨迹目标对<track,object>对应的度量结果d存入矩阵cost中,将该矩阵输入到匈牙利算法得到最终目标匹配对<track,object>。匈牙利算法过程:先矩阵中每行减去当前行的最小值,接着判断矩阵的每行中0是否出现在矩阵的不同行不同列中,若为真,则结束算法,然后,在行和列中交替进行对含有0的行和列上打勾,对没有打勾的行与打有勾的列上画线接着在矩阵中剩下元素中找出最小值,对已画线的行中元素减去最小值和列中元素加上最小值,不停迭代循环。
步骤7、步骤6结束之后,则出现以下4种轨迹情况:
情况a,已有的轨迹集中的轨迹在当前图像中找到可关联的目标,并且轨迹状态没有发生变化;
情况b,图像帧中出现新的目标,将其初始化为暂定轨迹,把该条轨迹添加到新增已确认轨迹集合add_ct;
情况c,暂定轨迹集合tentative_t中出现状态转换为已确认轨迹,即暂定轨迹存在连续3帧能够关联到目标对象,把该条轨迹添加到新增已确认轨迹集合add_ct;
情况d,暂定删除轨迹集中的轨迹超过24帧未能关联到目标,此时轨迹状态变为永久删除轨迹,后续操作不再对这类轨迹进行操作。
图3展示了轨迹核查部分的运行流程,以下对该部分进行详细讲述。
为了对遮挡目标实现长时间关联,本发明采用如下步骤:
以下针对出现情况b与情况c的轨迹进行核查:
针对出现情况b新增暂定轨迹集合add_tt={addtt1,addtt2,...,addttn}中每条轨迹与暂时删除暂定轨迹集合d-tt={dtt1,dtt2,...,dttn}进行核查,对该情况的轨迹对<addttj,dtti>核查时,使用公式(2)得到的d1值进行外观特征比较,由于暂时删除暂定轨迹与新增暂定轨迹相隔时间间距大于等于15帧,此时比较的过程还需要参考轨迹可信基数θ,两条轨迹相隔距离越大,说明可行度越低,θ的计算如公式(4)所示,最终轨迹应该满足的核查条件如公式(5)所示,
Figure BDA0002578605300000081
df=θ+d1≥check_γ (5)
其中,θ为轨迹可信基数,length为当前轨迹的长度,check_γ为阈值,d1为公式2得到的结果;
根据公式(5)得出的df值,判断是否大于等于check_γ,check_γ取值为1.6,若满足则说明两条轨迹为跟踪同一目标的轨迹;
针对出现情况c新增已确认轨迹集合add_ct={addct1,addct2,...,addctn}中的每条轨迹与暂时删除确认轨迹集合d_ct={dct1,dct2,...,dctn}中的每一条轨迹进行核查,首先把轨迹对<addctj,dcti>的外观特征通过公式(2)进行度量,若d1值大于等于0.7,则接着对暂时删除确认轨迹dcti主要通过LSTM网络生成与addctj轨迹时间相对应的预测轨迹,然后把预测轨迹上的预估点与addctj轨迹上的时间相对应的轨迹点,通过公式(3)对运动特征进行度量,每对轨迹点度量结果为ti,所有相应两点的度量结果如公式(6)所示,整体比较的过程中依然需要参考轨迹可信基数θ,θ的计算如公式(4)所示,最终轨迹应该满足的核查条件如公式(7)所示,
Figure BDA0002578605300000082
dm=θ+ttotal≥check_ε (7)
其中,ttotal为轨迹度量结果,ti为轨迹点度量值,θ为轨迹可信基数,check_ε为阈值,
根据公式(7)得出的df值,判断是否大于等于check_ε,check_ε取值为1.7,若满足则说明两条轨迹为跟踪同一目标的轨迹。
步骤8、执行到该步骤,说明当前图像帧的行人目标与轨迹已经关联结束,此时对已确认轨迹集合confirm_t={ct1,ct2,...,ctn}、暂定轨迹集合tentative_t={tt1,tt2,...,ttn}、暂时删除暂定轨迹集合d_tt={dtt1,dtt2,...,dttn}、暂时删除确认轨迹集合d_ct={dct1,dct2,...,dctn}以及永久删除轨迹集合d_ft={dft1,dft2,...,dftn}进行更新,更新结束后,返回步骤2,接着对后续视频帧进行多目标跟踪,直到没有接收到监控视频数据。
图1中原始数据是远程监控的视频数据;
图3中Y是;N否。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种面向行人的长时间多目标跟踪方法,其特征在于,包括如下步骤:
步骤1、接收远程监控的视频数据,进行数据预处理,将处理好后的图像image存放在缓存buffer中,得到视频数据date;
步骤2、读取视频数据date,对读取的图像进行目标检测,得到图像所涉及的所有行人的位置信息,将检测的结果存储到txt文件中;
步骤3、对txt文件中记录的行人的位置信息进行目标跟踪处理,提取外观特征,根据txt文件记录行人在图像中左上角的坐标,对该图像进行剪裁,得到单一的行人图像,存储于目标集合O中,接着遍历目标集合O中的行人目标,并且使用VGG16网络对该遍历的目标提取外观特征,得到维度为1×128的外观特征向量,把所有目标的外观特征存储到目标外观特征集合,即Fdet={fdet1,fdet2,…,fdetn};
步骤4、用LSTM网络对已存在轨迹集合中的轨迹提取运动特征,已存在的轨迹集合包括已确认轨迹、暂定轨迹、暂时删除暂定轨迹、暂时删除已确认轨迹,永久删除轨迹,对已确认轨迹集合confirm_t={ct1,ct2,…,ctn}以及暂定轨迹集合tentative_t={tt1,tt2,…,ttn}提取运动特征,把集合中的每条轨迹的后续16个坐标点作为LSTM网络的输入,从而得到每条轨迹对当前时刻的坐标预估值<x′,y′,w′,h′>;
步骤5、对外观特征和运动特征进行特征度量,根据Fdet={fdet1,fdet2,…,fdetn},由于轨迹含有外观特征f1这一属性,轨迹外观特征的获取是直接读取该属性的值,将轨迹外观特征与Fdet中记录当前目标的外观特征通过公式(2)进行比较;
Figure FDA0003574739300000011
其中,f1为轨迹外观特征,fdet为目标外观特征,当d1值大于等于0.5时,表明两者的外观相似,则继续进行后续操作,反之,将该值丢弃,不对两者进行后续操作,根据满足外观特征度量结果条件得到轨迹目标对,即<track,object>,接着对其进行运动特征度量,根据轨迹track的坐标预估值
Figure FDA0003574739300000012
即坐标预估值<x′,y′,w′,h′>与object的位置信息进行比较,其中,每个目标的坐标信息记录在fdet中的后4列中,比较方式如公式(3)所示:
Figure FDA0003574739300000013
其中,
Figure FDA0003574739300000014
为预测位置的面积,
Figure FDA0003574739300000015
为实际目标位置的面积;
当d2值大于等于0.5时,表明预测位置与对比目标的位置接近,则继续进行后续操作,反之,将该值丢弃,不对两者进行后续操作,把满足条件的轨迹目标对<track,object>所对应的外观特征度量值以及运动特征度量值代入公式(1)中,得到轨迹目标对最终的度量值d,公式(1)如下所示,
d=λ·d1+(1-λ)·d2 (1)
其中,d1为外观特征度量结果,d2为运动特征度量结果,λ为权重;
步骤6、根据度量结果,采用匈牙利算法进行目标关联,生成如下轨迹情况,情况b,图像帧中出现新的目标,将其初始化为暂定轨迹,把该条轨迹添加到新增已确认轨迹集合add_ct;情况c,暂定轨迹集合tentative_t中出现状态转换为已确认轨迹,即暂定轨迹存在连续3帧能够关联到目标对象,把该条轨迹添加到新增已确认轨迹集合add_ct,针对出现情况b新增暂定轨迹集合add_tt={addtt1,addtt2,…,addttn}中每条轨迹与暂时删除暂定轨迹集合d_tt={dtt1,dtt2,…,dttn}进行核查,对该情况的轨迹对<addttj,dtti>核查时,使用公式(2)得到的d1值进行外观特征比较,由于暂时删除暂定轨迹与新增暂定轨迹相隔时间间距大于等于15帧,此时比较的过程还需要参考轨迹可信基数θ,两条轨迹相隔距离越大,说明可行度越低,θ的计算如公式(4)所示,最终轨迹应该满足的核查条件如公式(5)所示,
Figure FDA0003574739300000021
df=θ+d1≥check_γ (5)
其中,θ为轨迹可信基数,length为当前轨迹的长度,check_γ为阈值,d1为公式(2)得到的结果;
根据公式(5)得出的df值,判断是否大于等于check_γ,check_γ取值为1.6,若满足则说明两条轨迹为跟踪同一目标的轨迹;
针对出现情况c新增已确认轨迹集合add_ct={addct1,addct2,…,addctn}中的每条轨迹与暂时删除确认轨迹集合d_ct={dct1,dct2,…,dctn}中的每一条轨迹进行核查,首先把轨迹对<addctj,dcti>的外观特征通过公式(2)进行度量,若d1值大于等于0.7,则接着对暂时删除确认轨迹dcti主要通过LSTM网络生成与addctj轨迹时间相对应的预测轨迹,然后把预测轨迹上的预估点与addctj轨迹上的时间相对应的轨迹点,通过公式(3)对运动特征进行度量,每对轨迹点度量结果为ti,所有相应两点的度量结果如公式(6)所示,整体比较的过程中依然需要参考轨迹可信基数θ,θ的计算如公式(4)所示,最终轨迹应该满足的核查条件如公式(7)所示,
Figure FDA0003574739300000031
dm=θ+ttotal≥check_ε (7)
其中,ttotal为轨迹度量结果,ti为轨迹点度量值,θ为轨迹可信基数,check_ε为阈值,
根据公式(7)得出的df值,判断是否大于等于check_ε,check_ε取值为1.7,若满足则说明两条轨迹为跟踪同一目标的轨迹;
步骤7、对步骤6生成的轨迹进行核查;
步骤8、根据步骤6和步骤7的结果对轨迹更新,更新结束后,返回步骤2,接着对后续视频帧进行多目标跟踪,直到没有接收到监控视频数据。
2.根据权利要求1所述的一种面向行人的长时间多目标跟踪方法,其特征在于,步骤1中,使用Socket实现系统与远程摄像头连接,接收远程监控的视频数据,数据预处理具体为:每间隔5帧图像,本地系统接收1帧图像,将该图像调整成224×224。
3.根据权利要求1所述的一种面向行人的长时间多目标跟踪方法,其特征在于,读取buffer中的视频数据date,对读取的图像使用YOLOv3算法实现目标检测,得到当前图像所涉及所有行人的位置信息,即<id,<x,y,w,h>>,其中<x,y,w,h>为行人检测框左上角的坐标,将检测的结果存储在txt文件中。
4.根据权利要求1所述的一种面向行人的长时间多目标跟踪方法,其特征在于,将最终的度量值d存入矩阵cost中,将该矩阵输入到匈牙利算法得到最终目标匹配对<track,object>。
5.根据权利要求1所述的一种面向行人的长时间多目标跟踪方法,其特征在于,步骤6还生成如下轨迹情况,情况a,已有的轨迹集中的轨迹在当前图像中找到可关联的目标,并且轨迹状态没有发生变化;情况d,暂定删除轨迹集中的轨迹超过24帧未能关联到目标,此时轨迹状态变为永久删除轨迹,后续操作不再对这类轨迹进行操作。
6.根据权利要求1所述的一种面向行人的长时间多目标跟踪方法,其特征在于,对已确认轨迹集合、暂定轨迹集合、暂时删除暂定轨迹集合、暂时删除确认轨迹集合以及永久删除轨迹集合进行更新,更新结束后,返回步骤2,接着对后续视频帧进行多目标跟踪,直到没有接收到监控视频数据。
CN202010661169.7A 2020-07-10 2020-07-10 一种面向行人的长时间多目标跟踪方法 Active CN111862153B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010661169.7A CN111862153B (zh) 2020-07-10 2020-07-10 一种面向行人的长时间多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010661169.7A CN111862153B (zh) 2020-07-10 2020-07-10 一种面向行人的长时间多目标跟踪方法

Publications (2)

Publication Number Publication Date
CN111862153A CN111862153A (zh) 2020-10-30
CN111862153B true CN111862153B (zh) 2022-06-24

Family

ID=73152792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010661169.7A Active CN111862153B (zh) 2020-07-10 2020-07-10 一种面向行人的长时间多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN111862153B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114219697B (zh) * 2021-12-27 2022-12-09 中国电子科技集团公司第十四研究所 一种基于cuda的运动目标实时热力图生成方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104244113A (zh) * 2014-10-08 2014-12-24 中国科学院自动化研究所 一种基于深度学习技术的视频摘要生成方法
CN107545582A (zh) * 2017-07-04 2018-01-05 深圳大学 基于模糊逻辑的视频多目标跟踪方法及装置
CN109919974A (zh) * 2019-02-21 2019-06-21 上海理工大学 基于r-fcn框架多候选关联的在线多目标跟踪方法
CN110660083A (zh) * 2019-09-27 2020-01-07 国网江苏省电力工程咨询有限公司 一种结合视频场景特征感知的多目标跟踪方法
CN110853078A (zh) * 2019-10-30 2020-02-28 同济大学 一种基于遮挡对的在线多目标跟踪方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8934675B2 (en) * 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
CN103914685B (zh) * 2014-03-07 2018-06-22 北京邮电大学 一种基于广义最小团图和禁忌搜索的多目标跟踪方法
CN107423686B (zh) * 2017-06-15 2020-07-31 深圳大学 视频多目标模糊数据关联方法及装置
CN110660082B (zh) * 2019-09-25 2022-03-08 西南交通大学 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
CN111126176A (zh) * 2019-12-05 2020-05-08 山东浪潮人工智能研究院有限公司 一种用于特定环境的监控分析系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104244113A (zh) * 2014-10-08 2014-12-24 中国科学院自动化研究所 一种基于深度学习技术的视频摘要生成方法
CN107545582A (zh) * 2017-07-04 2018-01-05 深圳大学 基于模糊逻辑的视频多目标跟踪方法及装置
CN109919974A (zh) * 2019-02-21 2019-06-21 上海理工大学 基于r-fcn框架多候选关联的在线多目标跟踪方法
CN110660083A (zh) * 2019-09-27 2020-01-07 国网江苏省电力工程咨询有限公司 一种结合视频场景特征感知的多目标跟踪方法
CN110853078A (zh) * 2019-10-30 2020-02-28 同济大学 一种基于遮挡对的在线多目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
改进联合概率数据关联的视频多目标快速跟踪;万琴 等;《控制理论与应用》;20111031;第28卷(第10期);1421-1430 *

Also Published As

Publication number Publication date
CN111862153A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
US10417503B2 (en) Image processing apparatus and image processing method
US10996062B2 (en) Information processing device, data management device, data management system, method, and program
CN110619657B (zh) 一种面向智慧社区的多摄像机联动多目标追踪方法及系统
JP6759411B2 (ja) 物体追跡方法および装置
WO2012009947A1 (zh) 特征迹驱动的多目标跟踪装置及方法
CN111322993B (zh) 一种视觉定位方法和装置
CN114049382B (zh) 一种智能网联环境下目标融合跟踪方法、系统和介质
KR20190128500A (ko) 영상 감시 시스템에서의 실시간 쓰레기 투기 행위 탐지 방법 및 장치
WO2013012091A1 (ja) 情報処理装置、物体追跡方法およびプログラム記憶媒体
CN111144213B (zh) 一种对象检测方法和相关设备
KR102002812B1 (ko) 객체 검출을 위한 영상분석 서버장치 및 방법
KR101885839B1 (ko) 객체추적을 위한 특징점 선별 장치 및 방법
CN115063454B (zh) 多目标跟踪匹配方法、装置、终端及存储介质
CN111862153B (zh) 一种面向行人的长时间多目标跟踪方法
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
US11948312B2 (en) Object detection/tracking device, method, and program recording medium
CN115546705A (zh) 目标识别方法、终端设备及存储介质
CN116503441A (zh) 一种视频动态目标追踪方法、装置、设备及存储介质
KR101806453B1 (ko) 무인 비행체 충돌 회피를 위한 이동 객체 검출 장치 및 방법
CN111784750A (zh) 视频图像中移动物体追踪方法、装置、设备以及存储介质
CN111932600A (zh) 一种基于局部子图的实时回环检测方法
JP6866621B2 (ja) 移動物状態量推定装置及びプログラム
CN115588149A (zh) 基于匹配优先级的跨相机多目标级联匹配方法
CN111489439B (zh) 一种三维线图重建方法、装置和电子设备
CN115731416A (zh) 对象识别方法、用于对象识别的参考模板的生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant