CN114897944B - 一种基于DeepSORT的多目标连续跟踪方法 - Google Patents

一种基于DeepSORT的多目标连续跟踪方法 Download PDF

Info

Publication number
CN114897944B
CN114897944B CN202111325808.3A CN202111325808A CN114897944B CN 114897944 B CN114897944 B CN 114897944B CN 202111325808 A CN202111325808 A CN 202111325808A CN 114897944 B CN114897944 B CN 114897944B
Authority
CN
China
Prior art keywords
tracking
track
target frame
target
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111325808.3A
Other languages
English (en)
Other versions
CN114897944A (zh
Inventor
高珊珊
瞿洪桂
朱海明
高云丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sinonet Science and Technology Co Ltd
Original Assignee
Beijing Sinonet Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sinonet Science and Technology Co Ltd filed Critical Beijing Sinonet Science and Technology Co Ltd
Priority to CN202111325808.3A priority Critical patent/CN114897944B/zh
Publication of CN114897944A publication Critical patent/CN114897944A/zh
Application granted granted Critical
Publication of CN114897944B publication Critical patent/CN114897944B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

本发明提供一种基于DeepSORT的多目标连续跟踪方法,包括以下步骤:获取视频流的当前帧图像;使用多目标检测模型对当前帧图像进行目标检测,输出检测到的每一个目标的检测目标框的特征信息;根据跟踪轨迹的状态、寿命是否为静止间隔数的整数倍,选择进行轨迹预测、轨迹状态判断和轨迹更新。本发明通过判断跟踪目标是否处于静止状态,从而针对静止状态的目标采取隔多帧跟踪的策略,不再进行位置预测和轨迹更新,节省了系统资源,提高了多目标跟踪的跟踪效率。当跟踪目标状态改变时,该方法能够通过各参数的变化进行判断,即使跟踪目标从静止状态转换为运动状态,也能快速识别,从而保持持续的跟踪的状态。

Description

一种基于DeepSORT的多目标连续跟踪方法
技术领域
本发明属于多目标连续跟踪技术领域,具体涉及一种基于DeepSORT的多目标连续跟踪方法。
背景技术
视频跟踪领域,目前多采用基于检测的跟踪方法进行多目标跟踪,其中以各种不同的目标检测算法配合DeepSORT跟踪算法为主流。基于检测的多目标跟踪方法为:首先需要使用目标检测算法对视频中的每一帧图像进行目标检测,再使用DeepSORT跟踪算法对检测出的目标进行持续的跟踪。此种方法具有以下问题:(一)此种方法需要分析处理每一帧图像中的所有目标,跟踪效率较低。对于存在静止目标的场景,如停车场或路边有车辆停放的马路,对每一帧图片检测到的所有目标都进行检测和跟踪,会使得跟踪速度过慢,造成系统资源的浪费。(二)如果采用只跟踪运动目标、完全忽略静止目标的跟踪方法,则对于红绿灯路口场景,从运动进入静止状态再进入运动状态的目标都不能实现连续的跟踪,造成ID切换。
因此,如何提高目标跟踪效率,同时保持跟踪轨迹连续不中断是本领域亟待解决的问题。
发明内容
针对现有技术存在的缺陷,本发明提供一种基于DeepSORT的多目标连续跟踪方法,可有效解决上述问题。
本发明采用的技术方案如下:
本发明提供一种基于DeepSORT的多目标连续跟踪方法,包括以下步骤:
步骤1,预设置初始参数,包括:静止间隔数I_num;
预设置跟踪轨迹集合TR;每当发现一条跟踪轨迹时,将所述跟踪轨迹的跟踪轨迹ID加入到所述跟踪轨迹集合TR;
步骤2,获取视频流的当前帧图像;
步骤3,使用多目标检测模型对当前帧图像进行目标检测,输出检测到的每一个目标的检测目标框的特征信息;其中,所述检测目标框的特征信息包括:检测目标框的中心位置坐标、短边长度和长边长度;假设对于当前帧图像,共检测到n个目标的检测目标框,因此,n个目标形成检测目标集合Q;n个检测目标框形成检测目标框集合P;
步骤4,读取所述跟踪轨迹集合TR,得到当前所有跟踪轨迹;跟踪轨迹集合TR中的每条跟踪轨迹,均具有以下属性:运动状态标识、寿命、连续匹配失败次数、跟踪目标框序列和卡尔曼滤波器;
对于每条跟踪轨迹,表示为tri,均执行以下操作:
步骤4.1,将跟踪轨迹tri的寿命Agei加1,即:令Agei=Agei+1;
步骤4.2,读取跟踪轨迹tri的运动状态标识,如果跟踪轨迹tri为静止状态,则执行步骤4.3;如果跟踪轨迹tri为运动状态,则执行步骤4.5;
步骤4.3,判断跟踪轨迹tri的寿命Agei是否为静止间隔数I_num的整数倍,如果是,则执行步骤4.4;如果否,则执行步骤5;
步骤4.4,判断跟踪轨迹tri的连续匹配失败次数F_num_i是否大于2,如果否,则执行步骤4.5;如果是,则执行步骤4.6;
步骤4.5,轨迹预测:
对跟踪轨迹tri进行位置预测,具体方法为:
读取跟踪轨迹tri的属性,获取最新的跟踪目标框,将最新的跟踪目标框输入绑定的卡尔曼滤波器,卡尔曼滤波器通过跟踪目标框和变化速度,预测得到跟踪轨迹tri的跟踪目标targeti在当前帧图像中的预测目标框proi;然后执行步骤4.6;
步骤4.6,将跟踪轨迹tri的连续匹配失败次数F_num_i加1,即:令F_num_i=F_num_i+1;然后执行步骤5;
通过本步骤,输出每个跟踪轨迹tri在当前帧图像中的预测目标框proi,由此得到所有跟踪轨迹对应的预测目标框集合;
步骤5,轨迹匹配:
使用DeepSORT算法中的匹配方法,对预测目标框集合中的每个预测目标框i和步骤3得到的检测目标框集合P中的各个检测目标框进行匹配,输出匹配结果;
步骤6,对于跟踪轨迹tri,判断跟踪轨迹tri的预测目标框proi是否与检测目标框集合P中的某个检测目标框匹配成功,如果匹配成功,则执行步骤7;否则,执行步骤8;其中,将当前帧图像中,匹配成功的检测目标框表示为检测目标框p_i;
步骤7:
步骤7.1,判断跟踪轨迹tri的寿命Agei是否为静止间隔数I_num的整数倍,如果是,则执行步骤7.2;如果否,则执行步骤7.3;
步骤7.2,轨迹状态判断:
采用以下方法,判断跟踪轨迹tri的运动状态,然后执行步骤7.3;
读取到跟踪轨迹tri绑定的静止间隔帧数前的跟踪目标框c_i;
计算跟踪目标框c_i与步骤6得到的检测目标框p_i的移动比例;
若移动比例小于设定值,则跟踪轨迹tri为静止状态,否则,跟踪轨迹tri为运动状态;
步骤7.3,判断是否满足以下条件:
跟踪轨迹tri为静止状态,并且,跟踪轨迹tri的寿命Agei不是静止间隔数I_num的整数倍;
如果满足,则执行步骤9;
如果不满足,则执行步骤7.4;
步骤7.4,轨迹更新:
对跟踪轨迹tri进行轨迹更新,然后执行步骤9;
其中:对跟踪轨迹tri进行轨迹更新的具体方法为:
更新跟踪轨迹tri的运动状态标识;更新跟踪轨迹tri的跟踪目标框序列,向跟踪目标框序列中加入最新的跟踪目标框;将跟踪轨迹tri属性中的连续匹配失败次数置0;更新轨迹绑定的卡尔曼滤波器的卡尔曼滤波器参数,更新为:使用最新的跟踪目标框对卡尔曼滤波器参数进行更新;
步骤8:
步骤8.1,对于匹配失败,区分两种情况:对于匹配失败的跟踪轨迹tri,执行步骤8.2;对于匹配失败的检测目标框,执行步骤8.7;
步骤8.2,读取跟踪轨迹tri的属性,判断跟踪轨迹tri的运动状态标识是否为运动状态;如果是,则执行步骤8.3;如果否,则执行步骤8.5;
步骤8.3,判断跟踪轨迹tri的连续匹配失败次数F_num_i是否大于预设阈值,如果是,代表跟踪轨迹tri消失,则执行步骤8.4;如果否,则执行步骤9;
步骤8.4,从步骤1设置的跟踪轨迹集合TR中,删除跟踪轨迹tri;然后执行步骤9;
步骤8.5,判断跟踪轨迹tri的连续匹配失败次数F_num_i是否大于2,如果是,则执行步骤8.6;如果否,则执行步骤9;
步骤8.6,将跟踪轨迹tri的运动状态标识修改为运动状态;然后执行步骤9;
步骤8.7,对于匹配失败的检测目标框,认为该检测目标框为新出现的检测目标对应的检测目标框,将该检测目标表示为q_new;将该检测目标框作为跟踪目标框r_new;
初始化生成与检测目标q_new对应的新跟踪轨迹tr_q_new,包括:新跟踪轨迹tr_q_new的运动状态标识为运动状态,寿命Age_tr_q_new设置为1,连续匹配失败次数F_num_tr_q_new设置为0,跟踪目标框为跟踪目标框r_new,为该新跟踪轨迹tr_q_new分配一个卡尔曼滤波器,使用跟踪目标框r_new进行卡尔曼滤波器参数的初始化;
将新跟踪轨迹tr_q_new加入到步骤1的跟踪轨迹集合TR中;
然后执行步骤9;
步骤9,读取下一帧图像,并将下一帧图像作为当前帧图像,返回步骤3。
优选的,步骤7.2具体为:
步骤7.2.1,读取到跟踪轨迹tri绑定的静止间隔帧数前的跟踪目标框c_i的中心位置坐标(x_c_i,y_c_i);
获取步骤6得到的检测目标框p_i的中心位置坐标(x_p_i,y_p_i)以及检测目标框p_i的短边长度l_s_p_i;
步骤7.2.2,采用下式,计算得到移动比例r:
Figure BDA0003346906840000051
步骤7.2.3,设置静止阈值s_t,若比值r小于静止阈值s_t,则跟踪轨迹tri为静止状态,否则,跟踪轨迹tri为运动状态。
本发明提供的一种基于DeepSORT的多目标连续跟踪方法具有以下优点:
(1)本发明通过判断跟踪目标是否处于静止状态,从而针对静止状态的目标采取隔多帧跟踪的策略,不再进行位置预测和轨迹更新,节省了系统资源,提高了多目标跟踪的跟踪效率。
(2)当跟踪目标状态改变时,该方法能够通过各参数的变化进行判断,即使跟踪目标从静止状态转换为运动状态,也能快速识别,从而保持持续的跟踪的状态。
附图说明
图1为本发明提供的一种基于DeepSORT的多目标连续跟踪方法的流程示意图。
具体实施方式
为了使本发明所解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明提供的一种基于DeepSORT的多目标连续跟踪方法,可有效提高多目标跟踪的跟踪效率、同时保持跟踪连续性。
参考图1,本发明提供一种基于DeepSORT的多目标连续跟踪方法,包括以下步骤:
步骤1,预设置初始参数,包括:静止间隔数I_num;
预设置跟踪轨迹集合TR;每当发现一条跟踪轨迹时,将所述跟踪轨迹的跟踪轨迹ID加入到所述跟踪轨迹集合TR;
步骤2,获取视频流的当前帧图像;
具体的,视频或图片流包含多帧连续图像,从初始帧开始顺序取其中的图像进行处理,取图片操作可以通过图像编解码库如OpenCV等完成。
步骤3,使用多目标检测模型对当前帧图像进行目标检测,输出检测到的每一个目标的检测目标框的特征信息;其中,所述检测目标框的特征信息包括:检测目标框的中心位置坐标、短边长度和长边长度;假设对于当前帧图像,共检测到n个目标的检测目标框,因此,n个目标形成检测目标集合Q;n个检测目标框形成检测目标框集合P;
本步骤中,多目标检测模型可以使用深度模型如yolov5等,也可以使用非深度的机器学习模型,输入一帧图像,可以输出图片中感兴趣目标的特征信息。例如,当需要对行人进行目标检测时,对于一张十字道路口拍摄到的图片,可检测出所有行人目标。
步骤4,读取所述跟踪轨迹集合TR,得到当前所有跟踪轨迹;跟踪轨迹集合TR中的每条跟踪轨迹,均具有以下属性:运动状态标识、寿命、连续匹配失败次数、跟踪目标框序列和卡尔曼滤波器;
其中,每条跟踪轨迹均绑定一个卡尔曼滤波器,各条跟踪轨迹的卡尔曼滤波器的参数不相同。
对于每条跟踪轨迹,表示为tri,均执行以下操作:
步骤4.1,将跟踪轨迹tri的寿命Agei加1,即:令Agei=Agei+1;
步骤4.2,读取跟踪轨迹tri的运动状态标识,如果跟踪轨迹tri为静止状态,则执行步骤4.3;如果跟踪轨迹tri为运动状态,则执行步骤4.5;
步骤4.3,判断跟踪轨迹tri的寿命Agei是否为静止间隔数I_num的整数倍,如果是,则执行步骤4.4;如果否,则执行步骤5;
步骤4.4,判断跟踪轨迹tri的连续匹配失败次数F_num_i是否大于2,如果否,则执行步骤4.5;如果是,则执行步骤4.6;
步骤4.5,轨迹预测:
对跟踪轨迹tri进行位置预测,具体方法为:
读取跟踪轨迹tri的属性,获取最新的跟踪目标框,将最新的跟踪目标框输入绑定的卡尔曼滤波器,卡尔曼滤波器通过跟踪目标框和变化速度,预测得到跟踪轨迹tri的跟踪目标targeti在当前帧图像中的预测目标框proi;然后执行步骤4.6;
步骤4.6,将跟踪轨迹tri的连续匹配失败次数F_num_i加1,即:令F_num_i=F_num_i+1;然后执行步骤5;
通过本步骤,输出每个跟踪轨迹tri在当前帧图像中的预测目标框proi,由此得到所有跟踪轨迹对应的预测目标框集合;
步骤5,轨迹匹配:
使用DeepSORT算法中的匹配方法,对预测目标框集合中的每个预测目标框i和步骤3得到的检测目标框集合P中的各个检测目标框进行匹配,输出匹配结果;
DeepSORT算法针对行人目标使用了深度特征匹配和IOU(交并比)匹配结合的方式,若需要跟踪的目标非行人,可仅使用IOU匹配;匹配结果分为跟踪轨迹和检测目标框匹配成功、跟踪轨迹匹配失败、检测目标框匹配失败三种,处理方式各不相同。
其中,假设当前为跟踪轨迹tr1,检测目标框集合P中共有10个检测目标框,分别为:P1,P2,...,P10。如果跟踪轨迹tr1和检测目标框P10匹配成功,则执行步骤7;如果跟踪轨迹tr1和10个检测目标框均不匹配,则代表跟踪轨迹tr1匹配失败,执行步骤8.2;如果检测目标框P8,和跟踪轨迹集合TR中的每个跟踪轨迹均不匹配,则代表检测目标框P8匹配失败,执行步骤8.7。
步骤6,对于跟踪轨迹tri,判断跟踪轨迹tri的预测目标框proi是否与检测目标框集合P中的某个检测目标框匹配成功,如果匹配成功,则执行步骤7;否则,执行步骤8;其中,将当前帧图像中,匹配成功的检测目标框表示为检测目标框p_i;
步骤7:
步骤7.1,判断跟踪轨迹tri的寿命Agei是否为静止间隔数I_num的整数倍,如果是,则执行步骤7.2;如果否,则执行步骤7.3;
步骤7.2,轨迹状态判断:
采用以下方法,判断跟踪轨迹tri的运动状态,然后执行步骤7.3;
读取到跟踪轨迹tri绑定的静止间隔帧数前的跟踪目标框c_i;
计算跟踪目标框c_i与步骤6得到的检测目标框p_i的移动比例;
若移动比例小于设定值,则跟踪轨迹tri为静止状态,否则,跟踪轨迹tri为运动状态;
步骤7.2具体为:
步骤7.2.1,读取到跟踪轨迹tri绑定的静止间隔帧数前的跟踪目标框c_i的中心位置坐标(x_c_i,y_c_i);
获取步骤6得到的检测目标框p_i的中心位置坐标(x_p_i,y_p_i)以及检测目标框p_i的短边长度l_s_p_i;
步骤7.2.2,采用下式,计算得到移动比例r:
Figure BDA0003346906840000091
步骤7.2.3,设置静止阈值s_t,若比值r小于静止阈值s_t,则跟踪轨迹tri为静止状态,否则,跟踪轨迹tri为运动状态。
在跟踪轨迹状态判断中,跟踪轨迹需要记录静止间隔帧整数倍时的跟踪目标框中心位置坐标,在下一次静止间隔帧整数倍时会使用新匹配到的检测目标框中心位置坐标和轨迹保存的跟踪目标框坐标进行移动距离的计算,得到移动距离后与跟踪目标框的短边长度做比,即得到目标在该段时间内的移动比例,比较该比例与静止阈值就可以判断轨迹状态;得到轨迹状态后,将本次匹配到的检测目标中心位置坐标作为跟踪目标框坐标,为下一次轨迹状态判断做准备。
静止阈值的取值需要根据目标种类、目标运动速度来制定,以满足不同场景的判断需求,获得更准确的判断。
步骤7.3,判断是否满足以下条件:
跟踪轨迹tri为静止状态,并且,跟踪轨迹tri的寿命Agei不是静止间隔数I_num的整数倍;
如果满足,则执行步骤9;
如果不满足,则执行步骤7.4;
步骤7.4,轨迹更新:
对跟踪轨迹tri进行轨迹更新,然后执行步骤9;
其中:对跟踪轨迹tri进行轨迹更新的具体方法为:
更新跟踪轨迹tri的运动状态标识;更新跟踪轨迹tri的跟踪目标框序列,向跟踪目标框序列中加入最新的跟踪目标框;将跟踪轨迹tri属性中的连续匹配失败次数置0;更新轨迹绑定的卡尔曼滤波器的卡尔曼滤波器参数,更新为:使用最新的跟踪目标框对卡尔曼滤波器参数进行更新;
对步骤7.1-步骤7.4的理解为:
对于匹配成功的检测目标和跟踪轨迹,若跟踪轨迹的寿命为静止间隔的整数倍,则进行轨迹状态的重新判断;对于当前状态为运动的轨迹,或者当前状态为静止但寿命为静止间隔的整数倍的轨迹,进行轨迹的更新;
对于匹配成功的跟踪轨迹,需要按照静止间隔来计算更新轨迹的运动状态;而对于静止且未达到静止间隔整数倍的轨迹,跳过轨迹更新步骤,认为静止目标的位置信息不发生变化,这样可以节省系统资源,加快跟踪速度。
步骤8:
步骤8.1,对于匹配失败,区分两种情况:对于匹配失败的跟踪轨迹tri,执行步骤8.2;对于匹配失败的检测目标框,执行步骤8.7;
步骤8.2,读取跟踪轨迹tri的属性,判断跟踪轨迹tri的运动状态标识是否为运动状态;如果是,则执行步骤8.3;如果否,则执行步骤8.5;
步骤8.3,判断跟踪轨迹tri的连续匹配失败次数F_num_i是否大于预设阈值,如果是,代表跟踪轨迹tri消失,则执行步骤8.4;如果否,则执行步骤9;
步骤8.4,从步骤1设置的跟踪轨迹集合TR中,删除跟踪轨迹tri;然后执行步骤9;
步骤8.5,判断跟踪轨迹tri的连续匹配失败次数F_num_i是否大于2,如果是,则执行步骤8.6;如果否,则执行步骤9;
步骤8.6,将跟踪轨迹tri的运动状态标识修改为运动状态;然后执行步骤9;
对于步骤8.2-步骤8.6,具体解释如下:
对于匹配失败的跟踪轨迹,若状态为运动,且连续匹配失败次数大于预设阈值,代表跟踪轨迹在本帧画面中消失,将其删除;若状态为静止,且连续匹配失败次数大于2,则将状态修改为运动;
对于静止状态的轨迹,若连续匹配失败次数大于2,则认为该目标可能已经不在原位置,或该目标被其他目标遮挡导致无法检测到;对于目标不在原位置的情况,将轨迹状态修改为运动,能保证尽快跟踪上运动目标不至丢失,即快速响应目标从静止转换为运动状态的情况;对于目标被其他目标遮挡导致无法检测到的情况,将状态修改为运动,可以使目标在脱离遮挡状态的第一时间匹配成功,或者在目标被长时间遮挡的情况下将该轨迹删除,节省计算资源,保持跟踪准确性。
步骤8.7,对于匹配失败的检测目标框,认为该检测目标框为新出现的检测目标对应的检测目标框,将该检测目标表示为q_new;将该检测目标框作为跟踪目标框r_new;
初始化生成与检测目标q_new对应的新跟踪轨迹tr_q_new,包括:新跟踪轨迹tr_q_new的运动状态标识为运动状态,寿命Age_tr_q_new设置为1,连续匹配失败次数F_num_tr_q_new设置为0,跟踪目标框为跟踪目标框r_new,为该新跟踪轨迹tr_q_new分配一个卡尔曼滤波器,使用跟踪目标框r_new进行卡尔曼滤波器参数的初始化;
将新跟踪轨迹tr_q_new加入到步骤1的跟踪轨迹集合TR中;
然后执行步骤9;
作为一种具体实现方式,匹配失败的检测目标被认为是新进入画面的目标,因此对其进行轨迹初始化,后续作为轨迹参与匹配步骤;但这些目标也可能是误检测,DeepSORT针对这种情况采取的策略是,对于这些新的轨迹,只有连续多帧匹配成功才成为正式的轨迹,否则会被直接删除而不需要满足连续匹配失败次数大于预设的条件,该策略保证了偶尔的误检不会被当成轨迹跟踪,该策略并非跟踪中的关键步骤,因此不在本方法中描述。
步骤9,读取下一帧图像,并将下一帧图像作为当前帧图像,返回步骤3。
本发明提供一种基于DeepSORT的多目标连续跟踪方法,主要包括轨迹预测、轨迹匹配、轨迹状态重新判断、轨迹更新等关键步骤。
其中,轨迹预测时,使用DeepSORT算法对已存跟踪轨迹进行预测;将所有已存跟踪轨迹的寿命加1;对于状态为运动的跟踪轨迹,进行轨迹预测,并将连续匹配失败次数加1;对于状态为静止的跟踪轨迹,如果其寿命为静止间隔的整数倍,并且,连续匹配失败次数大于2,则不进行轨迹预测,仅将其连续匹配失败次数加1;如果其寿命为静止间隔的整数倍,并且,连续匹配失败次数小于等于2,则进行轨迹预测,并将连续匹配失败次数加1;
轨迹的寿命即轨迹存在的帧数,轨迹初始化时寿命为1,每多处理一帧,不论是否匹配成功,轨迹的寿命都需要加1;
轨迹的状态分为运动状态和静止状态,对于运动轨迹,每一帧都进行完整的跟踪,对于静止轨迹,只有在特定寿命时,才进行完整的跟踪,其他时候既不进行轨迹预测也不进行轨迹更新;
轨迹预测是使用卡尔曼滤波器,通过轨迹历史位置坐标和变化速度,预测当前帧轨迹可能出现的位置坐标,该预测位置用于后续的轨迹与检测目标的匹配;轨迹更新是在轨迹和检测框匹配成功后,利用检测框的位置坐标信息更新对应轨迹的卡尔曼滤波器中的相关参数,得到更准确的目标位置,还包括轨迹特征的更新、轨迹相关参数的更新等;
静止间隔是针对轨迹的寿命设置,当轨迹的寿命是静止间隔的整数倍时,轨迹进行静止或运动状态的重新判断,根据判断结果修改轨迹属性中的轨迹运动状态,从而可以保持对轨迹状态变化的迅速响应;而对于状态为静止的轨迹,只有当轨迹的寿命是静止间隔的整数倍时,轨迹才进行一次完整的轨迹预测和轨迹更新,其他时候则维持原位置信息不变,不进行轨迹预测和轨迹更新,这样可以减少不必要的计算和资源占用,加快整体跟踪速度;
连续匹配失败次数是判断轨迹是否还存在的一个参数,当轨迹初始化时,该参数为0,当轨迹预测一次,该参数加1,但如果该轨迹在后续匹配中成功匹配到检测框,该参数重置0,如果连续多帧没有匹配成功,则该参数只增不减,当达到预设值时,认为该轨迹已经从画面中消失,删除该轨迹。
与现有技术相比,本发明的有益效果是:
静止目标在画面中的位置坐标能够保持较长时间不变,如果视频中每一帧都对全部目标进行跟踪,则会浪费系统资源和时间来对静止目标进行不必要的轨迹预测和轨迹更新。通过判断跟踪目标是否处于静止状态,从而针对静止状态的目标采取隔多帧跟踪的策略,不再进行位置预测和轨迹更新,节省了系统资源,提高了多目标跟踪的跟踪效率。
同时,当跟踪目标状态改变时,该方法能够通过各参数的变化进行判断,即使跟踪目标从静止状态转换为运动状态,也能快速识别,从而保持持续的跟踪的状态。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视本发明的保护范围。

Claims (2)

1.一种基于DeepSORT的多目标连续跟踪方法,其特征在于,包括以下步骤:
步骤1,预设置初始参数,包括:静止间隔数I_num;
预设置跟踪轨迹集合TR;每当发现一条跟踪轨迹时,将所述跟踪轨迹的跟踪轨迹ID加入到所述跟踪轨迹集合TR;
步骤2,获取视频流的当前帧图像;
步骤3,使用多目标检测模型对当前帧图像进行目标检测,输出检测到的每一个目标的检测目标框的特征信息;其中,所述检测目标框的特征信息包括:检测目标框的中心位置坐标、短边长度和长边长度;假设对于当前帧图像,共检测到n个目标的检测目标框,因此,n个目标形成检测目标集合Q;n个检测目标框形成检测目标框集合P;
步骤4,读取所述跟踪轨迹集合TR,得到当前所有跟踪轨迹;跟踪轨迹集合TR中的每条跟踪轨迹,均具有以下属性:运动状态标识、寿命、连续匹配失败次数、跟踪目标框序列和卡尔曼滤波器;
对于每条跟踪轨迹,表示为tri,均执行以下操作:
步骤4.1,将跟踪轨迹tri的寿命Agei加1,即:令Agei=Agei+1;
步骤4.2,读取跟踪轨迹tri的运动状态标识,如果跟踪轨迹tri为静止状态,则执行步骤4.3;如果跟踪轨迹tri为运动状态,则执行步骤4.5;
步骤4.3,判断跟踪轨迹tri的寿命Agei是否为静止间隔数I_num的整数倍,如果是,则执行步骤4.4;如果否,则执行步骤5;
步骤4.4,判断跟踪轨迹tri的连续匹配失败次数F_num_i是否大于2,如果否,则执行步骤4.5;如果是,则执行步骤4.6;
步骤4.5,轨迹预测:
对跟踪轨迹tri进行位置预测,具体方法为:
读取跟踪轨迹tri的属性,获取最新的跟踪目标框,将最新的跟踪目标框输入绑定的卡尔曼滤波器,卡尔曼滤波器通过跟踪目标框和变化速度,预测得到跟踪轨迹tri的跟踪目标targeti在当前帧图像中的预测目标框proi;然后执行步骤4.6;
步骤4.6,将跟踪轨迹tri的连续匹配失败次数F_num_i加1,即:令F_num_i=F_num_i+1;然后执行步骤5;
通过本步骤,输出每个跟踪轨迹tri在当前帧图像中的预测目标框proi,由此得到所有跟踪轨迹对应的预测目标框集合;
步骤5,轨迹匹配:
使用DeepSORT算法中的匹配方法,对预测目标框集合中的每个预测目标框i和步骤3得到的检测目标框集合P中的各个检测目标框进行匹配,输出匹配结果;
步骤6,对于跟踪轨迹tri,判断跟踪轨迹tri的预测目标框proi是否与检测目标框集合P中的某个检测目标框匹配成功,如果匹配成功,则执行步骤7;否则,执行步骤8;其中,将当前帧图像中,匹配成功的检测目标框表示为检测目标框p_i;
步骤7:
步骤7.1,判断跟踪轨迹tri的寿命Agei是否为静止间隔数I_num的整数倍,如果是,则执行步骤7.2;如果否,则执行步骤7.3;
步骤7.2,轨迹状态判断:
采用以下方法,判断跟踪轨迹tri的运动状态,然后执行步骤7.3;
读取到跟踪轨迹tri绑定的静止间隔帧数前的跟踪目标框c_i;
计算跟踪目标框c_i与步骤6得到的检测目标框p_i的移动比例;
若移动比例小于设定值,则跟踪轨迹tri为静止状态,否则,跟踪轨迹tri为运动状态;
步骤7.3,判断是否满足以下条件:
跟踪轨迹tri为静止状态,并且,跟踪轨迹tri的寿命Agei不是静止间隔数I_num的整数倍;
如果满足,则执行步骤9;
如果不满足,则执行步骤7.4;
步骤7.4,轨迹更新:
对跟踪轨迹tri进行轨迹更新,然后执行步骤9;
其中:对跟踪轨迹tri进行轨迹更新的具体方法为:
更新跟踪轨迹tri的运动状态标识;更新跟踪轨迹tri的跟踪目标框序列,向跟踪目标框序列中加入最新的跟踪目标框;将跟踪轨迹tri属性中的连续匹配失败次数置0;更新轨迹绑定的卡尔曼滤波器的卡尔曼滤波器参数,更新为:使用最新的跟踪目标框对卡尔曼滤波器参数进行更新;
步骤8:
步骤8.1,对于匹配失败,区分两种情况:对于匹配失败的跟踪轨迹tri,执行步骤8.2;对于匹配失败的检测目标框,执行步骤8.7;
步骤8.2,读取跟踪轨迹tri的属性,判断跟踪轨迹tri的运动状态标识是否为运动状态;如果是,则执行步骤8.3;如果否,则执行步骤8.5;
步骤8.3,判断跟踪轨迹tri的连续匹配失败次数F_num_i是否大于预设阈值,如果是,代表跟踪轨迹tri消失,则执行步骤8.4;如果否,则执行步骤9;
步骤8.4,从步骤1设置的跟踪轨迹集合TR中,删除跟踪轨迹tri;然后执行步骤9;
步骤8.5,判断跟踪轨迹tri的连续匹配失败次数F_num_i是否大于2,如果是,则执行步骤8.6;如果否,则执行步骤9;
步骤8.6,将跟踪轨迹tri的运动状态标识修改为运动状态;然后执行步骤9;
步骤8.7,对于匹配失败的检测目标框,认为该检测目标框为新出现的检测目标对应的检测目标框,将该检测目标表示为q_new;将该检测目标框作为跟踪目标框r_new;
初始化生成与检测目标q_new对应的新跟踪轨迹tr_q_new,包括:新跟踪轨迹tr_q_new的运动状态标识为运动状态,寿命Age_tr_q_new设置为1,连续匹配失败次数F_num_tr_q_new设置为0,跟踪目标框为跟踪目标框r_new,为该新跟踪轨迹tr_q_new分配一个卡尔曼滤波器,使用跟踪目标框r_new进行卡尔曼滤波器参数的初始化;
将新跟踪轨迹tr_q_new加入到步骤1的跟踪轨迹集合TR中;
然后执行步骤9;
步骤9,读取下一帧图像,并将下一帧图像作为当前帧图像,返回步骤3。
2.根据权利要求1所述的一种基于DeepSORT的多目标连续跟踪方法,其特征在于,步骤7.2具体为:
步骤7.2.1,读取到跟踪轨迹tri绑定的静止间隔帧数前的跟踪目标框c_i的中心位置坐标(x_c_i,y_c_i);
获取步骤6得到的检测目标框p_i的中心位置坐标(x_p_i,y_p_i)以及检测目标框p_i的短边长度l_s_p_i;
步骤7.2.2,采用下式,计算得到移动比例r:
Figure FDA0003346906830000041
步骤7.2.3,设置静止阈值s_t,若比值r小于静止阈值s_t,则跟踪轨迹tri为静止状态,否则,跟踪轨迹tri为运动状态。
CN202111325808.3A 2021-11-10 2021-11-10 一种基于DeepSORT的多目标连续跟踪方法 Active CN114897944B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111325808.3A CN114897944B (zh) 2021-11-10 2021-11-10 一种基于DeepSORT的多目标连续跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111325808.3A CN114897944B (zh) 2021-11-10 2021-11-10 一种基于DeepSORT的多目标连续跟踪方法

Publications (2)

Publication Number Publication Date
CN114897944A CN114897944A (zh) 2022-08-12
CN114897944B true CN114897944B (zh) 2022-10-25

Family

ID=82714216

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111325808.3A Active CN114897944B (zh) 2021-11-10 2021-11-10 一种基于DeepSORT的多目标连续跟踪方法

Country Status (1)

Country Link
CN (1) CN114897944B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115908506B (zh) * 2022-09-09 2023-06-27 杭州云栖智慧视通科技有限公司 基于卡尔曼预测的多目标跟踪方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2913432A1 (en) * 2015-11-26 2016-01-27 Robert Zakaluk System and method for identifying, analyzing, and reporting on players in a game from video
CN109212514A (zh) * 2018-09-29 2019-01-15 河北德冠隆电子科技有限公司 一种雷达检测设备对运动以及静止目标持续跟踪关联方法
CN110853078A (zh) * 2019-10-30 2020-02-28 同济大学 一种基于遮挡对的在线多目标跟踪方法
CN111932580A (zh) * 2020-07-03 2020-11-13 江苏大学 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统
CN112215155A (zh) * 2020-10-13 2021-01-12 北京中电兴发科技有限公司 一种基于多特征融合的人脸跟踪方法及系统
CN112507949A (zh) * 2020-12-18 2021-03-16 北京百度网讯科技有限公司 目标跟踪方法、装置、路侧设备以及云控平台
CN112561954A (zh) * 2020-09-11 2021-03-26 浙江大华技术股份有限公司 目标对象跟踪轨迹的确定方法和装置、存储介质
CN112884742A (zh) * 2021-02-22 2021-06-01 山西讯龙科技有限公司 一种基于多算法融合的多目标实时检测、识别及跟踪方法
CN112883819A (zh) * 2021-01-26 2021-06-01 恒睿(重庆)人工智能技术研究院有限公司 多目标跟踪方法、装置、系统及计算机可读存储介质
CN113077495A (zh) * 2020-01-06 2021-07-06 广州汽车集团股份有限公司 在线多目标跟踪方法、系统、计算机设备及可读存储介质
CN113160274A (zh) * 2021-04-19 2021-07-23 桂林电子科技大学 一种基于YOLOv4的改进DeepSort目标检测跟踪方法
CN113269098A (zh) * 2021-05-27 2021-08-17 中国人民解放军军事科学院国防科技创新研究院 一种基于无人机的多目标跟踪定位与运动状态估计方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2913432A1 (en) * 2015-11-26 2016-01-27 Robert Zakaluk System and method for identifying, analyzing, and reporting on players in a game from video
CN109212514A (zh) * 2018-09-29 2019-01-15 河北德冠隆电子科技有限公司 一种雷达检测设备对运动以及静止目标持续跟踪关联方法
CN110853078A (zh) * 2019-10-30 2020-02-28 同济大学 一种基于遮挡对的在线多目标跟踪方法
CN113077495A (zh) * 2020-01-06 2021-07-06 广州汽车集团股份有限公司 在线多目标跟踪方法、系统、计算机设备及可读存储介质
CN111932580A (zh) * 2020-07-03 2020-11-13 江苏大学 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统
CN112561954A (zh) * 2020-09-11 2021-03-26 浙江大华技术股份有限公司 目标对象跟踪轨迹的确定方法和装置、存储介质
CN112215155A (zh) * 2020-10-13 2021-01-12 北京中电兴发科技有限公司 一种基于多特征融合的人脸跟踪方法及系统
CN112507949A (zh) * 2020-12-18 2021-03-16 北京百度网讯科技有限公司 目标跟踪方法、装置、路侧设备以及云控平台
CN112883819A (zh) * 2021-01-26 2021-06-01 恒睿(重庆)人工智能技术研究院有限公司 多目标跟踪方法、装置、系统及计算机可读存储介质
CN112884742A (zh) * 2021-02-22 2021-06-01 山西讯龙科技有限公司 一种基于多算法融合的多目标实时检测、识别及跟踪方法
CN113160274A (zh) * 2021-04-19 2021-07-23 桂林电子科技大学 一种基于YOLOv4的改进DeepSort目标检测跟踪方法
CN113269098A (zh) * 2021-05-27 2021-08-17 中国人民解放军军事科学院国防科技创新研究院 一种基于无人机的多目标跟踪定位与运动状态估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
People Tracking System Using DeepSORT;Muhamad Izham Hadi Azhar 等;《2020 10th IEEE International Conference on Control System, Computing and Engineering (ICCSCE)》;20200924;第137-141页 *
基于优化DeepSort的前方车辆多目标跟踪;金立生 等;《浙江大学学报(工学版)》;20210630;1056-1064页 *

Also Published As

Publication number Publication date
CN114897944A (zh) 2022-08-12

Similar Documents

Publication Publication Date Title
Qu et al. Focus on local: Detecting lane marker from bottom up via key point
CN111652912B (zh) 车辆计数方法和系统、数据处理设备及智能拍摄设备
EP1574992B1 (en) Method and device for tracking moving objects in images
US8374393B2 (en) Foreground object tracking
Punyavathi et al. Vehicle tracking and detection techniques using IoT
US20120166080A1 (en) Method, system and computer-readable medium for reconstructing moving path of vehicle
Lee et al. Real-time illegal parking detection in outdoor environments using 1-D transformation
CN111554105B (zh) 一种复杂交通路口的智能流量识别与统计方法
Chen et al. Neuromorphic vision based multivehicle detection and tracking for intelligent transportation system
Chang et al. Video analytics in smart transportation for the AIC'18 challenge
Nienhüser et al. Visual state estimation of traffic lights using hidden Markov models
CN112200830A (zh) 一种目标跟踪方法及设备
CN112242058B (zh) 基于交通监控视频的目标异常检测方法、装置及存储介质
CN114897944B (zh) 一种基于DeepSORT的多目标连续跟踪方法
He et al. Fast online multi-pedestrian tracking via integrating motion model and deep appearance model
CN112700478A (zh) 目标跟踪方法、系统、计算机可读存储介质和程序产品
Shi et al. Anomalous driving detection for traffic surveillance video analysis
Hua et al. Effective vehicle tracking algorithm for smart traffic networks
Li et al. Real-time tracking of vehicles with siamese network and backward prediction
CN112562315B (zh) 一种获取车流信息的方法、终端及存储介质
CN114049383B (zh) 一种多目标跟踪方法、设备及可读存储介质
CN113177509B (zh) 一种倒车行为识别方法及装置
CN109740518B (zh) 一种视频中对象的确定方法及装置
Zhang et al. What makes for good multiple object trackers?
Singh et al. Radius nearest neighbour based feature classification for occlusion handling

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant