CN113723190A - 一种面向同步移动目标的多目标跟踪方法 - Google Patents

一种面向同步移动目标的多目标跟踪方法 Download PDF

Info

Publication number
CN113723190A
CN113723190A CN202110861330.XA CN202110861330A CN113723190A CN 113723190 A CN113723190 A CN 113723190A CN 202110861330 A CN202110861330 A CN 202110861330A CN 113723190 A CN113723190 A CN 113723190A
Authority
CN
China
Prior art keywords
target
tracking
frame
matching
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110861330.XA
Other languages
English (en)
Inventor
张文利
王佳琪
刘鈺昕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202110861330.XA priority Critical patent/CN113723190A/zh
Publication of CN113723190A publication Critical patent/CN113723190A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters

Abstract

本发明公开了一种面向同步移动目标的多目标跟踪方法,应用目标检测算法检测图像中所要跟踪的目标,得到所要跟踪目标的检测框;然后将所要跟踪目标的检测框信息输入到基于位移相似性的多目标跟踪算法中进行目标匹配关联:首先利用滤波器方法对目标的运动轨迹进行预测与更新;然后对得到的轨迹和当前帧检测框利用目标的运动状态和IoU代价矩阵进行初次关联匹配;最后,对于初次关联匹配结果中未匹配的跟踪目标,基于位移相似性特点计算其在当前帧的位置信息。以引入目标表观特征增强跟踪器的性能,充分利用到多目标之间的运动位移相似性特点,当出现跟踪目标被遮挡或无法在连续帧被检测的情况时,避免了产生跟踪ID变换问题,因此适用于同步运动场景。

Description

一种面向同步移动目标的多目标跟踪方法
技术领域
本发明属于计算机视觉与图像处理领域,具体涉及一种面向同步运动场景的多目标跟踪方法。
背景技术
随着计算机视觉的快速发展,多目标跟踪技术得到了广泛的应用,比如应用在人流量统计、物流传送带包裹智能分拣、智慧果园跟踪计数等场景。其中,应用于物流传送带包裹智能分拣和智慧果园跟踪计数等此类场景中,存在一种共同特点,即视频内的所有跟踪目标具有同向同速的运动特性,本发明将该特点称为运动位移相似性。
近年来,大量多目标跟踪方法被研究人员提出,其中主要以Sort[1]、DeepSort[2]为代表的逐帧检测的多目标跟踪方法,该类方法将目标跟踪任务转化为目标检测任务和目标关联任务。多目标跟踪Sort结合卡尔曼滤波Kalman Filter和匈牙利匹配算法Hungarianalgorithm,利用检测框的位置和大小进行跟踪目标的运动估计和数据关联完成多目标跟踪任务。在实际应用时,当跟踪目标被遮挡或无法在连续帧被检测到时,该目标跟踪器就会被注销,而当后续帧又能准确检测到时,由于此目标跟踪器已被注销,没有相应的跟踪目标与之匹配,所以就会为其创建一个新的跟踪器,从而导致了跟踪目标ID的频繁切换。
为了提升多目标跟踪精度,一些研究学者提出了许多解决方法,比较具有代表性的技术如下:
中国专利CN 112084914A公开了一种融合空间运动和表观特征学习的多目标跟踪方法,该方法包括:首先利用yolov5检测实现图像中目标的检测,然后建立匀速状态模型和线性观测模型,采用kalman滤波对检测的目标进行预测;其次采用CNN方法实现检测出目标的特征描述向量,并采用融合空间运动信息和表观特征信息的目标相似性度量方法度量当前帧检测目标与历史帧检测目标;根据最小相似度进行当前帧目标与历史帧目标的匹配,完成多目标跟踪任务。
中国专利CN 112084914A联合利用运动状态模型和跟踪目标表观特征进行多目标跟踪,其原理与文献[2]类似,均以引入目标表观特征的方法来增强跟踪器的性能,没有利用到多目标之间的运动位移相似性特点,当出现跟踪目标被遮挡或无法在连续帧被检测的情况时,仍然会产生跟踪ID变换问题,不适用于本发明所提出的同步运动场景。
发明内容
针对现有技术处在的缺陷,本发明提供了一种面向同步移动场景的多目标跟踪方法,本发明应用目标检测算法检测图像中所要跟踪的目标,得到所要跟踪目标的检测框;然后将所要跟踪目标的检测框信息输入到基于位移相似性的多目标跟踪算法中进行目标匹配关联:首先利用滤波器方法对目标的运动轨迹进行预测与更新;然后对得到的轨迹和当前帧检测框利用目标的运动状态和IoU代价矩阵进行初次关联匹配;最后,对于初次关联匹配结果中未匹配的跟踪目标,基于位移相似性特点计算其在当前帧的位置信息。
进一步地,基于位移相似性特点计算其在当前帧的位置信息的实现过程如下,进行跟踪目标中心位置估计:计算当前帧成功匹配的跟踪目标中心点与上一帧对应目标中心点坐标的位移差值,并求其均值作为当前帧目标运动位移向量,以此确定当前帧未匹配跟踪目标的中心点坐标位置;进行跟踪目标尺度估计:在确定跟踪目标中心点位置后,以该目标在上一帧的尺度大小为基准,设置尺度衰减因子,估计该目标在当前帧的尺度大小,完成当前帧目标跟踪处理流程。
进一步地,所述滤波器方法包括卡尔曼滤波器和粒子滤波器等方法。
本发明还提供了一种面向同步运动场景的多目标跟踪系统,系统流程图如图1所示,包含:视频序列提取模块、目标检测模块、运动状态估计模块、数据关联匹配模块、平均位移向量计算模块、位移相似性目标位置估计模块和更新目标运动状态模块。视频序列提取模块、目标检测模块、运动状态估计模块、数据关联匹配模块、平均位移向量计算模块、位移相似性目标位置估计模块和更新目标运动状态模块顺次连接;各模块的具体功能如下:
视频序列提取模块:从摄像装置或存储设备中读取得到视频数据,并将视频数据分帧处理,逐帧输入到目标检测模块。
目标检测模块:从所述视频序列提取模块中读取视频序列,利用卷积神经网络或者其他特征提取方法,提取图像的颜色纹理特征、边缘特征、语义特征并进行特征融合,通过深度学习目标检测模型获得目标测框,并输入到运动状态预测模块。
运动状态预测模块:从目标检测模块逐帧读取图像中目标检测框,并根据目标出现的次数建立相关滤波器以估计并更新目标的运动状态,滤波器方法包括但不限于卡尔曼滤波器、粒子滤波器等方法。将目标运动状态和目标位置输入到数据关联匹配模块。
数据关联匹配模块:从运动状态预测模块读取目标运动状态和目标位置,对得到的轨迹和当前帧检测框利用目标的运动状态和IoU代价矩阵进行初次关联匹配,将数据匹配结果输入到基于位移相似性目标位置估计模块。
基于位移相似性目标位置估计模块:从数据关联匹配模块中读取目标匹配结果,计算其中正确匹配跟踪目标的位移向量并求均值,得到平均位移向量,并计算数据关联匹配模块中未匹配的跟踪目标在当前视频帧的位置,并将位置输入到更新目标运动状态模块。
更新目标运动状态模块:利用当前帧跟踪目标的位置更新相关滤波器的运动状态,完成当前视频帧目标跟踪处理。
进一步地,所述初次关联匹配的方法包括匈牙利匹配算法、贪婪匹配算法。
与现有技术相比较而言,本发明以引入目标表观特征增强跟踪器的性能,充分利用到多目标之间的运动位移相似性特点,当出现跟踪目标被遮挡或无法在连续帧被检测的情况时,避免了产生跟踪ID变换问题,因此适用于同步运动场景。
附图说明
图1本发明提供一种面向同步移动场景的目标跟踪系统的代表图。
图2本发明提供一种面向同步移动场景的目标跟踪方法流程图。
图3本发明提供一种数据关联匹配流程图。
图4本发明提供一种基于位移相似性目标位置估计流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。下面通过具体实施例对本发明进行详细说明。
本发明的实施例提供的方法流程图如图2所示,包括如下步骤:
步骤S10,视频序列提取;
步骤S20,目标检测;
步骤S30,运动状态估计;
步骤S40,数据关联匹配;
步骤S50,基于位移相似性目标位置估计;
步骤S60,更新目标运动状态。
步骤S10:从摄像装置或存储设备中读取视频数据,并将视频数据分帧处理,逐帧输入到步骤S20目标检测。
步骤S20:从所述S10读取视频序列,利用卷积神经网络或者其他特征提取方法,提取图像的颜色纹理特征、边缘特征、语义特征并进行特征融合,通过深度学习目标检测模型获得目标测框,并输入到步骤S30运动状态估计。
步骤S30:从所述步骤S20逐帧读取图像中目标检测框,并根据目标出现的次数建立相关滤波器以估计并更新目标的运动状态,本实施例使用卡尔曼滤波器进行目标的运动状态估计,滤波器方法包括但不限于卡尔曼滤波器、粒子滤波器等方法。将目标运动状态和目标位置输入到步骤S40数据关联匹配。
实施方式的数据关联匹配步骤S40还包括以下步骤,其中本实施例中使用匈牙利匹配算法进行目标数据关联匹配,关联匹配算法包括但不限于匈牙利匹配算法、贪婪匹配算法。实施步骤如图3所示:
步骤S410:基于交并比(Intersection over Union,IoU)的匹配机制是为了缓解部分遮挡或外界条件干扰导致的外观突变,利用目标运动的位置连续性进行匹配。IoU和IoU代价矩阵可以通过公式1和公式2计算获得:
Figure BDA0003185750960000041
IoUcost=1-IoU(di,tj) (2)
其中,di,tj分别代表第i个未匹配的检测结果和第j个未匹配的轨迹,
Figure BDA0003185750960000042
Figure BDA0003185750960000043
分别代表检测边框和轨迹保存的边框。IoU(di,tj)值越小则表明二者的位置重合度越高,IoU损失也就越小,反之则越大。因此可以利用IoU损失来衡量检测结果与轨迹之间的位置相似度,从而实现关联匹配。IoU匹配的过程如下:首先计算未匹配的跟踪框和未匹配的检测框之间的IoU值,由两两之间的IoU生成代价矩阵。输出IoU代价矩阵到步骤S430利用匈牙利算法进行数据关联匹配。
步骤S420:计算当前帧的检测结果与已确认跟踪轨迹的运动匹配度进行关联度量。运动匹配度是通过二者在Kalman滤波预测位置之间的马氏距离进行度量,如公式(3)所示,其中,d(i,j)代表当前帧中第j个检测框和第i条跟踪轨迹之间的马氏距离,Si和yi分别是轨迹通过Kalman滤波预测得到的当前时刻的协方差矩阵和状态量,dj是第j个检测框的状态(u,v,s,r)。引入一个门控函数判断是否允许关联,采用卡方分布的0.95分位点作为阈值点t(1),门控函数定义如公式(4)所示。输出目标运动匹配度到步骤S430利用匈牙利算法进行数据关联匹配。
Figure BDA0003185750960000044
b(1)(i,j)=1,d(1)(i,j)≤t(1) (4)
步骤S430:从所述步骤S410和步骤S420获取IoU代价矩阵和目标运动匹配度,首先通过检测框和跟踪框的马氏距离即运动匹配度获得当前检测结果与已确认轨迹之间的代价矩阵,IoU代价矩阵中每个元素的取值范围[0,1],其值越小表明检测框与对应跟踪轨迹的关联度越高;然后依据代价矩阵应用匈牙利算法获得最优匹配结果;最后为每个待匹配轨迹设置优先级,每个待匹配轨迹都包含一个time参数,其表示轨迹距离上一次更新的消失帧数,也可以理解为目标被遮挡的时长。当轨迹完成一次匹配并更新后time置为0,否则time加1。在匹配过程中依据该参数由小到大对轨迹设置优先级,即消失时间短的轨迹优先匹配,而消失时间长轨迹的后匹配,从而提高匹配准确率。输出目标匹配结果到步骤S440、步骤S450和步骤S460。
步骤S440:从所述步骤S430输出的目标匹配结果中提取正确匹配的跟踪目标,并将其输出到步骤S50和步骤S60。
步骤S450:从所述步骤S430输出的目标匹配结果中提取未匹配的跟踪目标,并将其输出到步骤S50。
步骤S460:从所述步骤S430输出的目标匹配结果中提取未匹配的检测目标,首先依据检测结果的边框坐标,初始化Kalman滤波器的目标运动信息,建立一个新的跟踪轨迹。
实施方式的步骤S50,基于位移相似性目标位置估计还包括以下步骤,实施步骤如图4所示:
步骤S510:接收所述步骤S440输出的当前帧正确匹配的跟踪目标,并将其输出到所述步骤S520。
步骤S520:从所述步骤S510获取当前帧正确匹配的跟踪目标,计算当前帧正确匹配的跟踪目标的平均位移向量,计算方法如公式5所示,xi表示当前帧正确跟踪的第i个目标中心点的x轴坐标,x′i表示第i个目标中心点在上一帧的x轴坐标,n表示当前帧正确跟踪的目标数量,Δx表示n个正确跟踪目标的当前帧和上一帧在x轴方向的平均位移,同理,Δy表示n个正确跟踪目标的当前和上一帧在y轴方向的平均位移。并将平均位移向量(Δx,Δy)输出到所述步骤S540。
Figure BDA0003185750960000051
步骤S530:接收所述步骤S450输出的当前帧未匹配的跟踪目标,并将其输出到所述步骤S540。
步骤S540:从所述步骤S530获取当前帧未匹配的跟踪目标,从所述步骤S520平均位移向量(Δx,Δy),利用Δx和Δy计算出未匹配的跟踪目标中心点(x,y)在当前帧的中心点位置(x′,y′),计算方法如公式6所示。将目标在当前帧的中心点位置(x′,y′)输出到步骤S550。
(x',y')=(x+Δx,y+Δy) (6)
步骤S550:从所述步骤S540获取目标在当前帧的中心点位置(x',y')。在确定跟踪目标中心点位置后,以该目标在上一帧的尺度大小为基准,设置尺度衰减因子α,本发明实施例设置衰减因子为0.95,估计该目标在当前帧的尺度大小。如公式7所示,
(w1,h1)=(w*α,h*α) (7)
其中,w1,h1分别表示该目标在当前帧的宽度和高度,w和h分别表示该目标在上一帧的宽度和高度。以(x',y')为中心点,w1,h1为宽高的区域即为跟踪目标在当前帧的位置区域。将跟踪目标位置区域输出到所述步骤S560。
步骤S560:从所述步骤S550获取经过位移相似性估计后的跟踪目标在当前帧的位置区域,判断其是否应该保留继续跟踪。在视频序列中目标发生遮挡是一个从轻微遮挡、半遮挡到完全遮挡逐渐变化的过程,即视频中跟踪目标的可见区域是一个逐渐减小的过程。如果跟踪目标的尺度连续衰减到一定程度后,则认为该目标由于发生完全遮挡很久未出现在视频中,因而需要将此跟踪目标从跟踪列表中删除。本发明实施例设置目标区域所占像素值衰减小于64时,则将此跟踪目标从跟踪列表中删除。将最后保留下的跟踪目标输出到所述步骤S60。
步骤S60:从所述S440和所述步骤S560获取跟踪目标在当前帧的位置区域,并以此更新相关滤波器的运动状态,完成当前视频帧目标跟踪处理。
参考文献
[1]Bewley A,Ge Z,Ott L,et al.Simple online and realtime tracking[C]//2016IEEE InternationalConferenceonImageProcessing(ICIP).IEEE,2016:3464-3468.
[2]WojkeN,BewleyA,PaulusD.Simpleonlineandrealtimetrackingwithadeepassociation metric[C]//2017IEEE international conference on image processing(ICIP).IEEE,2017:3645-3649.

Claims (9)

1.一种面向同步移动目标的多目标跟踪方法,其特征在于:应用目标检测算法检测图像中所要跟踪的目标,得到所要跟踪目标的检测框;然后将所要跟踪目标的检测框信息输入到基于位移相似性的多目标跟踪算法中进行目标匹配关联:利用滤波器方法对目标的运动轨迹进行预测与更新,对得到的轨迹和当前帧检测框利用目标的运动状态和IoU代价矩阵进行初次关联匹配,对于初次关联匹配结果中未匹配的跟踪目标,基于位移相似性特点计算跟踪目标在当前帧的位置信息。
2.根据权利要求1所述的一种面向同步移动目标的多目标跟踪方法,其特征在于:基于位移相似性特点计算跟踪目标在当前帧的位置信息的实现过程如下,进行跟踪目标中心位置估计:计算当前帧成功匹配的跟踪目标中心点与上一帧对应目标中心点坐标的位移差值,并求其均值作为当前帧目标运动位移向量,以此确定当前帧未匹配跟踪目标的中心点坐标位置;进行跟踪目标尺度估计:在确定跟踪目标中心点位置后,以该目标在上一帧的尺度大小为基准,设置尺度衰减因子,估计该目标在当前帧的尺度大小,完成当前帧目标跟踪处理流程。
3.根据权利要求1所述的一种面向同步移动目标的多目标跟踪方法,其特征在于:所述滤波器方法包括卡尔曼滤波器和粒子滤波器方法。
4.根据权利要求1所述的一种面向同步移动目标的多目标跟踪方法,其特征在于:视频序列提取步骤:从摄像装置或存储设备中读取视频数据,并将视频数据分帧处理,逐帧输入到目标检测。
5.根据权利要求1所述的一种面向同步移动目标的多目标跟踪方法,其特征在于:目标检测步骤:读取视频序列,利用卷积神经网络或者其他特征提取方法,提取图像的颜色纹理特征、边缘特征、语义特征并进行特征融合,通过深度学习目标检测模型获得目标测框,并输入到运动状态估计。
6.根据权利要求1所述的一种面向同步移动目标的多目标跟踪方法,其特征在于:运动状态估计步骤:从逐帧读取图像中目标检测框,并根据目标出现的次数建立相关滤波器以估计并更新目标的运动状态,将目标运动状态和目标位置输入到数据关联匹配。
7.根据权利要求1所述的一种面向同步移动目标的多目标跟踪方法,其特征在于:数据关联匹配步骤包括以下步骤,使用匈牙利匹配算法进行目标数据关联匹配;具体地,
步骤S410:利用目标运动的位置连续性进行匹配;IoU和IoU代价矩阵通过公式(1)和公式(2)计算获得:
Figure FDA0003185750950000011
IoUcost=1-IoU(di,tj) (2)
其中,di,tj分别代表第i个未匹配的检测结果和第j个未匹配的轨迹,
Figure FDA0003185750950000021
Figure FDA0003185750950000022
分别代表检测边框和轨迹保存的边框;利用IoU损失来衡量检测结果与轨迹之间的位置相似度,IoU匹配的过程如下:计算未匹配的跟踪框和未匹配的检测框之间的IoU值,由两两之间的IoU生成代价矩阵;输出IoU代价矩阵到步骤S430利用匈牙利算法进行数据关联匹配;
步骤S420:计算当前帧的检测结果与已确认跟踪轨迹的运动匹配度进行关联度量;运动匹配度是通过二者在Kalman滤波预测位置之间的马氏距离进行度量,如公式(3)所示,其中,d(i,j)代表当前帧中第j个检测框和第i条跟踪轨迹之间的马氏距离,Si和yi分别是轨迹通过Kalman滤波预测得到的当前时刻的协方差矩阵和状态量,dj是第j个检测框的状态(u,v,s,r);引入一个门控函数判断是否允许关联,采用卡方分布的0.95分位点作为阈值点t(1),门控函数定义如公式(4)所示;输出目标运动匹配度到步骤S430利用匈牙利算法进行数据关联匹配;
Figure FDA0003185750950000023
b(1)(i,j)=1,d(1)(i,j)≤t(1) (4)
步骤S430:从所述步骤S410和步骤S420获取IoU代价矩阵和目标运动匹配度,首先通过检测框和跟踪框的马氏距离即运动匹配度获得当前检测结果与已确认轨迹之间的代价矩阵,IoU代价矩阵中每个元素的取值范围[0,1],其值越小表明检测框与对应跟踪轨迹的关联度越高;然后依据代价矩阵应用匈牙利算法获得最优匹配结果;最后为每个待匹配轨迹设置优先级,每个待匹配轨迹都包含一个time参数,表示轨迹距离上一次更新的消失帧数,即目标被遮挡的时长;当轨迹完成一次匹配并更新后time置为0,否则time加1;在匹配过程中依据该参数由小到大对轨迹设置优先级,即消失时间短的轨迹优先匹配,而消失时间长轨迹的后匹配,从而提高匹配准确率;输出目标匹配结果到步骤S440、步骤S450和步骤S460;
步骤S440:从所述步骤S430输出的目标匹配结果中提取正确匹配的跟踪目标,并将其输出到步骤S50和步骤S60;
步骤S450:从所述步骤S430输出的目标匹配结果中提取未匹配的跟踪目标,并输出到步骤S50;
步骤S460:从所述步骤S430输出的目标匹配结果中提取未匹配的检测目标,依据检测结果的边框坐标,初始化Kalman滤波器的目标运动信息,建立一个新的跟踪轨迹。
8.根据权利要求1所述的一种面向同步移动目标的多目标跟踪方法,其特征在于:基于位移相似性目标位置估计还包括以下步骤,
步骤S510:接收所述步骤S440输出的当前帧正确匹配的跟踪目标,并将其输出到所述步骤S520;
步骤S520:从所述步骤S510获取当前帧正确匹配的跟踪目标,计算当前帧正确匹配的跟踪目标的平均位移向量,计算方法如公式(5)所示,xi表示当前帧正确跟踪的第i个目标中心点的x轴坐标,xi′表示第i个目标中心点在上一帧的x轴坐标,n表示当前帧正确跟踪的目标数量,Δx表示n个正确跟踪目标的当前帧和上一帧在x轴方向的平均位移,Δy表示n个正确跟踪目标的当前和上一帧在y轴方向的平均位移;并将平均位移向量(Δx,Δy)输出到所述步骤S540;
Figure FDA0003185750950000031
步骤S530:接收所述步骤S450输出的当前帧未匹配的跟踪目标,并将其输出到所述步骤S540;
步骤S540:从所述步骤S530获取当前帧未匹配的跟踪目标,从所述步骤S520平均位移向量(Δx,Δy),利用Δx和Δy计算出未匹配的跟踪目标中心点(x,y)在当前帧的中心点位置(x′,y′),计算方法如公式6所示;将目标在当前帧的中心点位置(x′,y′)输出到步骤S550;
(x',y')=(x+Δx,y+Δy) (6)
步骤S550:从所述步骤S540获取目标在当前帧的中心点位置(x',y');在确定跟踪目标中心点位置后,以该跟踪目标在上一帧的尺度大小为基准,设置尺度衰减因子α;如公式7所示,
(w1,h1)=(w*α,h*α) (7)
其中,w1,h1分别表示跟踪目标在当前帧的宽度和高度,w和h分别表示跟踪目标在上一帧的宽度和高度;以(x',y')为中心点,w1,h1为宽高的区域即为跟踪目标在当前帧的位置区域;将跟踪目标位置区域输出到所述步骤S560;
步骤S560:从所述步骤S550获取经过位移相似性估计后的跟踪目标在当前帧的位置区域,判断是否保留继续跟踪,并将此跟踪目标从跟踪列表中删除;最后保留下的跟踪目标输出到更新目标运动状态。
9.一种面向同步运动场景的多目标跟踪系统,其特征在于:包含视频序列提取模块、目标检测模块、运动状态估计模块、数据关联匹配模块、平均位移向量计算模块、位移相似性目标位置估计模块和更新目标运动状态模块;视频序列提取模块、目标检测模块、运动状态估计模块、数据关联匹配模块、平均位移向量计算模块、位移相似性目标位置估计模块和更新目标运动状态模块顺次连接。
CN202110861330.XA 2021-07-29 2021-07-29 一种面向同步移动目标的多目标跟踪方法 Pending CN113723190A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110861330.XA CN113723190A (zh) 2021-07-29 2021-07-29 一种面向同步移动目标的多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110861330.XA CN113723190A (zh) 2021-07-29 2021-07-29 一种面向同步移动目标的多目标跟踪方法

Publications (1)

Publication Number Publication Date
CN113723190A true CN113723190A (zh) 2021-11-30

Family

ID=78674234

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110861330.XA Pending CN113723190A (zh) 2021-07-29 2021-07-29 一种面向同步移动目标的多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN113723190A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114723786A (zh) * 2022-04-24 2022-07-08 东南大学 一种基于MF-DeepSORT的交通多目标跟踪方法及系统
CN114862904A (zh) * 2022-03-21 2022-08-05 哈尔滨工程大学 一种水下机器人的孪生网络目标连续跟踪方法
CN114972418A (zh) * 2022-03-30 2022-08-30 北京航空航天大学 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法
CN115063454A (zh) * 2022-08-16 2022-09-16 浙江所托瑞安科技集团有限公司 多目标跟踪匹配方法、装置、终端及存储介质
CN115601402A (zh) * 2022-12-12 2023-01-13 知行汽车科技(苏州)有限公司(Cn) 针对柱面图检测框的目标后处理方法、装置、设备和存储介质
CN116091552A (zh) * 2023-04-04 2023-05-09 上海鉴智其迹科技有限公司 基于DeepSORT的目标跟踪方法、装置、设备及存储介质
CN116434150A (zh) * 2023-06-14 2023-07-14 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 面向拥挤场景的多目标检测跟踪方法、系统及存储介质
CN116681729A (zh) * 2023-06-14 2023-09-01 石家庄铁道大学 基于轨迹预测的抗遮挡多目标跟踪方法
CN116883458A (zh) * 2023-09-06 2023-10-13 中国科学技术大学 基于Transformer并融合以观测为中心运动特征的多目标跟踪系统

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114862904A (zh) * 2022-03-21 2022-08-05 哈尔滨工程大学 一种水下机器人的孪生网络目标连续跟踪方法
CN114862904B (zh) * 2022-03-21 2023-12-12 哈尔滨工程大学 一种水下机器人的孪生网络目标连续跟踪方法
CN114972418B (zh) * 2022-03-30 2023-11-21 北京航空航天大学 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法
CN114972418A (zh) * 2022-03-30 2022-08-30 北京航空航天大学 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法
CN114723786A (zh) * 2022-04-24 2022-07-08 东南大学 一种基于MF-DeepSORT的交通多目标跟踪方法及系统
CN115063454A (zh) * 2022-08-16 2022-09-16 浙江所托瑞安科技集团有限公司 多目标跟踪匹配方法、装置、终端及存储介质
CN115601402A (zh) * 2022-12-12 2023-01-13 知行汽车科技(苏州)有限公司(Cn) 针对柱面图检测框的目标后处理方法、装置、设备和存储介质
CN115601402B (zh) * 2022-12-12 2023-03-28 知行汽车科技(苏州)股份有限公司 针对柱面图检测框的目标后处理方法、装置、设备和存储介质
CN116091552A (zh) * 2023-04-04 2023-05-09 上海鉴智其迹科技有限公司 基于DeepSORT的目标跟踪方法、装置、设备及存储介质
CN116681729A (zh) * 2023-06-14 2023-09-01 石家庄铁道大学 基于轨迹预测的抗遮挡多目标跟踪方法
CN116434150B (zh) * 2023-06-14 2023-12-05 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 面向拥挤场景的多目标检测跟踪方法、系统及存储介质
CN116434150A (zh) * 2023-06-14 2023-07-14 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 面向拥挤场景的多目标检测跟踪方法、系统及存储介质
CN116681729B (zh) * 2023-06-14 2024-01-26 石家庄铁道大学 基于轨迹预测的抗遮挡多目标跟踪方法
CN116883458A (zh) * 2023-09-06 2023-10-13 中国科学技术大学 基于Transformer并融合以观测为中心运动特征的多目标跟踪系统
CN116883458B (zh) * 2023-09-06 2024-01-09 中国科学技术大学 基于Transformer并融合以观测为中心运动特征的多目标跟踪系统

Similar Documents

Publication Publication Date Title
CN113723190A (zh) 一种面向同步移动目标的多目标跟踪方法
CN111693972B (zh) 一种基于双目序列图像的车辆位置与速度估计方法
CN101141633B (zh) 一种复杂场景中的运动目标检测与跟踪方法
CN112883819A (zh) 多目标跟踪方法、装置、系统及计算机可读存储介质
CN105913028B (zh) 一种基于face++平台的人脸跟踪方法及其装置
CN110796687B (zh) 天空背景红外成像多目标跟踪方法
CN113284168A (zh) 目标跟踪方法、装置、电子设备及存储介质
CN109033955B (zh) 一种人脸跟踪方法和系统
CN110910421B (zh) 基于分块表征和可变邻域聚类的弱小运动目标检测方法
CN111798487A (zh) 目标跟踪方法、装置和计算机可读存储介质
US20220366570A1 (en) Object tracking device and object tracking method
CN111639570B (zh) 一种基于运动模型和单目标线索的在线多目标跟踪方法
CN111402303A (zh) 一种基于kfstrcf的目标跟踪架构
CN116402850A (zh) 一种面向智能驾驶的多目标跟踪方法
CN101320477B (zh) 一种人体跟踪方法及其设备
CN116740126A (zh) 目标跟踪方法、高速相机及存储介质
CN112164093A (zh) 一种基于边缘特征和相关滤波的人物自动跟踪方法
Makino et al. Moving-object detection method for moving cameras by merging background subtraction and optical flow methods
Sun et al. Bidirectional tracking using trajectory segment analysis
US20080198237A1 (en) System and method for adaptive pixel segmentation from image sequences
CN113888607A (zh) 基于事件相机的目标检测与跟踪方法、系统和存储介质
CN107665495B (zh) 对象跟踪方法及对象跟踪装置
CN110634154B (zh) 一种面向速度大范围变化目标跟踪的模板匹配方法
CN110349184B (zh) 基于迭代滤波和观测判别的多行人跟踪方法
Algethami et al. Combining Accumulated Frame Differencing and Corner Detection for Motion Detection.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination