CN111798487B - 目标跟踪方法、装置和计算机可读存储介质 - Google Patents

目标跟踪方法、装置和计算机可读存储介质 Download PDF

Info

Publication number
CN111798487B
CN111798487B CN201910794278.3A CN201910794278A CN111798487B CN 111798487 B CN111798487 B CN 111798487B CN 201910794278 A CN201910794278 A CN 201910794278A CN 111798487 B CN111798487 B CN 111798487B
Authority
CN
China
Prior art keywords
target
frame
position information
current frame
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910794278.3A
Other languages
English (en)
Other versions
CN111798487A (zh
Inventor
朱兆琪
董玉新
陈宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Jingdong Shangke Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN201910794278.3A priority Critical patent/CN111798487B/zh
Priority to PCT/CN2020/092556 priority patent/WO2021036373A1/zh
Publication of CN111798487A publication Critical patent/CN111798487A/zh
Application granted granted Critical
Publication of CN111798487B publication Critical patent/CN111798487B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本公开涉及一种目标跟踪方法、装置和计算机可读存储介质,涉及计算机技术领域。本公开的方法包括:获取视频的当前帧中目标的位置信息;根据当前帧中目标的位置信息确定视频的下一帧中的目标检测区域;目标检测区域属于下一帧的全局图像的一部分;在下一帧的目标检测区域中检测目标,作为下一帧中的目标;将下一帧中的目标与当前帧中的目标的信息进行关联,以便对目标进行跟踪。

Description

目标跟踪方法、装置和计算机可读存储介质
技术领域
本公开涉及计算机技术领域,特别涉及一种目标跟踪方法、装置和计算机可读存储介质。
背景技术
目标跟踪技术是目前计算机视觉领域的一个重要研究方向。目标跟踪技术可以应用于视频监控、人机交互、无人驾驶等各个领域。
目标跟踪是在连续的视频帧中,确定所要跟踪的目标以及各个帧中目标的位置,从而得到目标的运动轨迹。
发明内容
发明人发现:目前一些目标跟踪算法中,对于每一帧图像都是在该帧的全局图像中检测目标,导致检测和目标跟踪效率较低,时间较长。
本公开所要解决的一个技术问题是:如何提高目标跟踪过程中对目标进行检测和跟踪的效率。
根据本公开的一些实施例,提供的一种目标跟踪方法,包括:获取视频的当前帧中目标的位置信息;根据当前帧中目标的位置信息确定视频的下一帧中的目标检测区域;目标检测区域属于下一帧的全局图像的一部分;在下一帧的目标检测区域中检测目标,作为下一帧中的目标;将下一帧中的目标与当前帧中的目标的信息进行关联,以便对目标进行跟踪。
在一些实施例中,目标的位置信息包括:目标的边界框的坐标信息;根据当前帧中目标的位置信息确定下一帧中的目标检测区域包括:根据当前帧中目标的边界框的坐标信息,预设扩展长度和预设扩展宽度,确定当前帧中目标的边界框扩展后的坐标信息;根据当前帧中目标的边界框扩展后的坐标信息,在下一帧中将同样坐标信息所表示的区域作为目标检测区域。
在一些实施例中,根据当前帧中目标的位置信息确定下一帧中的目标检测区域包括:确定视频的前一帧中目标的位置信息和当前帧中目标的位置信息的差距;在前一帧中目标的位置信息和当前帧中目标的位置信息的差距小于或等于第一预设差距的情况下,根据当前帧中目标的位置信息确定下一帧中的目标检测区域。
在一些实施例中,该方法还包括:在前一帧中目标的位置信息和当前帧中目标的位置信息的差距大于第一预设差距的情况下,在下一帧的全局图像中检测目标,作为下一帧中的目标。
在一些实施例中,目标位置信息包括:目标的边界框的中心点坐标信息;前一帧中目标的位置信息和当前帧中目标的位置信息的差距为前一帧中目标的边界框的中心点和当前帧中目标的边界框的中心点的距离。
在一些实施例中,在下一帧的目标检测区域中检测目标包括:将下一帧的目标检测区域的图像输入目标检测模型,得到目标检测模型输出的边界框的位置信息;在边界框和目标均为一个的情况下,将边界框中的图像确定为目标;在边界框或者目标包括多个的情况下,将每个边界框的位置信息和当前帧中每个目标的位置信息进行比对,在该边界框位置信息和当前帧中该目标的位置信息的差距小于第二预设差距的情况下,将该边界框中的图像确定为该目标。
根据本公开的另一些实施例,提供的一种目标跟踪装置,包括:信息获取模块,用于获取视频的当前帧中目标的位置信息;检测区域确定模块,用于根据当前帧中目标的位置信息确定视频的下一帧中的目标检测区域;目标检测区域属于下一帧的全局图像的一部分;目标检测模块,用于在下一帧的目标检测区域中检测目标,作为下一帧中的目标;信息关联模块,用于将下一帧中的目标与当前帧中的目标的信息进行关联,以便对目标进行跟踪。
在一些实施例中,目标的位置信息包括:目标的边界框的坐标信息;检测区域确定模块用于根据当前帧中目标的边界框的坐标信息,预设扩展长度和预设扩展宽度,确定当前帧中目标的边界框扩展后的坐标信息;根据当前帧中目标的边界框扩展后的坐标信息,在下一帧中将同样坐标信息所表示的区域作为目标检测区域。
在一些实施例中,检测区域确定模块用于确定视频的前一帧中目标的位置信息和当前帧中目标的位置信息的差距;在前一帧中目标的位置信息和当前帧中目标的位置信息的差距小于或等于第一预设差距的情况下,根据当前帧中目标的位置信息确定下一帧中的目标检测区域。
在一些实施例中,目标检测模块用于在前一帧中目标的位置信息和当前帧中目标的位置信息的差距大于第一预设差距的情况下,在下一帧的全局图像中检测目标,作为下一帧中的目标。
在一些实施例中,目标位置信息包括:目标的边界框的中心点坐标信息;前一帧中目标的位置信息和当前帧中目标的位置信息的差距为前一帧中目标的边界框的中心点和当前帧中目标的边界框的中心点的距离。
在一些实施例中,目标检测模块用于将下一帧的目标检测区域的图像输入目标检测模型,得到目标检测模型输出的边界框的位置信息;在边界框和目标均为一个的情况下,将边界框中的图像确定为目标;在边界框或者目标包括多个的情况下,将每个边界框的位置信息和当前帧中每个目标的位置信息进行比对,在该边界框位置信息和当前帧中该目标的位置信息的差距小于第二预设差距的情况下,将该边界框中的图像确定为该目标。
根据本公开的又一些实施例,提供的一种目标跟踪装置,包括:存储器;以及耦接至存储器的处理器,处理器被配置为基于存储在存储器中的指令,执行如前述任意实施例的目标跟踪方法。
根据本公开的再一些实施例,提供的一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现前述任意实施例的目标跟踪方法。
本公开中基于视频的当前帧中目标的位置信息,从下一帧的全局图像中确定一部分为目标检测区域,在目标检测区域中对目标进行检测,实现对目标的跟踪。由于检测时只针对全局图像的一部分对目标进行检测,计算机处理的数据量减少了,因此提高了目标跟踪过程中对目标进行检测和跟踪的效率。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开的一些实施例的目标跟踪方法的流程示意图。
图2示出本公开的一些实施例的确定目标检测区域的示意图。
图3示出本公开的另一些实施例的目标跟踪方法的流程示意图。
图4示出本公开的一些实施例的目标跟踪装置的结构示意图。
图5示出本公开的另一些实施例的目标跟踪装置的结构示意图。
图6示出本公开的又一些实施例的目标跟踪装置的结构示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
针对目前一些目标跟踪算法中,对于每一帧图像都是在该帧的全局图像中检测目标,导致检测和目标跟踪效率较低,时间较长的问题,提出本方案。下面结合图1描述本公开的目标跟踪方法的一些实施例。
图1为本公开目标跟踪方法一些实施例的流程图。如图1所示,该实施例的方法包括:步骤S102~S108。
在步骤S102中,获取视频的当前帧中目标的位置信息。
摄像头在进行数据采集时是不断的采集图像帧,进而构成了视频流,例如通过Opencv对摄像头的视频流进行解析,获取视频的帧信息,将帧图像不停的进行目标检测及相关逻辑计算,从而实现对人脸的跟踪。
目标的位置信息例如为目标的边界框(Bounding Box)的坐标信息。当前帧中目标的边界框可以是将图像(可以是当前帧的全局图像,或者基于前一帧确定的当前帧的目标检测区域的图像)输入预先训练的目标检测模型后,目标检测模型输出的结果。目标检测模型可以采用现有的模型,例如,目标为人脸的情况下,目标检测模型为cascade CNN(级联卷积神经网络)模型。目标检测模型也可以是其他模型,只要检测目标时在一帧的全局图像中进行检测的模型都可以应用本公开的方案进行优化,不限于所举示例。
在步骤S104中,根据当前帧中目标的位置信息确定视频的下一帧中的目标检测区域。
目标检测区域可以属于下一帧的全局图像的一部分。在一些实施例中,根据当前帧中目标的边界框的坐标信息,预设扩展长度和预设扩展宽度,确定当前帧中目标的边界框扩展后的坐标信息。根据当前帧中目标的边界框扩展后的坐标信息,在下一帧中将同样坐标信息所表示的区域作为目标检测区域。
如图2所示,确定了当前帧中目标的边界框后,将当前帧中的目标边界框按照预设扩展长度和预设扩展宽度进行扩展,根据扩展后的坐标信息将下一帧中同样位置的图像作为目标检测区域。预设扩展长度和预设扩展宽度可以是根据目标的移动速度,当前帧和下一帧的时间间隔确定的。例如,可以统计不同类别的目标对应的最大移动速度,确定当前帧中目标的最大移动速度与当前帧和下一帧的时间间隔的乘积。将当前帧中目标的边界框沿着长度的两个方向分别扩展与该乘积值相等的长度,将当前帧中目标的边界框沿着宽度的两个方向分别扩展与该乘积值相等的宽度。不同类别的目标可以对应不同的预设扩展长度和预设扩展宽度。
由于不同帧之间的间隔时间很短,目标的移动距离也会较短,因此,按照上述方式确定下一帧中的目标检测区域较为准确。
在步骤S106中,在下一帧的目标检测区域中检测目标,作为下一帧中的目标。
可以从下一帧的全局图像中进行抠图,将目标检测区域的图像提取出来。在一些实施例中,将下一帧的目标检测区域的图像输入目标检测模型,得到目标检测模型输出的边界框的位置信息;在边界框和目标均为一个的情况下,将边界框中的图像确定为目标。
如果仅对一个目标进行跟踪,且目标检测模型输出的边界框仅有一个,可以直接将边界框中的图像确定为该目标。也可以进一步将边界框中图像的特征与当前帧中目标的特征进行比对,确定边界框中的图像是否为该目标。
在一些实施例中,将下一帧的目标检测区域的图像输入目标检测模型,得到目标检测模型输出的边界框的位置信息;在边界框或者目标包括多个的情况下,将每个边界框的位置信息和当前帧中每个目标的位置信息进行比对,在该边界框位置信息和当前帧中该目标的位置信息的差距小于第二预设差距的情况下,将该边界框中的图像确定为该目标。
基于相邻帧之间目标的位置移动不会太大的原理,将下一帧中每个边界框的位置信息和当前帧中每个目标的位置信息进行比对,从而确定各个边界框分别为哪一个目标,可以提高目标确定的效率。针对每个边界框和当前帧中每个目标,可以计算边界框中心的坐标与当前帧中目标的边界框中心的坐标的距离,作为该边界框位置信息和当前帧中该目标的位置信息的差距。第二预设差距例如根据目标的移动速度,当前帧和下一帧的时间间隔确定。
也可以将每个边界框中图像的特征和当前帧中每个目标的特征进行比对,确定各个边界框对应的目标。图像的特征和目标的特征可以由目标检测模型提取。可以根据每个边界框中图像的特征向量和当前帧中每个目标的特征向量的距离,确定各个边界框对应的目标。
在目标检测区域中检测目标的位置信息后,可以转换为下一帧全局图像的位置信息。即对目标的边界框的坐标信息由目标检测区进行坐标转换,得到下一帧的全局图像中目标的边界框的坐标信息,以便确定各帧中目标的位置信息,实现对目标的跟踪。
在步骤S108中,将下一帧中的目标与当前帧中的目标的信息进行关联,以便对目标进行跟踪。
目标的信息例如为目标的标识(ID、名称等),还可以包括目标的描述信息。例如,对人脸进行跟踪的情况下,可以把当前帧的人脸框属性(例如,人脸的性别、年龄、id号等)在下一帧中继承下来。
上述实施例的方法中基于视频的当前帧中目标的位置信息,从下一帧的全局图像中确定一部分为目标检测区域,在目标检测区域中对目标进行检测,实现对目标的跟踪。由于检测时只针对全局图像的一部分对目标进行检测,计算机处理的数据量减少了,因此提高了目标跟踪过程中对目标进行检测和跟踪的效率。
下面结合图3描述本公开目标跟踪算法的另一些实施例,相对于前述实施例可以进一步提高目标检测的准确度。
图3为本公开目标跟踪方法另一些实施例的流程图。如图3所示,该实施例的方法包括:步骤S302~S314。
在步骤S302中,获取视频的当前帧中目标的位置信息和前一帧中目标的位置信息。
在步骤S304中,确定视频的前一帧中目标的位置信息和当前帧中目标的位置信息的差距。
在一些实施例中,目标位置信息包括:目标的边界框的中心点坐标信息。前一帧中目标的位置信息和当前帧中目标的位置信息的差距为前一帧中目标的边界框的中心点和当前帧中目标的边界框的中心点的距离。
例如,目标检测模型输出目标的边界框的坐标信息表示为(x,y,w,h),(x,y)代表边界框框左上角点的位置坐标,w和h分别表示边界框的宽度和高度。当前帧假设为第k帧,k为正整数,当前帧中目标边界框的坐标信息可以表示为(xk,yk,wk,hk)。则当前帧边界框的中心点坐标为前一帧中边界框的坐标信息可以表示为(xk-1,yk-1,wk-1,hk-1),前一帧中边界框的中心点坐标为前一帧中边界框的中心点与当前帧边界框的中心点的距离可以采用以下公式表示。
在步骤S306中,在前一帧中目标的位置信息和当前帧中目标的位置信息的差距小于或等于第一预设差距的情况下,根据当前帧中目标的位置信息确定下一帧中的目标检测区域。
即前一帧和当前帧中目标的位置如果变化不大,则在下一帧中确定目标检测区域。确定目标检测区域的方法可以参考前述实施例。
在步骤S308中,在下一帧的目标检测区域中检测目标,作为下一帧中的目标。
在步骤S310中,在前一帧中目标的位置信息和当前帧中目标的位置信息的差距大于第一预设差距的情况下,在下一帧的全局图像中检测目标,作为下一帧中的目标。
如果前一帧和当前帧中目标的位置变化较大,则在下一帧的全局图像中进行目标检测。这样可以避免目标位置变化大导致在目标检测区域中无法准确检测到该目标,进一步提高检测的准确性。
在步骤S312中,将下一帧中的目标与当前帧中的目标的信息进行关联,以便对目标进行跟踪。
在步骤S314中,将下一帧更新为当前帧,返回步骤S302重新开始执行。
发明人经过实验得出本公开的目标跟踪算法,相对于现有的在全局图像中进行目标检测的跟踪算法,计算速度可以提高3-4倍。
上述实施例的方案,通过相邻帧之间目标的位置变化,确定在下一帧中在目标检测区域或者在全局图像中对目标进行检测。上述实施例的方案能够在提高检测和跟踪效率的同时,保证检测的准确性。
本公开还提供一种目标跟踪装置,下面结合图4进行描述。
图4为本公开目标跟踪装置的一些实施例的结构图。如图4所示,该实施例的装置40包括:信息获取模块410,检测区域确定模块420,目标检测模块430,信息关联模块440。
信息获取模块410,用于获取视频的当前帧中目标的位置信息。
检测区域确定模块420,用于根据当前帧中目标的位置信息确定视频的下一帧中的目标检测区域;目标检测区域属于下一帧的全局图像的一部分。
在一些实施例中,目标的位置信息包括:目标的边界框的坐标信息。检测区域确定模块420用于根据当前帧中目标的边界框的坐标信息,预设扩展长度和预设扩展宽度,确定当前帧中目标的边界框扩展后的坐标信息;根据当前帧中目标的边界框扩展后的坐标信息,在下一帧中将同样坐标信息所表示的区域作为目标检测区域。
在一些实施例中,检测区域确定模块420用于确定视频的前一帧中目标的位置信息和当前帧中目标的位置信息的差距;在前一帧中目标的位置信息和当前帧中目标的位置信息的差距小于或等于第一预设差距的情况下,根据当前帧中目标的位置信息确定下一帧中的目标检测区域。
在一些实施例中,检测区域确定模块420用于在前一帧中目标的位置信息和当前帧中目标的位置信息的差距大于第一预设差距的情况下,触发目标检测模块430在下一帧的全局图像中检测目标,作为下一帧中的目标。
在一些实施例中,目标位置信息包括:目标的边界框的中心点坐标信息。前一帧中目标的位置信息和当前帧中目标的位置信息的差距为前一帧中目标的边界框的中心点和当前帧中目标的边界框的中心点的距离。
目标检测模块430,用于在下一帧的目标检测区域中检测目标,作为下一帧中的目标。
在一些实施例中,目标检测模块430用于将下一帧的目标检测区域的图像输入目标检测模型,得到目标检测模型输出的边界框的位置信息;在边界框和目标均为一个的情况下,将边界框中的图像确定为目标;在边界框或者目标包括多个的情况下,将每个边界框的位置信息和当前帧中每个目标的位置信息进行比对,在该边界框位置信息和当前帧中该目标的位置信息的差距小于第二预设差距的情况下,将该边界框中的图像确定为该目标。
信息关联模块440,用于将下一帧中的目标与当前帧中的目标的信息进行关联,以便对目标进行跟踪。
本公开的实施例中的目标跟踪装置可各由各种计算设备或计算机系统来实现,下面结合图5以及图6进行描述。
图5为本公开目标跟踪装置的一些实施例的结构图。如图5所示,该实施例的装置50包括:存储器510以及耦接至该存储器510的处理器520,处理器520被配置为基于存储在存储器510中的指令,执行本公开中任意一些实施例中的目标跟踪方法。
其中,存储器510例如可以包括系统存储器、固定非易失性存储介质等。系统存储器例如存储有操作系统、应用程序、引导装载程序(Boot Loader)、数据库以及其他程序等。
图6为本公开目标跟踪装置的另一些实施例的结构图。如图6所示,该实施例的装置60包括:存储器610以及处理器620,分别与存储器510以及处理器520类似。还可以包括输入输出接口630、网络接口640、存储接口650等。这些接口630,640,650以及存储器610和处理器620之间例如可以通过总线660连接。其中,输入输出接口630为显示器、鼠标、键盘、触摸屏等输入输出设备提供连接接口。网络接口640为各种联网设备提供连接接口,例如可以连接到数据库服务器或者云端存储服务器等。存储接口650为SD卡、U盘等外置存储设备提供连接接口。
本领域内的技术人员应当明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用非瞬时性存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解为可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本公开的较佳实施例,并不用以限制本公开,凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (10)

1.一种目标跟踪方法,包括:
获取视频的当前帧中目标的位置信息;
确定所述视频的前一帧中所述目标的位置信息和所述当前帧中目标的位置信息的差距;
在所述前一帧中所述目标的位置信息和所述当前帧中目标的位置信息的差距小于或等于第一预设差距的情况下,根据所述当前帧中目标的位置信息确定所述视频的下一帧中的目标检测区域,其中,所述目标检测区域属于所述下一帧的全局图像的一部分;在所述下一帧的目标检测区域中检测所述目标,作为所述下一帧中的所述目标;
在所述前一帧中所述目标的位置信息和所述当前帧中目标的位置信息的差距大于第一预设差距的情况下,在所述下一帧的全局图像中检测所述目标,作为所述下一帧中的所述目标;
将所述下一帧中的所述目标与所述当前帧中的所述目标的信息进行关联,以便对所述目标进行跟踪,
其中,将所述下一帧的目标检测区域的图像输入目标检测模型,得到所述目标检测模型输出的边界框的位置信息,在所述边界框或者所述目标包括多个的情况下,根据每个边界框中图像的特征向量和当前帧中每个目标的特征向量的距离,确定各个边界框对应的目标。
2.根据权利要求1所述的目标跟踪方法,其中,
所述目标的位置信息包括:所述目标的边界框的坐标信息;
所述根据所述当前帧中目标的位置信息确定下一帧中的目标检测区域包括:
根据所述当前帧中所述目标的边界框的坐标信息,预设扩展长度和预设扩展宽度,确定所述当前帧中所述目标的边界框扩展后的坐标信息;
根据所述当前帧中所述目标的边界框扩展后的坐标信息,在所述下一帧中将同样坐标信息所表示的区域作为所述目标检测区域。
3.根据权利要求1所述的目标跟踪方法,其中,
所述目标位置信息包括:所述目标的边界框的中心点坐标信息;
所述前一帧中所述目标的位置信息和所述当前帧中目标的位置信息的差距为所述前一帧中所述目标的边界框的中心点和所述当前帧中目标的边界框的中心点的距离。
4.根据权利要求1所述的目标跟踪方法,其中,
在所述边界框和所述目标均为一个的情况下,将所述边界框中的图像确定为所述目标。
5.一种目标跟踪装置,包括:
信息获取模块,用于获取视频的当前帧中目标的位置信息;
检测区域确定模块,用于确定所述视频的前一帧中所述目标的位置信息和所述当前帧中目标的位置信息的差距;在所述前一帧中所述目标的位置信息和所述当前帧中目标的位置信息的差距小于或等于第一预设差距的情况下,根据所述当前帧中目标的位置信息确定所述视频的下一帧中的目标检测区域,其中,所述目标检测区域属于所述下一帧的全局图像的一部分;
目标检测模块,用于在所述下一帧的目标检测区域中检测所述目标,作为所述下一帧中的所述目标;
信息关联模块,用于将所述下一帧中的所述目标与所述当前帧中的所述目标的信息进行关联,以便对所述目标进行跟踪,
其中,所述目标检测模块用于将所述下一帧的目标检测区域的图像输入目标检测模型,得到所述目标检测模型输出的边界框的位置信息,在所述边界框或者所述目标包括多个的情况下,根据每个边界框中图像的特征向量和当前帧中每个目标的特征向量的距离,确定各个边界框对应的目标。
6.根据权利要求5所述的目标跟踪装置,其中,
所述目标的位置信息包括:所述目标的边界框的坐标信息;
所述检测区域确定模块用于根据所述当前帧中所述目标的边界框的坐标信息,预设扩展长度和预设扩展宽度,确定所述当前帧中所述目标的边界框扩展后的坐标信息;根据所述当前帧中所述目标的边界框扩展后的坐标信息,在所述下一帧中将同样坐标信息所表示的区域作为所述目标检测区域。
7.根据权利要求5所述的目标跟踪装置,其中,
所述目标位置信息包括:所述目标的边界框的中心点坐标信息;
所述前一帧中所述目标的位置信息和所述当前帧中目标的位置信息的差距为所述前一帧中所述目标的边界框的中心点和所述当前帧中目标的边界框的中心点的距离。
8.根据权利要求5所述的目标跟踪装置,其中,
所述目标检测模块用于在所述边界框和所述目标均为一个的情况下,将所述边界框中的图像确定为所述目标。
9.一种目标跟踪装置,包括:
存储器;以及
耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如权利要求1-4任一项所述的目标跟踪方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现权利要求1-4任一项所述方法的步骤。
CN201910794278.3A 2019-08-27 2019-08-27 目标跟踪方法、装置和计算机可读存储介质 Active CN111798487B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910794278.3A CN111798487B (zh) 2019-08-27 2019-08-27 目标跟踪方法、装置和计算机可读存储介质
PCT/CN2020/092556 WO2021036373A1 (zh) 2019-08-27 2020-05-27 目标跟踪方法、装置和计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910794278.3A CN111798487B (zh) 2019-08-27 2019-08-27 目标跟踪方法、装置和计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN111798487A CN111798487A (zh) 2020-10-20
CN111798487B true CN111798487B (zh) 2024-07-16

Family

ID=72805439

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910794278.3A Active CN111798487B (zh) 2019-08-27 2019-08-27 目标跟踪方法、装置和计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN111798487B (zh)
WO (1) WO2021036373A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112347955A (zh) * 2020-11-12 2021-02-09 上海影卓信息科技有限公司 视频中基于帧预测的物体快速识别方法、系统及介质
CN113033551B (zh) * 2021-03-16 2024-09-24 北京嘀嘀无限科技发展有限公司 对象检测的方法、装置、设备和存储介质
CN113706555B (zh) * 2021-08-12 2024-09-06 北京达佳互联信息技术有限公司 一种视频帧处理方法、装置、电子设备及存储介质
CN113808162B (zh) * 2021-08-26 2024-01-23 中国人民解放军军事科学院军事医学研究院 目标跟踪方法、装置、电子设备及存储介质
CN113689460B (zh) * 2021-09-02 2023-12-15 广州市奥威亚电子科技有限公司 视频目标对象跟踪检测方法、装置、设备及存储介质
CN114220163B (zh) * 2021-11-18 2023-01-06 北京百度网讯科技有限公司 人体姿态估计方法、装置、电子设备及存储介质
CN114554300B (zh) * 2022-02-28 2024-05-07 合肥高维数据技术有限公司 基于特定目标的视频水印嵌入方法
CN116883915B (zh) * 2023-09-06 2023-11-21 常州星宇车灯股份有限公司 一种基于前后帧图像关联的目标检测方法及检测系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106250863A (zh) * 2016-08-09 2016-12-21 北京旷视科技有限公司 对象追踪方法和装置
CN108960090A (zh) * 2018-06-20 2018-12-07 腾讯科技(深圳)有限公司 视频图像处理方法及装置、计算机可读介质和电子设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103584888B (zh) * 2013-12-02 2015-12-02 深圳市恩普电子技术有限公司 超声目标运动追踪方法
CN105654512B (zh) * 2015-12-29 2018-12-07 深圳微服机器人科技有限公司 一种目标跟踪方法和装置
CN107103268A (zh) * 2016-02-23 2017-08-29 中国移动通信集团浙江有限公司 一种目标跟踪方法和装置
US10332264B2 (en) * 2016-11-07 2019-06-25 Nec Corporation Deep network flow for multi-object tracking
CN107292911B (zh) * 2017-05-23 2021-03-30 南京邮电大学 一种基于多模型融合和数据关联的多目标跟踪方法
CN107886048B (zh) * 2017-10-13 2021-10-08 西安天和防务技术股份有限公司 目标跟踪方法及系统、存储介质及电子终端
CN109754412B (zh) * 2017-11-07 2021-10-01 北京京东乾石科技有限公司 目标跟踪方法、目标跟踪装置及计算机可读存储介质
CN108805901B (zh) * 2018-05-04 2022-02-22 北京航空航天大学 一种基于多核dsp的视觉目标快速检测跟踪并行计算及融合方法
CN109325961B (zh) * 2018-08-27 2021-07-09 北京悦图数据科技发展有限公司 无人机视频多目标跟踪方法及装置
CN109635657B (zh) * 2018-11-12 2023-01-06 平安科技(深圳)有限公司 目标跟踪方法、装置、设备及存储介质
CN109671103A (zh) * 2018-12-12 2019-04-23 易视腾科技股份有限公司 目标跟踪方法及装置
CN109840919A (zh) * 2019-01-21 2019-06-04 长安大学 一种基于tld改进的跟踪方法
CN110188719B (zh) * 2019-06-04 2022-03-29 北京字节跳动网络技术有限公司 目标跟踪方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106250863A (zh) * 2016-08-09 2016-12-21 北京旷视科技有限公司 对象追踪方法和装置
CN108960090A (zh) * 2018-06-20 2018-12-07 腾讯科技(深圳)有限公司 视频图像处理方法及装置、计算机可读介质和电子设备

Also Published As

Publication number Publication date
WO2021036373A1 (zh) 2021-03-04
CN111798487A (zh) 2020-10-20

Similar Documents

Publication Publication Date Title
CN111798487B (zh) 目标跟踪方法、装置和计算机可读存储介质
EP2858008B1 (en) Target detecting method and system
US11270148B2 (en) Visual SLAM method and apparatus based on point and line features
US10417503B2 (en) Image processing apparatus and image processing method
EP3680809A1 (en) Visual slam method and apparatus based on point and line characteristic
CN113221677B (zh) 一种轨迹异常检测方法、装置、路侧设备和云控平台
US9672634B2 (en) System and a method for tracking objects
CN108876758B (zh) 人脸识别方法、装置及系统
JP6454984B2 (ja) 深度画像に基づく手の位置確定方法と装置
EP3531340B1 (en) Human body tracing method, apparatus and device, and storage medium
CN108596157B (zh) 一种基于运动检测的人群惊扰场景检测方法及系统
CN111382637B (zh) 行人检测跟踪方法、装置、终端设备及介质
CN109636828A (zh) 基于视频图像的物体跟踪方法及装置
CN111161325A (zh) 基于卡尔曼滤波与lstm的三维多目标跟踪方法
CN111402293A (zh) 面向智能交通的一种车辆跟踪方法及装置
CN115984320A (zh) 基于长短期运动预测和有序数据关联的多目标跟踪方法
CN116563376A (zh) 基于深度学习的lidar-imu紧耦合语义slam方法及相关装置
CN115953434B (zh) 轨迹匹配方法、装置、电子设备和存储介质
US20130265420A1 (en) Video processing apparatus, video processing method, and recording medium
US9183448B2 (en) Approaching-object detector, approaching object detecting method, and recording medium storing its program
Wang et al. Online adaptive multiple pedestrian tracking in monocular surveillance video
CN115272393A (zh) 用于无人机的视频流目标跟踪方法、装置及存储介质
CN106934818B (zh) 一种手部运动跟踪方法及系统
JP5293429B2 (ja) 移動物体検出装置、及び移動物体検出方法
CN116433717A (zh) 一种人体跟踪方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant