CN112614154A - 目标跟踪轨迹的获取方法、装置及计算机设备 - Google Patents

目标跟踪轨迹的获取方法、装置及计算机设备 Download PDF

Info

Publication number
CN112614154A
CN112614154A CN202011447228.7A CN202011447228A CN112614154A CN 112614154 A CN112614154 A CN 112614154A CN 202011447228 A CN202011447228 A CN 202011447228A CN 112614154 A CN112614154 A CN 112614154A
Authority
CN
China
Prior art keywords
frame image
target object
frame
current frame
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011447228.7A
Other languages
English (en)
Other versions
CN112614154B (zh
Inventor
黄德斌
杨若鹄
王轶丹
陈鹏
崔宁
钟勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ubtech Robotics Corp
Original Assignee
Ubtech Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ubtech Robotics Corp filed Critical Ubtech Robotics Corp
Priority to CN202011447228.7A priority Critical patent/CN112614154B/zh
Publication of CN112614154A publication Critical patent/CN112614154A/zh
Application granted granted Critical
Publication of CN112614154B publication Critical patent/CN112614154B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开一种目标跟踪轨迹的获取方法、装置及计算机设备,其中方法包括:将当前帧图像划分为多个区域;判断当前帧图像中每个区域内目标对象的非遮挡状态值是否大于预设阈值;若区域内目标对象的非遮挡状态值大于预设阈值,根据当前帧图像中区域内目标对象预测下一帧图像中区域内目标对象的预测框,并获取从当前帧图像到下一帧图像的对应目标对象的跟踪轨迹;若非遮挡状态值小于或者等于预设阈值,获取当前帧图像中区域内与目标对象最近邻对象,并根据当前帧图像中最近邻对象的预测框获取从当前帧图像到下一帧图像的对应目标对象的跟踪轨迹。可以针对当前帧图像中目标对象的实际遮挡状态选择合适的跟踪方案,提高目标跟踪的准确性。

Description

目标跟踪轨迹的获取方法、装置及计算机设备
技术领域
本发明涉及图像处理技术领域,尤其涉及一种目标跟踪轨迹的获取方法、装置及计算机设备。
背景技术
在教育机器人多数会搭载单目或者双目摄像头完成视觉功能,但是这些摄像头的视野一般比较窄而且它们的分辨率也是比较低,这些缺陷给目标跟踪带来了麻烦。为了解决上述缺陷,在算法上补偿,目标跟踪的过程受到多变的环境干扰、比如教育轮式机器人在某个赛道移动,赛道周围突然出现了其他的行人或者其他视野内的赛道,又比如没有赛场的背景导致的背景混淆。另外对于自定义赛道目标之间存在较大的相似性,比如赛道设计是采用可移动的积木块摆布的,那机器人移动过程中视野内会出现多个同样的目标等影响目标追踪,跟踪准确性较差。
可见,现有的目标跟踪方案存在准确性较差的技术问题。
发明内容
本公开实施例提供一种目标跟踪轨迹的获取方法、装置及计算机设备,以解决上述至少部分技术问题。
第一方面,本公开实施例提供了一种目标跟踪轨迹的获取方法,包括:
将当前帧图像划分为多个区域;
判断所述当前帧图像中每个区域内目标对象的非遮挡状态值是否大于预设阈值;
若所述区域内目标对象的非遮挡状态值大于所述预设阈值,根据所述当前帧图像中所述区域内目标对象预测下一帧图像中所述区域内目标对象的预测框,并获取从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹;
若所述非遮挡状态值小于或者等于所述预设阈值,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象,并根据所述当前帧图像中最近邻对象的预测框获取从所述当前帧图像到所述下一帧图像的对应所述目标对象的跟踪轨迹。
根据本公开的一种具体实施方式,所述判断所述当前帧图像中每个区域内目标对象的非遮挡状态值是否大于预设阈值的步骤之前,所述方法还包括:
利用所述当前帧图像的上一帧图像获取所述当前帧图像中所述区域内对应所述目标对象的预测框;
计算出所述目标对象的预测框与参考框的面积交并比,作为所述非遮挡状态值,其中,所述参考框为在所述当前帧图像中所述区域对应的图框。
根据本公开的一种具体实施方式,所述根据所述当前帧图像中所述区域内目标对象预测下一帧图像中所述区域内目标对象的预测框,并获取从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹的步骤,包括:
根据所述当前帧图像中所述区域内目标对象的真实框,利用卡尔曼算法预测下一帧图像中所述区域内对应所述目标对象的预测框;
利用匈牙利算法将所述当前帧图像中的真实框和所述下一帧图像中的预测框进行数据关联;
根据所述当前帧图像中的真实框与所述下一帧图像中的预测框之间相互关联的像素点坐标数据,生成所述当前帧图像到所述下一帧图像之间对应所述目标对象的跟踪轨迹。
根据本公开的一种具体实施方式,所述利用匈牙利算法将所述当前帧图像中的真实框和所述下一帧图像中的预测框进行数据关联的步骤,包括:
获取所述当前帧图像中所述目标对象对应的真实框;
获取对应面积交并比的第一权重系数,以及,对应颜色特征矩阵的第二权重系数;
获取所述当前帧图像的颜色特征矩阵和所述下一帧图像的颜色特征矩阵;
利用所述第一权重系数加权所述当前帧图像和所述下一帧图像中的真实框和参考框的面积交并比,以及,利用所述第二权重系数加权所述当前帧图像和所述下一帧图像的颜色特征矩阵,求和得到关联矩阵。
根据本公开的一种具体实施方式,所述获取所述当前帧图像中所述目标对象对应的真实框的步骤,包括:
计算所述参考框相对于所述当前帧图像上的边缘参考位点的偏移量,以及所述参考框的边框尺寸;
根据所述边缘参考位点的偏移量和所述真实框的边框尺寸,利用逻辑回归函数计算出所述真实框的中心点坐标以及所述真实框的边框尺寸;
根据所述真实框的中心点坐标以及所述真实框的边框尺寸。
根据本公开的一种具体实施方式,所述根据所述边缘参考位点的偏移量和所述真实框的边框尺寸,利用逻辑回归函数计算出所述真实框的中心点坐标以及所述真实框的边框尺寸的步骤,包括:
根据公式
bx=η(tx)+cx
by=η(ty)+cy (一)
计算所述真实框的中心坐标,以及,根据公式
Figure BDA0002824863020000041
计算所述真实框的边框尺寸;
其中,所述bx、by表示所述真实框的中心点坐标,所述bw、by表示所述目标框的宽度和高度,cx和cy表示所述参考框相对于所述当前帧图像的参考位点的偏移量,lw和lh表示所述参考框的宽度和高度,η(t)逻辑回归函数,tw和th是宽度和高度的缩放因子。
根据本公开的一种具体实施方式,所述若所述非遮挡状态值小于或者等于所述预设阈值,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象的预测框的步骤之前,所述方法还包括:
若所述非遮挡状态值小于或者等于所述预设阈值,重复执行获取所述当前帧图像中所述区域对应的非遮挡状态值的操作,直至满足预设停止条件时为止,其中,所述预设停止条件为所述非遮挡状态值小于或者等于所述预设阈值,或者重复获取非遮挡状态值的操作的次数大于预定次数。
根据本公开的一种具体实施方式,所述若所述非遮挡状态值小于或者等于所述预设阈值,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象,并根据所述当前帧图像中最近邻对象的预测框获取从所述当前帧图像到所述下一帧图像的对应所述目标对象的跟踪轨迹的步骤,包括:
若所述非遮挡状态值小于或者等于所述预设阈值,判断所述当前帧图像中与所述目标对象的距离小于预设距离值的全部近邻对象;
相对于所述当前帧的上一帧图像中的全部近邻对象,查找所述当前帧图像的全部近邻对象中新增的候选近邻对象;
查找全部候选近邻对象中与所述目标对象的距离最近的目标近邻对象;
根据所述目标近邻对象确定所述当前帧的下一帧图像中的所述目标对象对应的预测框;
根据所述当前帧的目标近邻对象和所述下一帧图像中所述目标对象对应的预测框,确定从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹。
第二方面,本公开实施例提供了一种目标跟踪轨迹的获取装置,包括:
划分模块,用于将当前帧图像划分为多个区域;
判断模块,用于判断所述当前帧图像中每个区域内目标对象的非遮挡状态值是否大于预设阈值;
获取模块,用于
若所述区域内目标对象的非遮挡状态值大于所述预设阈值,根据所述当前帧图像中所述区域内目标对象预测下一帧图像中所述区域内目标对象的预测框,并获取从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹;
若所述非遮挡状态值小于或者等于所述预设阈值,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象,并根据所述当前帧图像中最近邻对象的预测框获取从所述当前帧图像到所述下一帧图像的对应所述目标对象的跟踪轨迹。
第三方面,本公开实施例提供了一种计算机设备,包括存储器以及处理器,所述存储器存储有计算机程序,所述计算机程序在所述处理器上运行时执行第一方面中任一项所述的目标跟踪轨迹的获取方法。
第四方面,本公开实施例还提供了一种计算机可读存储介质,其存储有计算机程序,所述计算机程序在处理器上运行时执行第一方面中任一项所述的目标跟踪轨迹的获取方法。
上述本公开实施例提供的目标跟踪轨迹的获取方法、装置及计算机设备,在进行目标跟踪时,先将当前帧图像划分为多个区域,针对每个区域进行目标跟踪。这样,可以有效减少每次对整张图片进行处理的计算量,提高计算速度。
通过判断当前帧图像中每个区域内目标对象的非遮挡状态值是否大于预设阈值来判断目标对象是否被遮挡,若非状态遮挡之大于预设阈值则认为非遮挡状态,可以直接根据所述当前帧图像中所述区域内目标对象预测下一帧图像中所述区域内目标对象的预测框,并获取从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹。而在非遮挡状态值小于或者等于预设阈值时则认为遮挡状态,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象,并根据所述当前帧图像中最近邻对象的预测框获取从所述当前帧图像到所述下一帧图像的对应所述目标对象的跟踪轨迹。这样,可以针对当前帧图像中目标对象的实际遮挡状态选择合适的跟踪方案,提高目标跟踪的准确性。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对本发明保护范围的限定。在各个附图中,类似的构成部分采用类似的编号。
图1示出了本申请实施例提供的一种目标跟踪轨迹的获取方法的流程示意图;
图2示出了本申请实施例提供的目标跟踪轨迹的获取方法的部分流程示意图;
图3示出了本申请实施例提供的一种目标跟踪轨迹的获取装置的模块框图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
在下文中,可在本发明的各种实施例中使用的术语“包括”、“具有”及其同源词仅意在表示特定特征、数字、步骤、操作、元件、组件或前述项的组合,并且不应被理解为首先排除一个或更多个其它特征、数字、步骤、操作、元件、组件或前述项的组合的存在或增加一个或更多个特征、数字、步骤、操作、元件、组件或前述项的组合的可能性。
此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
除非另有限定,否则在这里使用的所有术语(包括技术术语和科学术语)具有与本发明的各种实施例所属领域普通技术人员通常理解的含义相同的含义。所述术语(诸如在一般使用的词典中限定的术语)将被解释为具有与在相关技术领域中的语境含义相同的含义并且将不被解释为具有理想化的含义或过于正式的含义,除非在本发明的各种实施例中被清楚地限定。
实施例1
参见图1,为本公开实施例提供的一种目标跟踪轨迹的获取方法的流程示意图。如图1所示,所述方法主要包括以下步骤:
S101,将当前帧图像划分为多个区域。
本实施例提供的目标跟踪轨迹的获取方法,用于实现连续帧图像中的目标跟踪,主要是针对从当前帧图像到下一帧图像中针对目标对象的跟踪轨迹的获取过程进行具体描述。需要说明的是,此当前帧可以为连续帧图像序列中从第二帧起的任一帧,下一帧图像则是指连续帧图像序列中位于当前帧图像之后紧跟的一帧图像,上一帧图像则是指连续帧图像序列中位于当前帧图像之前且紧邻所述当前帧的一帧图像。
在处理时,将当前帧图像及其关联的连续帧图像均划分为多个区域,后续的目标对象检测和跟踪均是针对该区域进行的。将整个图像划分为区域的方式可以有多种,例如,首先将输入的当前帧图像划分为相同尺度标准的p×p个网格,每个网格再划分为N个区域,p和N均为正整数。当然,也可以直接将整个图像均等划分为多个矩形框,每个矩形框均作为一个处理区域。
S102,判断所述当前帧图像中每个区域内目标对象的非遮挡状态值是否大于预设阈值。
在相邻帧图像之间对目标对象进行跟踪时,需要尽量保证目标对象的可识别率较高,避免错误识别、漏识别和遮挡等情况影响目标跟踪的准确率。此处引入一个用于指示目标对象可视状态的值,定义为非遮挡状态值。非遮挡状态值越大,表示该目标对象在当前帧图片的当前区域中被遮挡的程度越小,反之,若非遮挡状态值越小,则表示该目标对象在当前帧图像的当前区域中被遮挡的程度越大。设定一个临界状态时的非遮挡状态值为预设阈值,针对预设阈值两侧的情况分别采用不同的处理方案。
根据本公开的一种具体实施方式,上述判断所述当前帧图像中每个区域内目标对象的非遮挡状态值是否大于预设阈值的步骤之前,所述方法还可以包括:
利用所述当前帧图像的上一帧图像获取所述当前帧图像中所述区域内对应所述目标对象的预测框;
计算出所述目标对象的预测框与参考框的面积交并比,作为所述非遮挡状态值,其中,所述参考框为在所述当前帧图像中所述区域对应的图框。
本实施方式限定非遮挡状态值为目标对象的预测框与参考框的面积交并比,涉及到当前帧图片内当前区域中目标对象对应的预测框与当前区域对应的参考框。
首先,利用上一帧图像中目标对象的相关特征值来预测该当前帧图像中当前区域内目标对象的区域,定义为预测框。具体实施时可以根据上一帧图像中目标对象实际对应的真实框来预测当前帧内当前区域中目标对象的预测框。此外,将当前区域对应的矩形框定义为参考框。
在进行处理时,分别获取预测框与参考框的面积交集,以及预测框与参考框的面积并集,将面积交集比上面积并集,即得到预测框与参考框的面积交并比,可以直接将该面积交并比作为非遮挡状态值。
此外,在处理之前利用目标检测(You Only Look Once,简称YOLO)进行目标检测上,还可以利用mobileNet提取卷积特征图,检测网络对卷积特征图进行分析和过滤。
通过预测框与参考框的面积交并比作为非遮挡状态值表示目标对象的可视状态,更贴合目标状态的实际情况,目标跟踪的准确率就更高。
计算机设备在计算出预测框和参考框的面积交并比之后,将该面积交并比与预设阈值进行比较,分别针对两种情况进行处理,具体如下。
S103,若所述区域内目标对象的非遮挡状态值大于所述预设阈值,根据所述当前帧图像中所述区域内目标对象预测下一帧图像中所述区域内目标对象的预测框,并获取从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹。
针对区域内目标对象的非遮挡状态值大于预设阈值的情况,目标对象不被其他对象遮挡或者遮挡程度较小,可以直接依据当前帧图像中该区域内的目标对象来较为准确地预测下一帧图像中该对应区域内的目标对象,将下一帧图像中该目标对象的可能存在区域定义为下一帧图像中所述区域内目标对象的预测框。这样即可以此来获取当前帧图像到下一帧图像这两相邻帧对应目标对象的跟踪轨迹。
S104,若所述非遮挡状态值小于或者等于所述预设阈值,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象,并根据所述当前帧图像中最近邻对象的预测框获取从所述当前帧图像到所述下一帧图像的对应所述目标对象的跟踪轨迹。
针对区域内目标对象的非遮挡状态值小于或者等于预设阈值的情况,目标对象被其他对象遮挡的程度较大,此时通过当前的目标对象直接预测跟踪可能导致跟踪错误。为了提高目标跟我这个的准确率,首先获取当前帧图像的目标区域内与该目标对象的距离最近的最近邻对象,再依据该目标对象最近距离的最近邻对象来进行目标预测和跟踪。
上述本公开实施例提供的目标跟踪轨迹的获取方法,在进行目标跟踪时,先将当前帧图像划分为多个区域,针对每个区域进行目标跟踪。这样,可以有效减少每次对整张图片进行处理的计算量,提高计算速度。另外通过判断当前帧图像中每个区域内目标对象的非遮挡状态值是否大于预设阈值来判断目标对象是否被遮挡,从而选择不同的获取所述目标对象的跟踪轨迹的方案,可以有效提高目标跟踪的准确性。
下面将结合具体实施方式分别针对两种不同遮挡状态的情况下目标跟踪轨迹的获取过程进行解释。
第一方面,根据本公开的一种具体实施方式,S103所述的,根据所述当前帧图像中所述区域内目标对象预测下一帧图像中所述区域内目标对象的预测框,并获取从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹的步骤,如图2所示,可以具体包括:
S201,根据所述当前帧图像中所述区域内目标对象的真实框,利用卡尔曼算法预测下一帧图像中所述区域内对应所述目标对象的预测框。
本实施方式中,针对目标对象在当前帧图像内当前区域中的非遮挡状态值大于预设阈值的情况,采取以当前帧中目标对象直接进行跟踪的方案。具体的,先获取当前帧图像中该区域内目标对象实际对应的真实框,来预测下一帧图像中区域内对应该目标对象的预测框。
进一步的,所述获取所述当前帧图像中所述目标对象对应的真实框的步骤,可以包括:
计算所述参考框相对于所述当前帧图像上的边缘参考位点的偏移量,以及所述参考框的边框尺寸;
根据所述边缘参考位点的偏移量和所述真实框的边框尺寸,利用逻辑回归函数计算出所述真实框的中心点坐标以及所述真实框的边框尺寸;
根据所述真实框的中心点坐标以及所述真实框的边框尺寸。
通常将整张图像的左上角像素点定义为边缘参考位点,在针对该区域内的参考框进行相关计算时,先计算该区域对应的参考框相对于整张图像的边缘参考位点的偏移量,该偏移量可以表示该参考框在整张图像中的坐标数据,可以用cx和cy表示,而参考框的边框尺寸即宽度和高度可以用lw和lh表示。
具体实施时,所述根据所述边缘参考位点的偏移量和所述真实框的边框尺寸,利用逻辑回归函数计算出所述真实框的中心点坐标以及所述真实框的边框尺寸的步骤,包括:
根据公式
bx=η(tx)+cx
by=η(ty)+cy (一)
计算所述真实框的中心坐标,以及,根据公式
Figure BDA0002824863020000121
计算所述真实框的边框尺寸;
其中,所述bx、by表示所述真实框的中心点坐标,所述bw、by表示所述目标框的宽度和高度,cx和cy表示所述参考框相对于所述当前帧图像的参考位点的偏移量,lw和lh表示所述参考框的宽度和高度,η(t)逻辑回归函数,tw和th是宽度和高度的缩放因子。
本实施方式限定获取目标对象在当前帧图像中该区域内实际区域即真实框,是利用逻辑回归函数计算结合参考框的相关计算得到。当然,除此之外,也可以通过特征点检测的方式检测目标对象的实际的真实框坐标即边框尺寸。需要说明的是,这里所涉及的边框的坐标均可以指边框的中心点坐标,当然也可以统一指代为边框左上角位点坐标,不作限定。
已知目标框的宽度和高度以及目标边框坐标的情况下就可以计算出目标边框的中心坐标,面积交并比大于预设阈值,利用卡尔曼滤波预测下一时刻的目标框中心点坐标。将当前帧图像对应的T时刻真实框坐标bx、by输入到卡尔曼滤波器中,并记该时刻的目标为i,对T+1时刻的目标对象进行预测,并记该时刻的目标为j,此时更新目标j的预测框信息,更新状态协方差矩阵。卡尔曼滤波预测方程:
Figure BDA0002824863020000131
其中,F为状态转移矩阵,X是测量值,P为状态协方差矩阵,U、Q为过程噪声矩阵,X'是后验状态估计值,P'表示后验状态矩阵。
S202,利用匈牙利算法将所述当前帧图像中的真实框和所述下一帧图像中的预测框进行数据关联。
检测出当前帧中的多个目标对象m以及它们的坐标及边框尺寸,再利用卡尔曼滤波算法根据上一帧的跟踪结果对当前帧图像中的目标对象进行了预测,得到对应的n个预测框。利用匈牙利算法对检测框与预测框进行匹配和关联。
S203,根据所述当前帧图像中的真实框与所述下一帧图像中的预测框之间相互关联的像素点坐标数据,生成所述当前帧图像到所述下一帧图像之间对应所述目标对象的跟踪轨迹。
具体实施过程可以包括:
获取所述当前帧图像中所述目标对象对应的真实框;
获取对应面积交并比的第一权重系数,以及,对应颜色特征矩阵的第二权重系数;
获取所述当前帧图像的颜色特征矩阵和所述下一帧图像的颜色特征矩利用所述第一权重系数加权所述当前帧图像和所述下一帧图像中的真实框和参考框的面积交并比,以及,利用所述第二权重系数加权所述当前帧图像和所述下一帧图像的颜色特征矩阵,求和得到关联矩阵。
得到预测框和真实框的面积交并比,并获取检测图像的颜色直方图,加权预测框和真实框的面积交并比和直方图特征得到关联,获取权重系数,生成关联矩阵,完成数据关联,在多帧图像中形成跟踪轨迹,即:
Hij=αIOU(i,j)+βCA(i,j) (四)
关联矩阵Hij,IOU(i,j)面积交并比,直方图关联系数CA(i,j),权重系数α,β。
第二方面,根据本公开的一种具体实施方式,S104所述的,若所述非遮挡状态值小于或者等于所述预设阈值,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象,并根据所述当前帧图像中最近邻对象的预测框获取从所述当前帧图像到所述下一帧图像的对应所述目标对象的跟踪轨迹的步骤,可以具体包括:
若所述非遮挡状态值小于或者等于所述预设阈值,判断所述当前帧图像中与所述目标对象的距离小于预设距离值的全部近邻对象;
相对于所述当前帧的上一帧图像中的全部近邻对象,查找所述当前帧图像的全部近邻对象中新增的候选近邻对象;
查找全部候选近邻对象中与所述目标对象的距离最近的目标近邻对象;
根据所述目标近邻对象确定所述当前帧的下一帧图像中的所述目标对象对应的预测框;
根据所述当前帧的目标近邻对象和所述下一帧图像中所述目标对象对应的预测框,确定从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹。
本实施方式针对无法得到大于阈值的面积交并比的情况,推测可能出现目标对象被遮挡或者目标对象丢失的情况,采用最近邻跟踪算法进行数据关联。
最近邻算法是通过两个时刻发生形态变化的目标之间的距离约束和权重比较。发生遮挡时,目标会有前后之分,根据置信度的高低来判断目标消失的前后。所以目标发生遮挡或者形变的时候也能较为准确的跟踪。具体为:
Figure BDA0002824863020000151
计算跟踪过程中编号为j的目标与周围其余目标f的距离djf。当djf大于d时,认定目标j周围不存在紧邻目标,此时如果目标j周围出现新的目标时,认定目标为首次出现,记录并存档。当djf小于d时,保存目标j所有紧邻目标fi
如果目标j周围出现新目标,先判断紧邻目标gi是否消失.如果多个目标丢失,判断离新目标k最近的目标gm,从而判断最新的目标k就是消失的目标gm。将目标的序号k记为gm,并记录k目标的信息为gm。如果没有目标消失,则认为k就是新的目标。
此外,根据本公开的另一种具体实施方式,S104所述的,若所述非遮挡状态值小于或者等于所述预设阈值,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象的预测框的步骤之前,所述方法还可以包括:
若所述非遮挡状态值小于或者等于所述预设阈值,重复执行获取所述当前帧图像中所述区域对应的非遮挡状态值的操作,直至满足预设停止条件时为止,其中,所述预设停止条件为所述非遮挡状态值小于或者等于所述预设阈值,或者重复获取非遮挡状态值的操作的次数大于预定次数。
在针对当前帧图像的目标对象对应的非遮挡状态值进行计算时,若初次得到的非遮挡状态值小于或者等于预设阈值,则可以先不按照最近邻算法进行跟踪,而是重新计算一次或者多次非遮挡状态值。重新计算非遮挡状态值时,需要重新确定预测框,再根据重新确定的预测框来计算预测框和参考框的面积交并比作为非遮挡状态值进行比较,以避免预测框出错或者计算错误被误认为遮挡的情况。当然,为了避免多次的计算增加工作量,还可以增设预设停止条件,即重复计算非遮挡状态值的停止条件,在重复次数超过预定次数或者得到大于预设阈值的非遮挡状态值时即停止计算。
上述实施例主要针对当前帧到下一帧图像中针对某一目标对象的跟踪过程进行解释,此方案可以扩展到全部连续帧图像上针对其他一个或者多个对象的跟踪方案中,逐步获取每相邻两帧图像之间的跟踪轨迹,直至处理完所有的图像。
综上所述,本申请的方案首先将输入的图像进行N个区域划分,YOLO作为后端目标检测网络框架。该区域最优目标边框,最终可以得出最优目标边框的中心坐标。计算预测框和真实框的交并比,并检测图像的颜色直方图,加权预测框和真实框面积交并比和直方图特征得到关联。判断预测框和真实框的面积交并比是否大于阈值,之后更新状态协方差矩阵。获取权重系数,生成关联矩阵。最后用匈牙利算法对检测结果与预测结果进行匹配,完成数据关联,在多帧图像中形成跟踪轨迹。对于预测框和真实框的交并比小于阈值的目标,重新计算预测框和真实框的面积交并比,如果再次计算预测框和真实框的面积交并比大于阈值就采用上面方法进行数据关联。如果出现对遮挡目标或者目标丢失,则采用最紧邻算法进行数据关联,再进行目标跟踪。
本申请实施例提供的目标跟踪轨迹的获取方法,可以实现在较低配的摄像头可以稳定应用在目标跟踪。在多变的环境、目标遮挡、背景混淆以及目标之间相似性等干扰环境,可以有效解决跟踪失败、误判和漏判等问题。此外,该方法解决教育机器人赛道需要预先制作赛道模型的繁琐问题,提高了教育的机器人的可玩性以及可发挥性,提高了学生对机器人启蒙和开发的兴趣。
实施例2
与上述方法实施例相对应,参见图3,本公开实施例还提供了一种目标跟踪轨迹的获取装置300。如图3所示,所述目标跟踪轨迹的获取装置300包括:
划分模块301,用于将当前帧图像划分为多个区域;
判断模块302,用于判断所述当前帧图像中每个区域内目标对象的非遮挡状态值是否大于预设阈值;
获取模块303,用于
若所述区域内目标对象的非遮挡状态值大于所述预设阈值,根据所述当前帧图像中所述区域内目标对象预测下一帧图像中所述区域内目标对象的预测框,并获取从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹;
若所述非遮挡状态值小于或者等于所述预设阈值,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象,并根据所述当前帧图像中最近邻对象的预测框获取从所述当前帧图像到所述下一帧图像的对应所述目标对象的跟踪轨迹。
根据本公开的一种具体实施方式,所述目标跟踪轨迹的获取装置300还包括:
预测模块,用于利用所述当前帧图像的上一帧图像获取所述当前帧图像中所述区域内对应所述目标对象的预测框;
计算模块,用于计算出所述目标对象的预测框与参考框的面积交并比,作为所述非遮挡状态值,其中,所述参考框为在所述当前帧图像中所述区域对应的图框。
根据本公开的一种具体实施方式,所述获取模块包括:
预测子模块,用于根据所述当前帧图像中所述区域内目标对象的真实框,利用卡尔曼算法预测下一帧图像中所述区域内对应所述目标对象的预测框;
关联子模块,用于利用匈牙利算法将所述当前帧图像中的真实框和所述下一帧图像中的预测框进行数据关联;
跟踪子模块,用于根据所述当前帧图像中的真实框与所述下一帧图像中的预测框之间相互关联的像素点坐标数据,生成所述当前帧图像到所述下一帧图像之间对应所述目标对象的跟踪轨迹。
根据本公开的一种具体实施方式,所述关联子模块用于:
获取所述当前帧图像中所述目标对象对应的真实框;
获取对应面积交并比的第一权重系数,以及,对应颜色特征矩阵的第二权重系数;
获取所述当前帧图像的颜色特征矩阵和所述下一帧图像的颜色特征矩阵;
利用所述第一权重系数加权所述当前帧图像和所述下一帧图像中的真实框和参考框的面积交并比,以及,利用所述第二权重系数加权所述当前帧图像和所述下一帧图像的颜色特征矩阵,求和得到关联矩阵。
根据本公开的一种具体实施方式,所述获取子模块用于:
计算所述参考框相对于所述当前帧图像上的边缘参考位点的偏移量,以及所述参考框的边框尺寸;
根据所述边缘参考位点的偏移量和所述真实框的边框尺寸,利用逻辑回归函数计算出所述真实框的中心点坐标以及所述真实框的边框尺寸;
根据所述真实框的中心点坐标以及所述真实框的边框尺寸。
根据本公开的一种具体实施方式,所述获取子模块还用于:
根据公式
Figure BDA0002824863020000192
计算所述真实框的中心坐标,以及,根据公式
Figure BDA0002824863020000191
计算所述真实框的边框尺寸;
其中,所述bx、by表示所述真实框的中心点坐标,所述bw、by表示所述目标框的宽度和高度,cx和cy表示所述参考框相对于所述当前帧图像的参考位点的偏移量,lw和lh表示所述参考框的宽度和高度,η(t)逻辑回归函数,tw和th是宽度和高度的缩放因子。
根据本公开的一种具体实施方式,所述获取模块还用于:
若所述非遮挡状态值小于或者等于所述预设阈值,重复执行获取所述当前帧图像中所述区域对应的非遮挡状态值的操作,直至满足预设停止条件时为止,其中,所述预设停止条件为所述非遮挡状态值小于或者等于所述预设阈值,或者重复获取非遮挡状态值的操作的次数大于预定次数。
根据本公开的一种具体实施方式,所述获取模块还用于:
若所述非遮挡状态值小于或者等于所述预设阈值,判断所述当前帧图像中与所述目标对象的距离小于预设距离值的全部近邻对象;
相对于所述当前帧的上一帧图像中的全部近邻对象,查找所述当前帧图像的全部近邻对象中新增的候选近邻对象;
查找全部候选近邻对象中与所述目标对象的距离最近的目标近邻对象;
根据所述目标近邻对象确定所述当前帧的下一帧图像中的所述目标对象对应的预测框;
根据所述当前帧的目标近邻对象和所述下一帧图像中所述目标对象对应的预测框,确定从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹。
另外,本公开实施例提供了一种计算机设备,包括存储器以及处理器,所述存储器存储有计算机程序,所述计算机程序在所述处理器上运行时执行上述实施例所述的目标跟踪轨迹的获取方法。
此外,本公开实施例还提供了一种计算机可读存储介质,其存储有计算机程序,所述计算机程序在处理器上运行时执行上述实施例所述的目标跟踪轨迹的获取方法。
上述本申请实施例提供的目标跟踪轨迹的获取装置、计算机设备及计算机可读存储介质,可以实现在较低配的摄像头可以稳定应用在目标跟踪。在多变的环境、目标遮挡、背景混淆以及目标之间相似性等干扰环境,可以有效解决跟踪失败、误判和漏判等问题。所提供的目标跟踪轨迹的获取装置、计算机设备及计算机可读存储介质的具体实施过程,可以参见上述目标跟踪轨迹的获取方法的具体实施过程,在此不再一一赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和结构图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,结构图和/或流程图中的每个方框、以及结构图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块或单元可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或更多个模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是智能手机、个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。

Claims (11)

1.一种目标跟踪轨迹的获取方法,其特征在于,包括:
将当前帧图像划分为多个区域;
判断所述当前帧图像中每个区域内目标对象的非遮挡状态值是否大于预设阈值;
若所述区域内目标对象的非遮挡状态值大于所述预设阈值,根据所述当前帧图像中所述区域内目标对象预测下一帧图像中所述区域内目标对象的预测框,并获取从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹;
若所述非遮挡状态值小于或者等于所述预设阈值,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象,并根据所述当前帧图像中最近邻对象的预测框获取从所述当前帧图像到所述下一帧图像的对应所述目标对象的跟踪轨迹。
2.根据权利要求1所述的方法,其特征在于,所述判断所述当前帧图像中每个区域内目标对象的非遮挡状态值是否大于预设阈值的步骤之前,所述方法还包括:
利用所述当前帧图像的上一帧图像获取所述当前帧图像中所述区域内对应所述目标对象的预测框;
计算出所述目标对象的预测框与参考框的面积交并比,作为所述非遮挡状态值,其中,所述参考框为在所述当前帧图像中所述区域对应的图框。
3.根据权利要求2所述的方法,其特征在于,所述根据所述当前帧图像中所述区域内目标对象预测下一帧图像中所述区域内目标对象的预测框,并获取从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹的步骤,包括:
根据所述当前帧图像中所述区域内目标对象的真实框,利用卡尔曼算法预测下一帧图像中所述区域内对应所述目标对象的预测框;
利用匈牙利算法将所述当前帧图像中的真实框和所述下一帧图像中的预测框进行数据关联;
根据所述当前帧图像中的真实框与所述下一帧图像中的预测框之间相互关联的像素点坐标数据,生成所述当前帧图像到所述下一帧图像之间对应所述目标对象的跟踪轨迹。
4.根据权利要求3所述的方法,其特征在于,所述利用匈牙利算法将所述当前帧图像中的真实框和所述下一帧图像中的预测框进行数据关联的步骤,包括:
获取所述当前帧图像中所述目标对象对应的真实框;
获取对应面积交并比的第一权重系数,以及,对应颜色特征矩阵的第二权重系数;
获取所述当前帧图像的颜色特征矩阵和所述下一帧图像的颜色特征矩阵;
利用所述第一权重系数加权所述当前帧图像和所述下一帧图像中的真实框和参考框的面积交并比,以及,利用所述第二权重系数加权所述当前帧图像和所述下一帧图像的颜色特征矩阵,求和得到关联矩阵。
5.根据权利要求4所述的方法,其特征在于,所述获取所述当前帧图像中所述目标对象对应的真实框的步骤,包括:
计算所述参考框相对于所述当前帧图像上的边缘参考位点的偏移量,以及所述参考框的边框尺寸;
根据所述边缘参考位点的偏移量和所述真实框的边框尺寸,利用逻辑回归函数计算出所述真实框的中心点坐标以及所述真实框的边框尺寸;
根据所述真实框的中心点坐标以及所述真实框的边框尺寸。
6.根据权利要求5所述的方法,其特征在于,所述根据所述边缘参考位点的偏移量和所述真实框的边框尺寸,利用逻辑回归函数计算出所述真实框的中心点坐标以及所述真实框的边框尺寸的步骤,包括:
根据公式
bx=η(tx)+cx
by=η(ty)+cy (一)
计算所述真实框的中心坐标,以及,根据公式
Figure FDA0002824863010000031
Figure FDA0002824863010000032
计算所述真实框的边框尺寸;
其中,所述bx、by表示所述真实框的中心点坐标,所述bw、by表示所述真实框的宽度和高度,cx和cy表示所述参考框相对于所述当前帧图像的参考位点的偏移量,lw和lh表示所述参考框的宽度和高度,η(t)逻辑回归函数,tw和th是宽度和高度的缩放因子。
7.根据权利要求2所述的方法,其特征在于,所述若所述非遮挡状态值小于或者等于所述预设阈值,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象的预测框的步骤之前,所述方法还包括:
若所述非遮挡状态值小于或者等于所述预设阈值,重复执行获取所述当前帧图像中所述区域对应的非遮挡状态值的操作,直至满足预设停止条件时为止;其中,
所述预设停止条件为所述非遮挡状态值小于或者等于所述预设阈值,或者重复获取非遮挡状态值的操作的次数大于预定次数。
8.根据权利要求1所述的方法,其特征在于,所述若所述非遮挡状态值小于或者等于所述预设阈值,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象,并根据所述当前帧图像中最近邻对象的预测框获取从所述当前帧图像到所述下一帧图像的对应所述目标对象的跟踪轨迹的步骤,包括:
若所述非遮挡状态值小于或者等于所述预设阈值,判断所述当前帧图像中与所述目标对象的距离小于预设距离值的全部近邻对象;
相对于所述当前帧的上一帧图像中的全部近邻对象,查找所述当前帧图像的全部近邻对象中新增的候选近邻对象;
查找全部候选近邻对象中与所述目标对象的距离最近的目标近邻对象;
根据所述目标近邻对象确定所述当前帧的下一帧图像中的所述目标对象对应的预测框;
根据所述当前帧的目标近邻对象和所述下一帧图像中所述目标对象对应的预测框,确定从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹。
9.一种目标跟踪轨迹的获取装置,其特征在于,包括:
划分模块,用于将当前帧图像划分为多个区域;
判断模块,用于判断所述当前帧图像中每个区域内目标对象的非遮挡状态值是否大于预设阈值;
获取模块,用于
若所述区域内目标对象的非遮挡状态值大于所述预设阈值,根据所述当前帧图像中所述区域内目标对象预测下一帧图像中所述区域内目标对象的预测框,并获取从所述当前帧图像到下一帧图像的对应所述目标对象的跟踪轨迹;
若所述非遮挡状态值小于或者等于所述预设阈值,获取所述当前帧图像中所述区域内与所述目标对象最近邻对象,并根据所述当前帧图像中最近邻对象的预测框获取从所述当前帧图像到所述下一帧图像的对应所述目标对象的跟踪轨迹。
10.一种计算机设备,其特征在于,包括存储器以及处理器,所述存储器存储有计算机程序,所述计算机程序在所述处理器上运行时执行权利要求1至8中任一项所述的目标跟踪轨迹的获取方法。
11.一种计算机可读存储介质,其特征在于,其存储有计算机程序,所述计算机程序在处理器上运行时执行权利要求1至8中任一项所述的目标跟踪轨迹的获取方法。
CN202011447228.7A 2020-12-08 2020-12-08 目标跟踪轨迹的获取方法、装置及计算机设备 Active CN112614154B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011447228.7A CN112614154B (zh) 2020-12-08 2020-12-08 目标跟踪轨迹的获取方法、装置及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011447228.7A CN112614154B (zh) 2020-12-08 2020-12-08 目标跟踪轨迹的获取方法、装置及计算机设备

Publications (2)

Publication Number Publication Date
CN112614154A true CN112614154A (zh) 2021-04-06
CN112614154B CN112614154B (zh) 2024-01-19

Family

ID=75234399

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011447228.7A Active CN112614154B (zh) 2020-12-08 2020-12-08 目标跟踪轨迹的获取方法、装置及计算机设备

Country Status (1)

Country Link
CN (1) CN112614154B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115439509A (zh) * 2022-11-07 2022-12-06 成都泰盟软件有限公司 一种多目标跟踪方法、装置、计算机设备及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140196082A1 (en) * 2012-07-17 2014-07-10 Panasonic Corporation Comment information generating apparatus and comment information generating method
CN103927763A (zh) * 2014-03-24 2014-07-16 河海大学 一种图像序列多目标跟踪轨迹识别处理方法
CN106651908A (zh) * 2016-10-13 2017-05-10 北京科技大学 一种多运动目标跟踪方法
CN106875415A (zh) * 2016-12-29 2017-06-20 北京理工雷科电子信息技术有限公司 一种动态背景中弱小动目标的连续稳定跟踪方法
CN106898015A (zh) * 2017-01-17 2017-06-27 华中科技大学 一种基于自适应子块筛选的多线索视觉跟踪方法
CN108986064A (zh) * 2017-05-31 2018-12-11 杭州海康威视数字技术股份有限公司 一种人流量统计方法、设备及系统
CN110211160A (zh) * 2019-05-30 2019-09-06 华南理工大学 一种基于改进Camshift算法的人脸跟踪方法
CN110458862A (zh) * 2019-05-22 2019-11-15 西安邮电大学 一种遮挡背景下的运动目标跟踪方法
CN110852283A (zh) * 2019-11-14 2020-02-28 南京工程学院 一种基于改进YOLOv3的安全帽佩戴检测与跟踪方法
CN111242977A (zh) * 2020-01-09 2020-06-05 影石创新科技股份有限公司 全景视频的目标跟踪方法、可读存储介质及计算机设备
CN111428607A (zh) * 2020-03-19 2020-07-17 浙江大华技术股份有限公司 一种追踪方法、装置及计算机设备
CN111652902A (zh) * 2020-06-02 2020-09-11 浙江大华技术股份有限公司 目标的跟踪检测方法、电子设备及装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140196082A1 (en) * 2012-07-17 2014-07-10 Panasonic Corporation Comment information generating apparatus and comment information generating method
CN103927763A (zh) * 2014-03-24 2014-07-16 河海大学 一种图像序列多目标跟踪轨迹识别处理方法
CN106651908A (zh) * 2016-10-13 2017-05-10 北京科技大学 一种多运动目标跟踪方法
CN106875415A (zh) * 2016-12-29 2017-06-20 北京理工雷科电子信息技术有限公司 一种动态背景中弱小动目标的连续稳定跟踪方法
CN106898015A (zh) * 2017-01-17 2017-06-27 华中科技大学 一种基于自适应子块筛选的多线索视觉跟踪方法
CN108986064A (zh) * 2017-05-31 2018-12-11 杭州海康威视数字技术股份有限公司 一种人流量统计方法、设备及系统
CN110458862A (zh) * 2019-05-22 2019-11-15 西安邮电大学 一种遮挡背景下的运动目标跟踪方法
CN110211160A (zh) * 2019-05-30 2019-09-06 华南理工大学 一种基于改进Camshift算法的人脸跟踪方法
CN110852283A (zh) * 2019-11-14 2020-02-28 南京工程学院 一种基于改进YOLOv3的安全帽佩戴检测与跟踪方法
CN111242977A (zh) * 2020-01-09 2020-06-05 影石创新科技股份有限公司 全景视频的目标跟踪方法、可读存储介质及计算机设备
CN111428607A (zh) * 2020-03-19 2020-07-17 浙江大华技术股份有限公司 一种追踪方法、装置及计算机设备
CN111652902A (zh) * 2020-06-02 2020-09-11 浙江大华技术股份有限公司 目标的跟踪检测方法、电子设备及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
任珈民 等: "基于YOLOv3与卡尔曼滤波的多目标跟踪算法", 《计算机应用与软件》, vol. 37, no. 5, pages 169 - 176 *
周良毅 等: "基于动态遮挡阈值的多视角多目标协作追踪", 《计算机研究与发展》, vol. 51, no. 4, pages 813 - 823 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115439509A (zh) * 2022-11-07 2022-12-06 成都泰盟软件有限公司 一种多目标跟踪方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN112614154B (zh) 2024-01-19

Similar Documents

Publication Publication Date Title
EP2858008B1 (en) Target detecting method and system
US11274922B2 (en) Method and apparatus for binocular ranging
CN112883819A (zh) 多目标跟踪方法、装置、系统及计算机可读存储介质
CN109493367B (zh) 一种对目标对象进行跟踪的方法和设备
CN108198201A (zh) 一种多目标跟踪方法、终端设备及存储介质
CN110956646B (zh) 目标跟踪方法、装置、设备及存储介质
CN111340749B (zh) 图像质量的检测方法、装置、设备及存储介质
US11257224B2 (en) Object tracker, object tracking method, and computer program
US20150104067A1 (en) Method and apparatus for tracking object, and method for selecting tracking feature
CN105374049B (zh) 一种基于稀疏光流法的多角点跟踪方法及装置
CN110349188B (zh) 基于tsk模糊模型的多目标跟踪方法、装置及存储介质
CN113312973B (zh) 一种手势识别关键点特征提取方法及系统
WO2017168462A1 (en) An image processing device, an image processing method, and computer-readable recording medium
CN116152292A (zh) 一种基于三次匹配的多类别多目标跟踪方法
CN112308879A (zh) 图像处理设备、追踪对象物体的方法和存储介质
KR100994367B1 (ko) 영상 추적 장치의 이동표적 움직임 추적 방법
CN112614154B (zh) 目标跟踪轨迹的获取方法、装置及计算机设备
CN113542868A (zh) 视频关键帧选取方法、装置、电子设备、存储介质
CN111986231A (zh) 一种多目标跟踪方法及系统
US7773771B2 (en) Video data tracker
CN110765875B (zh) 交通目标的边界检测方法、设备及装置
CN115272393A (zh) 用于无人机的视频流目标跟踪方法、装置及存储介质
CN114359332A (zh) 基于深度图像的目标跟踪方法、装置、设备和介质
CN114066933A (zh) 一种多目标跟踪方法、系统及相关设备
CN110781710B (zh) 一种目标对象聚类方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant