CN113870305A - 目标跟踪方法、装置、电子设备、计算机可读存储介质 - Google Patents
目标跟踪方法、装置、电子设备、计算机可读存储介质 Download PDFInfo
- Publication number
- CN113870305A CN113870305A CN202110977292.4A CN202110977292A CN113870305A CN 113870305 A CN113870305 A CN 113870305A CN 202110977292 A CN202110977292 A CN 202110977292A CN 113870305 A CN113870305 A CN 113870305A
- Authority
- CN
- China
- Prior art keywords
- position area
- local
- target
- area
- global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种目标跟踪方法、装置、电子设备、计算机可读存储介质,其中目标跟踪方法包括:对待处理视频中的当前帧进行目标检测,得到待处理目标的第一整体位置区域和所述第一整体位置区域内的第一局部位置区域;基于参考帧中所述待处理目标的跟综结果,预测所述当前帧中所述待处理目标的第二整体位置区域和所述第二整体位置区域内的第二局部位置区域;其中,所述第二局部位置区域对应所述第一局部位置区域,所述参考帧包括所述待处理视频中所述当前帧的前向帧;将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及所述第二局部位置区域进行关联,得到所述待处理目标的跟踪结果。该方法适用于多角度场景,提高目标跟踪的准确性以及稳定性。
Description
技术领域
本发明涉及视频图像处理技术领域,尤其是涉及一种目标跟踪方法、装置、电子设备、计算机可读存储介质。
背景技术
当前低位视频桩检测跟踪技术常用训练多样本的检测器配合高帧率的单目标相关滤波跟踪器进行目标的检测跟踪,低位视频桩车辆目标随着距离变化尺度和角度变化大,检测跟踪相对难度大,同时低位视频桩产品轻量化对算法帧率要求高,并且要求方案耗时少。现有技术目前不适应低位多角度场景,有待改进。
发明内容
本发明提供一种目标跟踪方法、装置、电子设备、计算机可读存储介质,该方法适用于多角度场景,提高目标跟踪的准确性以及稳定性。
为解决上述技术问题,本发明提供的第一个技术方案为:提供一种目标跟踪方法,包括:对待处理视频中的当前帧进行目标检测,得到待处理目标的第一整体位置区域和所述第一整体位置区域内的第一局部位置区域;基于参考帧中所述待处理目标的跟综结果,预测所述当前帧中所述待处理目标的第二整体位置区域和所述第二整体位置区域内的第二局部位置区域;其中,所述第二局部位置区域对应所述第一局部位置区域,所述参考帧包括所述待处理视频中所述当前帧的前向帧;将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及所述第二局部位置区域进行关联,得到所述待处理目标的跟踪结果。
其中,所述对待处理视频中的当前帧进行目标检测,得到待处理目标的第一整体位置区域和所述第一整体位置区域内的第一局部位置区域的步骤,包括:基于训练后的目标检测模型对所述当前帧进行目标检测,得到所述待处理目标的所述第一整体位置区域和所述第一局部位置区域;所述目标检测模型是利用标注有历史目标的整体位置区域以及所述整体位置区域内的局部位置区域的训练样本进行训练得到的。
其中,所述基于参考帧中所述待处理目标的跟综结果,预测所述当前帧中所述待处理目标的第二整体位置区域和所述第二整体位置区域内的第二局部位置区域的步骤,包括:基于参考帧中所述待处理目标的跟综结果,利用滤波算法预测所述第二整体位置区域对应的第一整体中心点坐标,以及所述第二局部位置区域对应的第一局部中心点坐标;基于所述第一整体中心点坐标和所述第一局部中心点坐标,利用回归网络模型预测得到所述第二整体位置区域和所述第二局部位置区域,所述第二整体位置区域和所述第二局部位置区域关联。
其中,所述基于所述第一整体中心点坐标和所述第一局部中心点坐标,利用回归网络模型预测得到所述第二整体位置区域和所述第二局部位置区域的步骤,包括:基于所述第一整体中心点坐标和所述第一局部中心点坐标,确定第一特征向量,所述第一特征向量表征所述第二整体位置区域和所述第二局部位置区域的位置关系;基于所述第一特征向量,利用所述回归网络模型预测得到所述第二整体位置区域和所述第二局部位置区域。
其中,所述基于所述第一特征向量,利用所述回归网络模型预测得到所述当前帧中所述第二整体位置区域和所述第二局部位置区域的步骤,包括:基于所述第一特征向量,利用所述回归网络模型得到所述第二整体位置区域的尺寸,以及所述第二局部位置区域的尺寸;基于所述第二整体位置区域的尺寸以及所述第一整体中心点坐标,确定所述第二整体位置区域;以及基于所述第二局部位置区域的尺寸以及所述第一局部中心点坐标,确定所述第二局部位置区域。
其中,所述基于所述第二整体位置区域的尺寸以及所述第一整体中心点坐标,确定所述第二整体位置区域;以及基于所述第二局部位置区域的尺寸以及所述第一局部中心点坐标,确定所述第二局部位置区域的步骤,之后还包括:利用所述第二整体位置区域,以及所述第二局部位置区域调整所述滤波算法的参数。
其中,所述将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及第二局部位置区域进行关联,进而得到所述待处理目标的跟踪结果的步骤,包括:将所述第一整体位置区域与所述第二整体位置区域进行关联,得到所述待处理目标的跟踪结果;将所述第一局部位置区域与所述第二局部位置区域进行关联,得到所述待处理目标的跟踪结果。
其中,所述将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及第二局部位置区域进行关联,进而得到所述待处理目标的跟踪结果的步骤,包括:响应于所述第一整体位置区域与所述第二整体位置区域的交并比大于第一阈值,将所述第一整体位置区域与所述第二整体位置区域进行关联;所述将所述第一局部位置区域与所述第二局部位置区域进行关联,得到所述待处理目标的跟踪结果的步骤,包括:响应于所述第一局部位置区域与所述第二局部位置区域的交并比大于第二阈值,将所述第一局部位置区域与所述第二局部位置区域进行关联。
其中,所述将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及第二局部位置区域进行关联,进而得到所述待处理目标的跟踪结果的步骤,还包括:响应于所述第一整体位置区域与所述第二整体位置区域的交并比不大于第一阈值,或响应于所述第一局部位置区域与所述第二局部位置区域的交并比不大于第二阈值,基于所述第一局部位置区域以及所述第一整体位置区域的包含关系,将所述第一局部位置区域以及所述第一整体位置区域进行关联。
其中,所述基于所述第一局部位置区域以及所述第一整体位置区域的包含关系,将所述第一局部位置区域以及所述第一整体位置区域进行关联的步骤,包括:响应于所述第一局部位置区域在所述第一整体位置区域内,确定所述第一局部位置区域与所述第一整体位置区域存在包含关系;基于具有包含关系的所述第一局部位置区域对应的第二整体中心点坐标,以及所述第一整体位置区域对应的第二局部中心点坐标,确定第二特征向量,所述第二特征向量表征所述第一整体位置区域和所述第一局部位置区域的位置关系;基于所述第二特征向量,利用回归网络模型得到所述待处理目标的第三局部位置区域以及第三整体位置区域;计算所述第一整体位置区域与所述第三整体位置区域的第一方差,计算第一局部位置区域与第三局部位置区域的第二方差,并基于所述第一方差、所述第二方差得到方差和;基于所述方差和将所述第一局部位置区域与所述第一整体位置区域进行关联。
其中,所述基于所述方差和将所述第一局部位置区域与所述第一整体位置区域进行关联的步骤,包括:响应于所述方差和小于第三阈值,将所述第一局部位置区域与所述第一整体位置区域进行关联。
其中,所述基于所述第一整体中心点坐标和所述第一局部中心点坐标,利用回归网络模型预测得到所述第二整体位置区域和所述第二局部位置区域的步骤,之前包括:获取第二训练样本,所述第二训练样本标注有历史目标的整体位置区域、局部位置区域以及所述整体位置区域与所述局部位置区域的关联信息;基于所述整体位置区域确定所述整体位置区域对应的整体中心点坐标、以及基于所述局部位置区域确定所述局部位置区域对应的局部中心点坐标;基于所述整体中心点坐标以及所述局部中心点坐标,得到第三特征向量,所述第三特征向量表征所述历史目标的所述整体位置区域以及所述局部位置区域的位置关系;利用所述第二特征向量、所述目标的整体位置信息、所述目标的局部位置信息对初始模型进行训练,进而得到所述回归网络模型。
为解决上述技术问题,本发明提供的第二个技术方案为:提供一种目标跟踪装置,目标跟踪装置包括:检测模块,用于对待处理视频中的当前帧进行目标检测,得到待处理目标的第一整体位置区域和所述第一整体位置区域内的第一局部位置区域;预测模块,用于基于参考帧中所述待处理目标的跟综结果,预测所述当前帧中所述待处理目标的第二整体位置区域和所述第二整体位置区域内的第二局部位置区域,且所述第二局部位置区域对应所述第一局部位置区域,所述参考帧为所述待处理视频中所述当前帧的前向帧;关联模块,用于将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及第二局部位置区域进行关联,进而得到所述待处理目标的跟踪结果。
为解决上述技术问题,本发明提供的第三个技术方案为:提供一种电子设备,包括:存储器和处理器,其中,存储器存储有程序指令,处理器从存储器调取程序指令以执行上述任一项的方法。
为解决上述技术问题,本发明提供的第四个技术方案为:提供一种计算机可读存储介质,存储有程序文件,程序文件能够被执行以实现上述任一项的方法。
本发明的有益效果,区别于现有技术的情况,本发明对待处理视频中的当前帧进行目标检测,得到待处理目标的第一整体位置区域和所述第一整体位置区域内的第一局部位置区域,基于参考帧中所述待处理目标的跟综结果,预测所述当前帧中所述待处理目标的第二整体位置区域和所述第二整体位置区域内的第二局部位置区域,将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及所述第二局部位置区域进行关联,得到所述待处理目标的跟踪结果。该方法能够将不同的检测结果进行关联,适用于多角度场景,提高目标跟踪的准确性以及稳定性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图,其中:
图1为本发明目标跟踪方法的一实施例的流程示意图;
图2为图1中步骤S12的一实施例的流程示意图;
图3为图2中步骤S22的一实施例的流程示意图;
图4为车辆的整体位置区域与局部位置区域的示意图;
图5为本申请目标跟踪方法的另一实施例的流程示意图;
图6和图7为图1中步骤S13的一实施例的流程示意图;
图8为本发明回归网络模型的训练方法的一实施例的流程示意图;
图9为本发明目标跟踪装置的一实施例的结构示意图;
图10为本发明电子设备的一实施例的结构示意图;
图11为本发明计算机可读存储介质的一实施例的结构示意图。
具体实施方式
现有技术具有一种基于几何估计的多尺度跟踪方法,其涉及要点是根据相机成像原理,估算目标距离相机的实际距离,利用实际距离估算出目标尺度的变化,缩小目标尺度变量的取值范围。该方案中设置了多个目标尺度的跟踪算法,采用几何估计方法,通过对目标大小的估计,并结合相应的几何关系式,大量减少了多个目标尺度跟踪算法的计算量,使算法的帧率得以保障,提高算法的实时性,实现了准确、快速的目标跟踪效果。但是该方法是利用相机成像距离根据目标高度来计算尺度,目标距离不同,相应的尺度预估差异大,在低位场景且目标位于近处时预测结构相差较大。本申请提供一种目标跟踪方法,该方法耗时少,检测跟踪效果更加稳定、准确。下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参见图1,为本发明目标跟踪方法的第一实施例的流程示意图,具体包括:
步骤S11:对待处理视频中的当前帧进行目标检测,得到待处理目标的第一整体位置区域和所述第一整体位置区域内的第一局部位置区域。
具体的,利用目标检测模型对待处理视频中的当前帧进行目标检测,得到待处理目标的第一整体位置区域和所述第一整体位置区域内的第一局部位置区域。目标检测模型为传统的能够对目标进行检测的模型,例如深度神经网络(Deep Neural Networks,DNN)模型。待处理视频可以由时间连续的图像帧组成,也可以由时间不连续的图像帧组成。
在一实施例中,待处理目标的第一整体位置区域为包含整个待处理目标的区域,第一局部位置区域为待处理目标的某一部件的区域。具体的,以车辆目标跟踪为例进行说明,第一整体位置区域可以为车辆的外接矩形框的位置区域,第一局部位置区域可以为车辆的车头、车尾等部位的位置区域,具体如图4所示。在另一实施例中。以人物目标跟踪为例进行说明,第一整体位置区域可以为人物的外接矩形框的位置区域,第一局部位置区域可以为人物的头、身体、腿等部位的位置区域。
进一步的,需要训练获取目标检测模型,利用训练后的目标检测模型对当前帧进行目标检测。具体的,训练目标检测模型的训练样本标注有历史目标的整体位置区域以及整体位置区域内的局部位置区域。
对固定相机视角的常规的检测而言,单独目标外接框并不能很好的表达目标坐标位置和目标高宽之间的关系,以车辆为例,同样的车辆中心点坐标在车辆直停和横停时差异就很大,因此本申请引入了车辆局部位置区域来回归车辆在某点处的高宽,进而提高可靠性。
步骤S12:基于参考帧中所述待处理目标的跟综结果,预测所述当前帧中所述待处理目标的第二整体位置区域和所述第二整体位置区域内的第二局部位置区域。
具体的,以参考帧作为参照,基于参考帧中待处理目标的跟踪结构,预测当前帧中待处理目标的第二整体位置区域和所述第二整体位置区域内的第二局部位置区域。其中,第二局部位置区域对应第一局部位置区域,例如,若第一局部位置区域为车辆的车头区域,则第二局部位置区域也为车辆的车头区域。参考帧包括待处理视频中当前帧的前向帧。在一实施例中,前向帧为当前帧的上一帧,在另一实施例中,前向帧为当前帧的第前n帧。
在一实施例中,请结合图2,步骤S12包括:
步骤S21:基于参考帧中所述待处理目标的跟综结果,利用滤波算法预测所述第二整体位置区域对应的第一整体中心点坐标,以及所述第二局部位置区域对应的第一局部中心点坐标。
具体的,参考帧中待处理目标的跟踪结果包括待处理目标的第一整体位置区域、第二整体位置区域以及第一局部位置区域、第二局部位置区域。并且第一整体位置区域、第二整体位置区域以及第一局部位置区域、第二局部位置区域之间具有关联关系。基于参考帧中第一整体位置区域、第二整体位置区域预测当前帧中第二整体位置区域的第一整体中心坐标;利用参考帧中第一局部位置区域、第二局部位置区域预测当前帧中第二局部位置区域对应的第一局部中心点坐标。
步骤S22:基于所述第一整体中心点坐标和所述第一局部中心点坐标,利用回归网络模型预测得到所述第二整体位置区域和所述第二局部位置区域,所述第二整体位置区域和所述第二局部位置区域关联。
常规的跟踪对尺度改变的适应性不好,尤其地位视频场景车辆远近的角度和大小变化都比较大,而常见的利用金字塔特征遍历尺度的方式耗时和效果上都不是很理想故,本方法使用回归目标高宽的方式来辅助跟踪,在耗时较少的情况下取得较好的跟踪效果。
具体的,请结合图3,步骤S22具体包括:
步骤S31:基于第一整体中心点坐标和第一局部中心点坐标,确定第一特征向量,第一特征向量表征第二整体位置区域和第二局部位置区域的位置关系。
具体的,设第一特征向量为X,第一特征向量X为:
其中,(xbi,ybi)为第一整体中心坐标,(xhi,yhi)为第一局部中心坐标。
步骤S32:基于所述第一特征向量,利用所述回归网络模型预测得到所述第二整体位置区域和所述第二局部位置区域。
具体的,基于第一特征向量X,利用所述回归网络模型得到所述第二整体位置区域的尺寸,以及所述第二局部位置区域的尺寸。具体的,将第一特征向量X输入至回归网络模型,得到第二整体位置区域的尺寸以及第二局部位置区域的尺寸。其中,第二整体位置区域的尺寸包括第二整体位置区域的宽和高,第二局部位置区域的尺寸包括第二局部位置区域的宽和高。
基于所述第二整体位置区域的尺寸以及所述第一整体中心点坐标,确定所述第二整体位置区域;以及基于所述第二局部位置区域的尺寸以及所述第一局部中心点坐标,确定所述第二局部位置区域。具体的,第二整体位置区域的高和宽已知,第二整体位置区域对应的第一整体中心点坐标已知,即可基于第二整体位置区域的尺寸以及所述第一整体中心点坐标,确定所述第二整体位置区域的各个顶点的位置坐标,进而确定第二整体位置区域。另外,第二局部位置区域的高和宽已知,第二局部位置区域对应的第一局部中心点坐标已知,即可基于第二局部位置区域的尺寸以及所述第一局部中心点坐标,确定所述第二局部位置区域的各个顶点的位置坐标,进而确定第二局部位置区域。
本实施例中,在最终得到第二整体位置区域以及第二局部位置区域之后,基于第二整体位置区域以及第二局部位置区域调整滤波算法的参数,以使得下一次基于第N帧预测第N+1帧的结果时,能够更加准确。
在本申请中,需要进一步训练得到回归网络模型,具体的,请结合图8,训练回归网路模型的方法包括:
步骤S81:获取第二训练样本,所述第二训练样本标注有历史目标的整体位置区域、局部位置区域以及所述整体位置区域与所述局部位置区域的关联信息。
步骤S82:基于所述整体位置区域确定所述整体位置区域对应的整体中心点坐标、以及基于所述局部位置区域确定所述局部位置区域对应的局部中心点坐标。
具体的,由于第二训练样本中历史目标的整体位置区域、局部位置区域已知,也即实际上整体位置区域对应的整体中心点坐标以及局部位置区域对应的局部中心点坐标也已知。假设整体位置区域对应的整体中心点坐标为局部位置区域对应的局部中心点坐标为假设整体位置区域的宽高分别为局部位置区域的宽高分别为
建立回归函数
步骤S83:基于所述整体中心点坐标以及所述局部中心点坐标,得到第三特征向量,所述第三特征向量表征所述历史目标的所述整体位置区域以及所述局部位置区域的位置关系。
进一步根据整体中心点坐标、局部中心坐标得到第三特征向量。具体的,基于整体中心坐标、局部中心坐标进行特征向量提取,以得到第三特征向量;
第三特征向量表征所述历史目标的所述整体位置区域以及所述局部位置区域的位置关系。
在一实施例中,假设第三特征向量X为:
当不存在对应值或者无法得到计算结果时,默认X为0,则将公式(3)代入公式(2),得到:
将公式(4)带入上述公式(1),得到:
基于公式(5)即可计算得到第三特征向量X。
步骤S84:利用所述第二特征向量、所述目标的整体位置信息、所述目标的局部位置信息对初始模型进行训练,进而得到所述回归网络模型。
具体的,将第二特征向量,目标的整体位置信息、所述目标的局部位置信息输入至初始模型中,进而得到回归网络模型。
具体的训练过程与现有技术相同,例如利用均方误差计算损失,迭代样本得到回归网络。
步骤S13:将第一整体位置区域、第一局部位置区域、第二整体位置区域以及第二局部位置区域进行关联,进而得到待处理目标的跟踪结果。
具体的,将目标检测模型输出的第一整体位置区域、第一局部位置区域与回归网络模型输出的第二整体位置区域以及第二局部位置区域进行关联,进而得到当前帧中目标的跟踪结果。
在一具体实施例中,可以将目标的第一整体位置区域与目标的第二整体位置区域进行关联,以得到当前帧中目标的跟踪结果。具体的,请参见图6,步骤S61:计算第一整体位置区域与第二整体位置区域的交并比。步骤S62:响应于第一整体位置区域与第二整体位置区域的交并比大于第一阈值,则将目标的第一整体位置信息与目标的第二整体位置信息进行关联,以得到当前帧中目标的跟踪结果。
在另一实施例中,可以将目标的第一局部位置区域与目标的第二局部位置区域进行关联,以得到当前帧中目标的跟踪结果。具体的,请参见图6,步骤S63:计算第一局部位置区域与第二局部位置区域的交并比,步骤S64:响应于第一局部位置区域与第二局部位置区域的交并比大于第二阈值,则将目标的第一局部位置区域与目标的第二局部位置区域进行关联,以得到当前帧中目标的跟踪结果。
在再一实施例中,一方面将目标的第一整体位置区域与目标的第二整体位置区域进行关联,另一方面将目标的第一局部位置区域与目标的第二局部位置区域进行关联,以得到当前帧中目标的跟踪结果。具体的,响应于第一整体位置区域与第二整体位置区域的交并比大于第一阈值,则将目标的第一整体位置区域与目标的第二整体位置区域进行关联;响应于第一局部位置区域与第二局部位置区域的交并比大于第二阈值,则将目标的第一局部位置区域与目标的第二局部位置区域进行关联,最终得到当前帧中目标的跟踪结果。需要说明的是,第一阈值与第二阈值可以相同,也可以不同,具体不做限定。
在另一实施例中,响应于目标的第一整体位置区域与目标的第二整体位置区域的交并比不大于第一阈值,或响应于所述第一局部位置区域与所述第二局部位置区域的交并比不大于第二阈值,基于所述第一局部位置区域以及所述第一整体位置区域的包含关系,将所述第一局部位置区域以及所述第一整体位置区域进行关联。
具体地,请结合图7,步骤S71:响应于所述第一整体位置区域与所述第二整体位置区域的交并比不大于第一阈值,且响应于所述第一局部位置区域在所述第一整体位置区域内,确定所述第一局部位置区域与所述第一整体位置区域存在包含关系。此时执行步骤S72:基于具有包含关系的所述第一局部位置区域对应的第二整体中心点坐标,以及所述第一整体位置区域对应的第二局部中心点坐标,确定第二特征向量,所述第二特征向量表征所述第一整体位置区域和所述第一局部位置区域的位置关系。第二特征向量的计算方式与上述第一特征向量以及第二特征向量的计算方式相同,在此不再赘述。
步骤S73:基于所述第二特征向量,利用回归网络模型得到所述待处理目标的第三局部位置区域以及第三整体位置区域,也即将第二特征向量输入回归网络模型,进而得到待处理目标的第三局部位置区域以及第三整体位置区域。
步骤S74:计算第一整体位置区域与第三整体位置区域的第一方差,计算第一局部位置区域与第三局部位置区域的第二方差,并基于所述第一方差、所述第二方差得到方差和。基于所述方差和将所述第一局部位置区域与所述第一整体位置区域进行关联。具体的,响应于方差和小于第三阈值,则将第一局部位置区域与所述第一整体位置区域进行关联。
由于目标检测跟踪时,使用常规检测器来获取图像中车辆的位置信息,这会使得结果不够准确,并且,车辆的跟踪需要确定当前帧与上一帧是否为同一车辆。因此,本申请将当前帧的目标检测结果与基于参考帧的当前帧的跟踪结果进行关联,以提高目标跟踪的准确性以及可靠性。
具体的,如图5所示,本申请利用回归网络模型的自适应尺寸跟踪算法基于N帧的输入以及N-帧处理结果进行预测,得到预测结果,然后基于回归网络模型的目标关联将预测结果与N帧目标检测结果进行目标关联,最终得到N帧的处理结果,利用N帧的处理结果对N+1帧处理。其中,利用N帧的处理结果对N+1帧处理的方式与利用N-帧对N帧处理的方式相同,在此不再赘述。
本申请的目标跟踪方法,对于对固定相机视角的常规的检测而言,单独车辆外接框并不能很好的表达车辆坐标位置和车辆高宽之间的关系,比如同样的车辆中心点坐标车辆直停和横停时高宽差异就很大,故本方案引入了车辆局部区域,例如车脸来回归车辆在某点处的高宽(具体为计算尺寸)来提高可靠性。同时跟踪模板从常规的整体尺度比例遍历的变化具体到了高宽值,更准确快速。
另外,目标的跟踪过程中,需要进行整体和局部的关联以确认两者属于同一辆车。具体的,本申请的方法,基于交并比关联的基础上,复用了回归网络。回归网络的样本标注体现了目标关联关系,本方案通过对比回归值和真实的差异来确定关联关系,可靠性增加了。
请参见图9,为本发明目标跟踪装置的一实施例的结构示意图,具体包括:检测模块41、预测模块42以及关联模块43。
其中,检测模块41用于对待处理视频中的当前帧进行目标检测,得到待处理目标的第一整体位置区域和所述第一整体位置区域内的第一局部位置区域。
在一实施例中,检测模块41基于训练后的目标检测模型对所述当前帧进行目标检测,得到所述待处理目标的所述第一整体位置区域和所述第一局部位置区域;所述目标检测模型是利用标注有历史目标的整体位置区域以及所述整体位置区域内的局部位置区域的训练样本进行训练得到的。
其中,预测模块42用于基于参考帧中所述待处理目标的跟综结果,预测所述当前帧中所述待处理目标的第二整体位置区域和所述第二整体位置区域内的第二局部位置区域;其中,所述第二局部位置区域对应所述第一局部位置区域,所述参考帧包括所述待处理视频中所述当前帧的前向帧。
在一实施例中,预测模块42基于参考帧中所述待处理目标的跟综结果,利用滤波算法预测所述第二整体位置区域对应的第一整体中心点坐标,以及所述第二局部位置区域对应的第一局部中心点坐标;基于所述第一整体中心点坐标和所述第一局部中心点坐标,利用回归网络模型预测得到所述第二整体位置区域和所述第二局部位置区域,所述第二整体位置区域和所述第二局部位置区域关联。
在一实施例中,预测模块42基于所述第一整体中心点坐标和所述第一局部中心点坐标,确定第一特征向量,所述第一特征向量表征所述第二整体位置区域和所述第二局部位置区域的位置关系;基于所述第一特征向量,利用所述回归网络模型预测得到所述第二整体位置区域和所述第二局部位置区域。
在一实施例中,预测模块42基于所述第一特征向量,利用所述回归网络模型得到所述第二整体位置区域的尺寸,以及所述第二局部位置区域的尺寸;基于所述第二整体位置区域的尺寸以及所述第一整体中心点坐标,确定所述第二整体位置区域;以及基于所述第二局部位置区域的尺寸以及所述第一局部中心点坐标,确定所述第二局部位置区域。
在一实施例中,预测模块42利用所述第二整体位置区域,以及所述第二局部位置区域调整所述滤波算法的参数。
其中,关联模块43用于将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及第二局部位置区域进行关联,进而得到所述待处理目标的跟踪结果。
在一实施例中,关联模块43用于将所述第一整体位置区域与所述第二整体位置区域进行关联,得到所述待处理目标的跟踪结果;将所述第一局部位置区域与所述第二局部位置区域进行关联,得到所述待处理目标的跟踪结果。
在一实施例中,关联模块43在所述第一整体位置区域与所述第二整体位置区域的交并比大于第一阈值时,将所述第一整体位置区域与所述第二整体位置区域进行关联。或者关联模块43在所述第一局部位置区域与所述第二局部位置区域的交并比大于第二阈值时,将所述第一局部位置区域与所述第二局部位置区域进行关联。
在一实施例中,关联模块43在所述第一整体位置区域与所述第二整体位置区域的交并比不大于第一阈值时,或在所述第一局部位置区域与所述第二局部位置区域的交并比不大于第二阈值时,基于所述第一局部位置区域以及所述第一整体位置区域的包含关系,将所述第一局部位置区域以及所述第一整体位置区域进行关联。具体的,在所述第一局部位置区域在所述第一整体位置区域内时,确定所述第一局部位置区域与所述第一整体位置区域存在包含关系;基于具有包含关系的所述第一局部位置区域对应的第二整体中心点坐标,以及所述第一整体位置区域对应的第二局部中心点坐标,确定第二特征向量,所述第二特征向量表征所述第一整体位置区域和所述第一局部位置区域的位置关系;基于所述第二特征向量,利用回归网络模型得到所述待处理目标的第三局部位置区域以及第三整体位置区域;计算所述第一整体位置区域与所述第三整体位置区域的第一方差,计算第一局部位置区域与第三局部位置区域的第二方差,并基于所述第一方差、所述第二方差得到方差和;关联模块43基于所述方差和将所述第一局部位置区域与所述第一整体位置区域进行关联。具体的,响应于所述方差和小于第三阈值,关联模块43将所述第一局部位置区域与所述第一整体位置区域进行关联。
在一实施例中,预测模块42还用于获取第二训练样本,所述第二训练样本标注有历史目标的整体位置区域、局部位置区域以及所述整体位置区域与所述局部位置区域的关联信息。基于所述整体位置区域确定所述整体位置区域对应的整体中心点坐标、以及基于所述局部位置区域确定所述局部位置区域对应的局部中心点坐标。基于所述整体中心点坐标以及所述局部中心点坐标,得到第三特征向量,所述第三特征向量表征所述历史目标的所述整体位置区域以及所述局部位置区域的位置关系。利用所述第二特征向量、所述目标的整体位置信息、所述目标的局部位置信息对初始模型进行训练,进而得到所述回归网络模型。
由于目标检测跟踪时,使用常规检测器来获取图像中车辆的位置信息,这会使得结果不够准确,并且,车辆的跟踪需要确定当前帧与上一帧是否为同一车辆。因此,本申请将当前帧的目标检测结果与基于参考帧的当前帧的跟踪结果进行关联,以提高目标跟踪的准确性以及可靠性。
本申请的目标跟踪装置,对于对固定相机视角的常规的检测而言,单独车辆外接框并不能很好的表达车辆坐标位置和车辆高宽之间的关系,比如同样的车辆中心点坐标车辆直停和横停时高宽差异就很大,故本方案引入了车辆局部区域,例如车脸来回归车辆在某点处的高宽(具体为计算尺寸)来提高可靠性。同时跟踪模板从常规的整体尺度比例遍历的变化具体到了高宽值,更准确快速。
另外,目标的跟踪过程中,需要进行整体和局部的关联以确认两者属于同一辆车。具体的,本申请的方法,基于交并比关联的基础上,复用了回归网络。回归网络的样本标注体现了目标关联关系,本方案通过对比回归值和真实的差异来确定关联关系,可靠性增加了。
请参见图10,为本发明电子设备的一实施例的结构示意图,电子设备包括相互连接的存储器202和处理器201。
存储器202用于存储实现上述任意一项的设备的方法的程序指令。
处理器201用于执行存储器202存储的程序指令。
其中,处理器201还可以称为CPU(Central Processing Unit,中央处理单元)。处理器201可能是一种集成电路芯片,具有信号的处理能力。处理器201还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器202可以为内存条、TF卡等,可以存储设备的电子设备中全部信息,包括输入的原始数据、计算机程序、中间运行结果和最终运行结果都保存在存储器中。它根据控制器指定的位置存入和取出信息。有了存储器,电子设备才有记忆功能,才能保证正常工作。电子设备的存储器按用途可分为主存储器(内存)和辅助存储器(外存),也有分为外部存储器和内部存储器的分类方法。外存通常是磁性介质或光盘等,能长期保存信息。内存指主板上的存储部件,用来存放当前正在执行的数据和程序,但仅用于暂时存放程序和数据,关闭电源或断电,数据会丢失。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,系统服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。
请参阅图11,为本发明计算机可读存储介质的结构示意图。本申请的存储介质存储有能够实现上述所有方法的程序文件203,其中,该程序文件203可以以软件产品的形式存储在上述存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储装置包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。
以上仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (15)
1.一种目标跟踪方法,其特征在于,包括:
对待处理视频中的当前帧进行目标检测,得到待处理目标的第一整体位置区域和所述第一整体位置区域内的第一局部位置区域;
基于参考帧中所述待处理目标的跟综结果,预测所述当前帧中所述待处理目标的第二整体位置区域和所述第二整体位置区域内的第二局部位置区域;其中,所述第二局部位置区域对应所述第一局部位置区域,所述参考帧包括所述待处理视频中所述当前帧的前向帧;
将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及所述第二局部位置区域进行关联,得到所述待处理目标的跟踪结果。
2.根据权利要求1所述的跟踪方法,其特征在于,所述对待处理视频中的当前帧进行目标检测,得到待处理目标的第一整体位置区域和所述第一整体位置区域内的第一局部位置区域的步骤,包括:
基于训练后的目标检测模型对所述当前帧进行目标检测,得到所述待处理目标的所述第一整体位置区域和所述第一局部位置区域;所述目标检测模型是利用标注有历史目标的整体位置区域以及所述整体位置区域内的局部位置区域的训练样本进行训练得到的。
3.根据权利要求1所述的跟踪方法,其特征在于,所述基于参考帧中所述待处理目标的跟综结果,预测所述当前帧中所述待处理目标的第二整体位置区域和所述第二整体位置区域内的第二局部位置区域的步骤,包括:
基于参考帧中所述待处理目标的跟综结果,利用滤波算法预测所述第二整体位置区域对应的第一整体中心点坐标,以及所述第二局部位置区域对应的第一局部中心点坐标;
基于所述第一整体中心点坐标和所述第一局部中心点坐标,利用回归网络模型预测得到所述第二整体位置区域和所述第二局部位置区域,所述第二整体位置区域和所述第二局部位置区域关联。
4.根据权利要求3所述的跟踪方法,其特征在于,所述基于所述第一整体中心点坐标和所述第一局部中心点坐标,利用回归网络模型预测得到所述第二整体位置区域和所述第二局部位置区域的步骤,包括:
基于所述第一整体中心点坐标和所述第一局部中心点坐标,确定第一特征向量,所述第一特征向量表征所述第二整体位置区域和所述第二局部位置区域的位置关系;
基于所述第一特征向量,利用所述回归网络模型预测得到所述第二整体位置区域和所述第二局部位置区域。
5.根据权利要求4所述的跟踪方法,其特征在于,所述基于所述第一特征向量,利用所述回归网络模型预测得到所述当前帧中所述第二整体位置区域和所述第二局部位置区域的步骤,包括:
基于所述第一特征向量,利用所述回归网络模型得到所述第二整体位置区域的尺寸,以及所述第二局部位置区域的尺寸;
基于所述第二整体位置区域的尺寸以及所述第一整体中心点坐标,确定所述第二整体位置区域;以及基于所述第二局部位置区域的尺寸以及所述第一局部中心点坐标,确定所述第二局部位置区域。
6.根据权利要求5所述的跟踪方法,其特征在于,所述基于所述第二整体位置区域的尺寸以及所述第一整体中心点坐标,确定所述第二整体位置区域;以及基于所述第二局部位置区域的尺寸以及所述第一局部中心点坐标,确定所述第二局部位置区域的步骤,之后还包括:
利用所述第二整体位置区域,以及所述第二局部位置区域调整所述滤波算法的参数。
7.根据权利要求3所述的跟踪方法,其特征在于,所述将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及第二局部位置区域进行关联,进而得到所述待处理目标的跟踪结果的步骤,包括:
将所述第一整体位置区域与所述第二整体位置区域进行关联,得到所述待处理目标的跟踪结果;
将所述第一局部位置区域与所述第二局部位置区域进行关联,得到所述待处理目标的跟踪结果。
8.根据权利要求7所述的跟踪方法,其特征在于,所述将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及第二局部位置区域进行关联,进而得到所述待处理目标的跟踪结果的步骤,包括:
响应于所述第一整体位置区域与所述第二整体位置区域的交并比大于第一阈值,将所述第一整体位置区域与所述第二整体位置区域进行关联;
所述将所述第一局部位置区域与所述第二局部位置区域进行关联,得到所述待处理目标的跟踪结果的步骤,包括:
响应于所述第一局部位置区域与所述第二局部位置区域的交并比大于第二阈值,将所述第一局部位置区域与所述第二局部位置区域进行关联。
9.根据权利要求7所述的跟踪方法,其特征在于,所述将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及第二局部位置区域进行关联,进而得到所述待处理目标的跟踪结果的步骤,还包括:
响应于所述第一整体位置区域与所述第二整体位置区域的交并比不大于第一阈值,或响应于所述第一局部位置区域与所述第二局部位置区域的交并比不大于第二阈值,基于所述第一局部位置区域以及所述第一整体位置区域的包含关系,将所述第一局部位置区域以及所述第一整体位置区域进行关联。
10.根据权利要求9所述的跟踪方法,其特征在于,所述基于所述第一局部位置区域以及所述第一整体位置区域的包含关系,将所述第一局部位置区域以及所述第一整体位置区域进行关联的步骤,包括:
响应于所述第一局部位置区域在所述第一整体位置区域内,确定所述第一局部位置区域与所述第一整体位置区域存在包含关系;基于具有包含关系的所述第一局部位置区域对应的第二整体中心点坐标,以及所述第一整体位置区域对应的第二局部中心点坐标,确定第二特征向量,所述第二特征向量表征所述第一整体位置区域和所述第一局部位置区域的位置关系;
基于所述第二特征向量,利用回归网络模型得到所述待处理目标的第三局部位置区域以及第三整体位置区域;
计算所述第一整体位置区域与所述第三整体位置区域的第一方差,计算第一局部位置区域与第三局部位置区域的第二方差,并基于所述第一方差、所述第二方差得到方差和;
基于所述方差和将所述第一局部位置区域与所述第一整体位置区域进行关联。
11.根据权利要求10所述的跟踪方法,其特征在于,所述基于所述方差和将所述第一局部位置区域与所述第一整体位置区域进行关联的步骤,包括:
响应于所述方差和小于第三阈值,将所述第一局部位置区域与所述第一整体位置区域进行关联。
12.根据权利要求3所述的跟踪方法,其特征在于,所述基于所述第一整体中心点坐标和所述第一局部中心点坐标,利用回归网络模型预测得到所述第二整体位置区域和所述第二局部位置区域的步骤,之前包括:
获取第二训练样本,所述第二训练样本标注有历史目标的整体位置区域、局部位置区域以及所述整体位置区域与所述局部位置区域的关联信息;
基于所述整体位置区域确定所述整体位置区域对应的整体中心点坐标、以及基于所述局部位置区域确定所述局部位置区域对应的局部中心点坐标;
基于所述整体中心点坐标以及所述局部中心点坐标,得到第三特征向量,所述第三特征向量表征所述历史目标的所述整体位置区域以及所述局部位置区域的位置关系;
利用所述第二特征向量、所述目标的整体位置信息、所述目标的局部位置信息对初始模型进行训练,进而得到所述回归网络模型。
13.一种目标跟踪装置,其特征在于,包括:
检测模块,用于对待处理视频中的当前帧进行目标检测,得到待处理目标的第一整体位置区域和所述第一整体位置区域内的第一局部位置区域;
预测模块,用于基于参考帧中所述待处理目标的跟综结果,预测所述当前帧中所述待处理目标的第二整体位置区域和所述第二整体位置区域内的第二局部位置区域,且所述第二局部位置区域对应所述第一局部位置区域,所述参考帧为所述待处理视频中所述当前帧的前向帧;
关联模块,用于将所述第一整体位置区域、所述第一局部位置区域、所述第二整体位置区域以及第二局部位置区域进行关联,进而得到所述待处理目标的跟踪结果。
14.一种电子设备,其特征在于,包括:存储器和处理器,其中,所述存储器存储有程序指令,所述处理器从所述存储器调取所述程序指令以执行如权利要求1-12任一项所述的目标跟踪方法。
15.一种计算机可读存储介质,其特征在于,存储有程序文件,所述程序文件能够被执行以实现如权利要求1-12任一项所述的目标跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110977292.4A CN113870305A (zh) | 2021-08-24 | 2021-08-24 | 目标跟踪方法、装置、电子设备、计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110977292.4A CN113870305A (zh) | 2021-08-24 | 2021-08-24 | 目标跟踪方法、装置、电子设备、计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113870305A true CN113870305A (zh) | 2021-12-31 |
Family
ID=78988179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110977292.4A Pending CN113870305A (zh) | 2021-08-24 | 2021-08-24 | 目标跟踪方法、装置、电子设备、计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113870305A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114882491A (zh) * | 2022-07-11 | 2022-08-09 | 浙江大华技术股份有限公司 | 一种非机动车目标的跟踪方法、装置和电子设备 |
-
2021
- 2021-08-24 CN CN202110977292.4A patent/CN113870305A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114882491A (zh) * | 2022-07-11 | 2022-08-09 | 浙江大华技术股份有限公司 | 一种非机动车目标的跟踪方法、装置和电子设备 |
CN114882491B (zh) * | 2022-07-11 | 2022-10-25 | 浙江大华技术股份有限公司 | 一种非机动车目标的跟踪方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109271870B (zh) | 行人重识别方法、装置、计算机设备及存储介质 | |
US9576367B2 (en) | Object detection method and device | |
CN113286194A (zh) | 视频处理方法、装置、电子设备及可读存储介质 | |
WO2016034008A1 (zh) | 一种目标跟踪方法及装置 | |
US20080240497A1 (en) | Method for tracking objects in videos using forward and backward tracking | |
KR20180056685A (ko) | 비 장애물 영역 검출을 위한 시스템 및 방법 | |
KR101517359B1 (ko) | 객체 추적 방법 및 이를 이용한 객체 추적 장치 | |
US11900676B2 (en) | Method and apparatus for detecting target in video, computing device, and storage medium | |
CN112947419B (zh) | 避障方法、装置及设备 | |
CN112904331B (zh) | 移动轨迹的确定方法、装置、设备及存储介质 | |
CN107507225A (zh) | 运动目标检测方法、装置、介质及计算设备 | |
CN107832716B (zh) | 基于主动被动高斯在线学习的异常检测方法 | |
CN112365523A (zh) | 基于无锚点孪生网络关键点检测的目标跟踪方法及装置 | |
CN112989910A (zh) | 电力目标检测方法、装置、计算机设备和存储介质 | |
Li et al. | Visual object tracking using spatial context information and global tracking skills | |
CN110766725B (zh) | 模板图像的更新、目标跟踪方法及装置、电子设备及介质 | |
CN116645396A (zh) | 轨迹确定方法、装置、计算机可读存储介质及电子设备 | |
Li et al. | Time-spatial multiscale net for vehicle counting and traffic volume estimation | |
CN113870305A (zh) | 目标跟踪方法、装置、电子设备、计算机可读存储介质 | |
CN113256683B (zh) | 目标跟踪方法及相关设备 | |
CN113489897A (zh) | 图像处理方法及相关装置 | |
CN112884804A (zh) | 行动对象追踪方法及相关设备 | |
CN115953434B (zh) | 轨迹匹配方法、装置、电子设备和存储介质 | |
CN116931583A (zh) | 移动对象的确定方法和避让方法、装置、设备及存储介质 | |
CN112927258A (zh) | 一种目标跟踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |