CN111723826A - 跟踪算法的精度检测方法、装置、计算机设备和存储介质 - Google Patents

跟踪算法的精度检测方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN111723826A
CN111723826A CN201910204081.XA CN201910204081A CN111723826A CN 111723826 A CN111723826 A CN 111723826A CN 201910204081 A CN201910204081 A CN 201910204081A CN 111723826 A CN111723826 A CN 111723826A
Authority
CN
China
Prior art keywords
tracking
data
target object
characteristic data
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910204081.XA
Other languages
English (en)
Other versions
CN111723826B (zh
Inventor
徐棨森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suteng Innovation Technology Co Ltd
Original Assignee
Suteng Innovation Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suteng Innovation Technology Co Ltd filed Critical Suteng Innovation Technology Co Ltd
Priority to CN201910204081.XA priority Critical patent/CN111723826B/zh
Priority to CN202310928276.5A priority patent/CN117152569A/zh
Publication of CN111723826A publication Critical patent/CN111723826A/zh
Application granted granted Critical
Publication of CN111723826B publication Critical patent/CN111723826B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation

Abstract

本申请涉及一种跟踪算法的精度检测方法、装置、计算机设备和存储介质。所述方法包括:获取目标物体的跟踪特征数据及所述跟踪特征数据的时间戳;获取目标物体的测量特征数据及所述测量特征数据的时间戳,将所述测量特征数据作为所述跟踪特征数据的参考值;将所述跟踪特征数据的时间戳与所述测量特征数据的时间戳同步,以使所述跟踪特征数据和所述测量特征数据对齐;根据对齐后的所述跟踪特征数据与所述测量特征数据,确定所述跟踪算法的精度。采用目标物体的测量特征数据作为跟踪特征数据的参考值,减少了精度测评误差,并采用多个时间节点的数据对作为多个检测样本,保证了跟踪算法的精度的准确性。

Description

跟踪算法的精度检测方法、装置、计算机设备和存储介质
技术领域
本申请涉及无人驾驶技术领域,特别是涉及一种跟踪算法的精度检测方法、装置、计算机设备和存储介质。
背景技术
随着无人驾驶开发领域的发展,跟踪模块成为无人驾驶技术中非常重要的功能模块。跟踪模块主要用于获取周围障碍物的跟踪速度,以提供障碍物状态信息给到无人驾驶车辆。其中,跟踪算法可结合其他辅助算法实现跟踪模块的主要功能。
然而,目前的跟踪算法的精确度很难评测,无法将跟踪算法得到的周围障碍物的跟踪速度值与其真实速度值进行比较,从而检测出跟踪算法的精度。因此,存在跟踪算法的精度难以检测的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种跟踪算法的精度检测方法、装置、计算机设备和存储介质。
一种跟踪算法的精度检测方法,所述方法包括:
获取目标物体的跟踪特征数据及所述跟踪特征数据的时间戳,所述跟踪特征数据为根据跟踪算法计算得到的,所述跟踪特征数据包括跟踪速度值、跟踪加速度值、跟踪加加速度值中至少一种;
获取目标物体的测量特征数据及所述测量特征数据的时间戳,将所述测量特征数据作为所述跟踪特征数据的参考值,所述测量特征数据包括测量速度值、测量加速度值、测量加加速度值中至少一种,所述测量特征数据与所述跟踪特征数据类型相同;
根据所述跟踪特征数据的时间戳与所述测量特征数据的时间戳将所述跟踪特征数据和所述测量特征数据对齐;
根据对齐后的所述跟踪特征数据与所述测量特征数据,确定所述跟踪算法的精度。
在其中一个实施例中,所述获取目标物体的跟踪特征数据及所述跟踪特征数据的时间戳,包括:
获取多帧跟踪数据的每一帧跟踪数据,进行目标检测,得到所述目标物体相对于运动对象的相对位置坐标,所述运动对象为通过跟踪算法获取所述目标物体的跟踪特征数据的设备;
通过所述跟踪算法对所述目标物体进行跟踪处理,得到所述目标物体相对于所述运动对象的相对位移;
根据所述目标物体的相对位移及所述跟踪数据的帧与帧之间的时间差,计算得到所述目标物体相对于所述运动对象的相对速度值及相对加速度值,将所述相对速度值及相对加速度值作为所述目标物体的跟踪特征数据,并获取所述跟踪特征数据的时间戳。
在其中一个实施例中,所述跟踪数据包括图像数据或点云数据。
在其中一个实施例中,所述获取目标物体的测量特征数据及所述测量特征数据的时间戳,将所述测量特征数据作为所述跟踪特征数据的参考值,包括:
根据速度传感器读取所述目标物体的测量特征数据;
根据所述目标物体的测量特征数据获取所述测量特征数据的时间戳。
在其中一个实施例中,在所述获取跟踪特征数据的时间戳与所述测量特征数据的时间戳之前,包括:
获取卫星时间戳,根据所述卫星时间戳确定所述跟踪特征数据的时间戳与所述测量特征数据的时间戳。
在其中一个实施例中,所述计算根据所述对齐后的所述跟踪特征数据与所述测量特征数据,确定所述跟踪算法的精度,包括:
获取每一时间节点下所述跟踪特征数据与所述对应测量特征数据;
计算每一时间节点下所述跟踪特征数据与所述对应测量特征数据的差值;
根据所述每一时间节点下的差值确定所述跟踪算法的精度。
在其中一个实施例中,所述根据所述每一时间节点下的差值确定所述跟踪算法的精度包括:
计算所有时间节点下的差值的平均值或加权平均值或中值,将所述平均值或加权平均值或中值作为所述跟踪算法的精度。
一种跟踪算法的精度检测装置,所述装置包括:
跟踪分析模块,用于获取所述目标物体的跟踪特征数据及所述跟踪特征数据的时间戳,所述跟踪特征数据为根据跟踪算法计算得到的,所述跟踪特征数据包括跟踪速度值、跟踪加速度值、跟踪加加速度值中至少一种;
参考值获取模块,用于获取所述目标物体的测量特征数据及所述测量特征数据的时间戳,将所述测量特征数据作为所述跟踪特征数据的参考值所述测量特征数据包括测量速度值、测量加速度值、测量加加速度值中至少一种,所述测量特征数据与所述跟踪特征数据类型相同;
数据对齐模块,用于根据所述跟踪特征数据的时间戳与所述测量特征数据的时间戳将所述跟踪特征数据和所述测量特征数据对齐;
精度计算模块,用于根据对齐后的所述跟踪特征数据和所述测量特征数据,确定所述跟踪算法的精度。
在其中一个实施例中,跟踪分析模块包括:
坐标获取单元,用于获取多帧跟踪数据的每一帧跟踪数据,进行目标检测,得到所述跟踪数据中目标物体相对运动对象的相对位置坐标,所述运动对象为通过跟踪算法获取所述目标物体的跟踪特征数据的设备。
位移获取单元,用于通过所述跟踪算法对所述目标物体进行跟踪处理,得到所述目标物体相对于所述运动对象的相对位移。
速度计算单元,用于根据所述目标物体的相对位移及所述跟踪数据的帧与帧之间的时间差,计算得到所述目标物体相对于所述运动对象的相对速度值及相对加速度值,将所述相对速度值及相对加速度值作为所述目标物体的跟踪特征数据,并获取所述跟踪特征数据的时间戳。
在其中一个实施例中,坐标获取单元还用于获取包括图像数据或点云数据的跟踪数据。
在其中一个实施例中,参考值获取模块包括:
第一数据获取单元,用于根据速度传感器读取所述目标物体的测量特征数据。
第二数据获取单元,用于根据所述目标物体的测量特征数据获取所述测量特征数据的时间戳。
在其中一个实施例中,数据对齐模块包括:
卫星同步单元,用于获取卫星时间戳,根据所述卫星时间戳确定所述跟踪特征数据的时间戳与所述测量特征数据的时间戳。
在其中一个实施例中,精度计算模块包括:
数据获取单元,用于获取每一时间节点下所述跟踪特征数据与所述对应测量特征数据。
差值计算单元,用于计算每一时间节点下所述跟踪特征数据与所述对应测量特征数据的差值。
精度计算单元,用于根据所述每一时间节点下的差值确定所述跟踪算法的精度。
在其中一个实施例中,精度计算单元还用于计算所有时间节点下的差值的平均值或加权平均值或中值,将所述平均值或加权平均值或中值作为所述跟踪算法的精度。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述跟踪算法的精度检测步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述跟踪算法的精度检测步骤。
上述跟踪算法的精度检测方法、装置、计算机设备和存储介质,通过获取目标物体的跟踪特征数据及该跟踪特征数据的时间戳,再将测量特征数据作为跟踪特征数据的参考值,并将同一时间节点的跟踪特征数据和测量特征数据对齐,最后将跟踪特征值和参考值的差值进行比较,进而得到跟踪算法的精度。其中目标物体的测量特征数据更接近跟踪特征数据的真实值,减少了精度测评误差,将目标物体的测量特征数据作为参考值与跟踪特征数据进行比较,得到的结果更加能够反映跟踪算法的精度,实现了对跟踪算法的精度的有效检测。此外,运用数据的时间戳将同一时间节点的跟踪特征数据和测量特征数据对齐,得到了多个时间节点的数据对,作为多个检测样本,从而保证了跟踪算法的精度的准确性。
附图说明
图1为一个实施例中跟踪算法的精度检测方法的应用环境图;
图2为一个实施例中跟踪算法的精度检测方法的流程示意图;
图3为一个实施例中获取跟踪特征数据步骤的流程示意图;
图4为一个实施例中获取相对位置坐标步骤的流程示意图;
图5为一个实施例中获取相对位移步骤的流程示意图;
图6为另一个实施例中跟踪算法的精度检测方法的流程示意图;
图7为一个实施例中跟踪算法的精度检测装置的结构框图;
图8为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为一个实施例中跟踪算法的精度检测的应用环境图。本申请实施例提供的跟踪算法的精度检测方法,可以应用于如图1所示的应用环境中。其中,计算机设备100可以是台式终端或移动终端,移动终端具体可以是手机、平板电脑、笔记本电脑、穿戴式设备、个人数字助理等。计算机设备100也可以用独立的服务器或者是多个服务器组成的服务器集群来实现。图2为在一个实施例中的跟踪算法的精度检测方法的流程示意图。如图2所示,一种跟踪算法的精度检测方法,以该方法应用于图1中的计算机设备100为例进行说明,包括以下步骤:
步骤202,获取目标物体的跟踪特征数据及所述跟踪特征数据的时间戳,所述跟踪特征数据为根据跟踪算法计算得到的,所述跟踪特征数据包括跟踪速度值、跟踪加速度值、跟踪加加速度值中至少一种。
其中,目标物体可指运动对象的周围物体中指定的作为检测样本的物体,目标物体可包括车辆、移动机器人、移动视频监测设备等。运动对象可指需要获取周围物体状态信息的移动中的装置,运动对象可为无人驾驶车辆、无人机、移动机器人、移动视频监测设备等。跟踪算法是指获取运动对象周围物体的跟踪特征数据的算法。跟踪特征数据可指跟踪算法获取的目标物体相对于运动对象的相对速度值、相对加速度值、相对加加速度值。时间戳(timestamp)是指标识数据产生的某一刻时间的字符序列,例如数据产生时间为2019年10月19日10时10分10秒,则该数据的时间戳为2019年10月10日10时10分10秒,可表示为1570673410秒(s)。其中,加加速度是指由加速度的变化量和时间决定的描述加速度变化快慢的物理量。
具体地,计算机设备100从摄像头或激光雷达获取多帧跟踪数据,根据跟踪数据进行数据分析,得到目标的跟踪特征数据,将得到的目标物体的跟踪特征数据作为跟踪算法的精度检测样本。
步骤204,获取目标物体的测量特征数据及所述测量特征数据的时间戳,将所述测量特征数据作为所述跟踪特征数据的参考值,所述测量特征数据包括测量速度值、测量加速度值、测量加加速度值中至少一种,所述测量特征数据与所述跟踪特征数据类型相同。
其中,参考值是指变量的无法直接获取的真实值,一般约定一个参考值作为变量的真实值,本实施例约定运动对象的测量特征数据作为目标障碍物的跟踪特征数据的参考值。测量特征数据可指测量速度值、测量加速度值、测量加加速度值。测量特征数据与跟踪特征数据类型相同,具体地,测量特征数据中的测量速度值对应跟踪特征数据中的跟踪速度值,测量特征数据中的测量加速度值对应跟踪特征数据中的跟踪加速度值,测量特征数据中的测量加加速度值对应跟踪特征数据中的跟踪加加速度值。具体地,计算机设备100通过目标物体的传感器获取目标物体的测量特征数据,将该测量特征数据作为目标物体的跟踪特征数据的参考值。传感器可指速度传感器。
步骤206,根据所述跟踪特征数据的时间戳与所述测量特征数据的时间戳将所述跟踪特征数据和所述测量特征数据对齐。
其中,对齐是指将同一时间节点的跟踪特征数据和测量特征数据进行对齐。例如,记录的跟踪特征数据的时间戳是2019年10月10日10时10分10秒,则找到对应的时间节点的测量特征数据,将该时间节点的跟踪特征数据和测量特征数据对应存储,实现对齐。
步骤208,根据对齐后的所述跟踪特征数据与所述测量特征数据,确定所述跟踪算法的精度。
其中,跟踪算法的精度可指跟踪算法测得的跟踪特征数据的精确度。
上述跟踪算法的精度检测方法中,通过获取目标物体的跟踪特征数据及该跟踪特征数据的时间戳,再将测量特征数据作为跟踪特征数据的参考值,并将同一时间节点的跟踪特征数据和测量特征数据对齐,最后根据对齐后的跟踪特征数据和测量特征数据确定跟踪算法的精度。其中目标物体的测量特征数据更接近跟踪特征数据的真实值,减少了误差,得到的结果更加能够反映跟踪算法的精度,实现了对跟踪算法的精度的有效检测。此外,运用数据的时间戳将同一时间节点的跟踪特征数据和测量特征数据对齐,得到了多个时间节点的数据对,作为多个检测样本,从而保证了跟踪算法的精度的准确性。
在一实施例中,图3为获取跟踪特征数据步骤的流程示意图。如图3所示,步骤202包括:
步骤302,获取多帧跟踪数据的每一帧跟踪数据,进行目标检测,得到所述目标物体相对于运动对象的相对位置坐标,所述运动对象为通过跟踪算法获取所述目标物体的跟踪特征数据的设备。
跟踪数据可为运动对象的摄像头获取的包含周围物体运动状态信息的跟踪数据,也可为运动对象从其他摄像设备获取的包含周围物体运动状态信息的跟踪数据,还可为激光雷达采集的点云数据。
目标检测可指通过目标检测算法对跟踪数据中的物体进行的检测处理。目标物体的相对位置坐标可指在相对坐标系下目标物体的相对于运动对象的位置坐标。
具体地,本实施例中计算机设备100将运动对象的摄像头获取的图像数据进行分帧,得到多帧跟踪数据的每一帧数据,该图像数据包括目标物体的位置状态信息;对每帧图像数据进行目标检测,得到每帧跟踪数据中的目标物体的位置坐标,位置坐标可指目标物体在每帧跟踪数据中的位置坐标;再根据目标物体的位置坐标与该物体在实际空间位置坐标的对应关系,得到每帧跟踪数据中目标物体在实际空间中相对运动对象的相对位置坐标。
在一实施例中,在得到所述目标物体相对于运动对象的相对位置坐标之前,还包括:
获取所述多帧跟踪数据的每一帧跟踪数据中的目标物体的位置坐标,根据所述目标物体的跟踪数据位置坐标与所述目标物体的实际空间位置坐标的对应关系,得到所述每一帧跟踪数据中目标物体的相对位置坐标;对所述每一帧跟踪数据中目标物体的相对位置坐标进行滤波处理,得到滤波处理后的目标物体的相对位置坐标,将滤波处理后的目标物体的相对位置坐标作为所述目标物体相对于运动对象的相对位置坐标。滤波方式可包括卡尔曼滤波、扩展卡尔曼滤波、中值滤波、粒子滤波、加权递推平均滤波法、复合滤波等。
在一实施例中,获取多帧跟踪数据的每一帧跟踪数据,进行目标检测,得到所述目标物体相对于运动对象的相对位置坐标,包括:
获取多帧跟踪数据的上一帧跟踪数据和当前帧跟踪数据;
检测上一帧跟踪数据跟踪数据中的目标物体,得到所述目标物体的跟踪数据位置坐标,根据所述目标物体的跟踪数据位置坐标与所述目标物体的实际空间位置坐标的对应关系,得到所述上一帧跟踪数据中目标物体的相对位置坐标;
检测当前帧跟踪数据中的目标物体,得到所述目标物体的位置坐标,根据所述目标物体的位置坐标与所述目标物体的实际空间位置坐标的对应关系,得到所述当前帧跟踪数据中目标物体的相对位置坐标;
将所述上一帧跟踪数据中目标物体的相对位置坐标作为所述目标物体对应的第一相对位置坐标,以及将所述当前帧跟踪数据中目标物体的相对位置坐标作为所述目标物体对应的第二相对位置坐标。
在一实施例中,在所述将所述当前帧跟踪数据中目标物体的相对位置坐标作为所述目标物体对应的第二相对位置坐标之前,包括:根据所述上一帧跟踪数据中的目标物体的相对位置坐标,得到所述当前帧跟踪数据中的目标物体的相对位置坐标对应的估值范围;筛选所述当前帧跟踪数据中相对位置坐标满足对应的估值范围的物体;将满足对应的估值范围的目标物体的相对位置坐标作为所述目标物体的第二相对位置坐标。
在一实施例中,跟踪数据包括图像数据或点云数据跟踪数据。其中,根据跟踪数据中的位置坐标与物体的实际位置坐标的对应关系,可以得到目标物体实际位置。该跟踪数据可以是三维图像数据,也可以是二维图像数据。该三维图像数据可以是点云图像数据,也可以是深度图像数据,深度图像数据是指以灰度表达物体与摄像头距离的图像数据,还可以是CAD几何图像数据(Computer Aided Design,计算机辅助设计)。其中,深度图像数据的每个像素点的灰度值可用于表征场景中某一点距离摄像头的远近,深度图像数据经过坐标转换可以计算为点云数据。
步骤304,通过所述跟踪算法对所述目标物体进行跟踪处理,得到所述目标物体相对于所述运动对象的相对位移。
其中,跟踪处理可指计算机设备100根据跟踪算法将不同帧跟踪数据中的目标物体进行跟踪匹配,目标物体的相对位移可指在相对坐标系下目标物体的相对于运动对象的相对位移。
具体地,计算机设备100获取每帧跟踪数据的目标物体的相对位置坐标,根据跟踪算法将不同帧跟踪数据中的目标物体进行跟踪匹配,再根据不同帧跟踪数据中的目标物体的相对位置坐标进行差值计算,得到目标物体的相对于运动对象的相对位移。
步骤306,根据所述目标物体的相对位移及所述跟踪数据的帧与帧之间的时间差,计算得到所述目标物体相对于所述运动对象的跟踪速度值、跟踪加速度值、跟踪加加速度值,将所述跟踪速度值、跟踪加速度值、跟踪加加速度值作为所述目标物体的跟踪特征数据,并获取所述跟踪特征数据的时间戳。
其中,跟踪数据目标物体的跟踪速度值可指在相对坐标系下目标物体的相对于运动对象的相对速度。
具体地,计算机设备100获取目标物体相对于运动对象的相对位移,将该相对位移除以帧与帧之间的时间差,得到目标物体相对于运动对象的跟踪速度值,将该跟踪速度值除以帧与帧之间的时间差,得到目标物体相对于运动对象的跟踪加速度值,将该跟踪加速度值除以帧与帧之间的时间差,得到目标物体相对于运动对象的跟踪加加速度值,将该跟踪速度值、跟踪加速度值、跟踪加加速度值作为目标物体的跟踪特征数据,并获取该跟踪特征数据的时间戳。
在另一实施例中,在根据所述目标物体的相对位移及所述跟踪数据的帧与帧之间的时间差,计算得到所述目标物体相对于所述运动对象的跟踪速度值、跟踪加速度值、跟踪加加速度值之前,还包括:
对所述目标物体的跟踪速度值、跟踪加速度值、跟踪加加速度值进行滤波处理,得到滤波处理后的目标物体的跟踪速度值、跟踪加速度值、跟踪加加速度值,将滤波处理后的目标物体的跟踪速度值、跟踪加速度值、跟踪加加速度值作为所述目标物体相对于运动对象的跟踪速度值、跟踪加速度值、跟踪加加速度值。
由于目标物体的位置坐标、速度、加速度、加加速度的测量值有噪声,因此可根据滤波算法,利用目标物体在上一帧跟踪数据和当前帧跟踪数据的变化值进行过滤,使得获取的跟踪特征数据更可信。可对获取的目标物体的位置坐标进行滤波处理,还可对跟踪速度值、跟踪加速度值、跟踪加加速度值进行滤波处理。
上述获取跟踪特征数据步骤中,通过对多帧跟踪数据进行目标检测分析及跟踪处理得到目标物体的相对位移,根据该相对位移和跟踪数据帧与帧之间的时间差计算得到目标物体的跟踪速度值、跟踪加速度值、跟踪加加速度值,作为目标物体的跟踪特征数据。
上述获取跟踪加速度值步骤中,通过获取的跟踪速度值与帧间时间差计算得到目标物体的跟踪加速度值,结合获取的跟踪速度值,得到了更多的跟踪特征数据,将包含跟踪速度值和跟踪加速度值在内的多种跟踪特征数据作为检测样本,实现了跟踪算法的精度的多维度评估。
在另一实施例中,根据目标物体的跟踪速度值和帧与帧之间的时间差进行计算,得到目标物体的跟踪加速度值之后,包括:根据目标物体的跟踪加速度值和帧与帧之间的时间差进行计算,得到目标物体的跟踪加加速度值。
上述获取跟踪加加速度值步骤中,通过获取的跟踪加速度值与帧间时间差计算得到目标物体的跟踪加加速度值,结合获取的跟踪速度值及跟踪加速度值,得到了更多的跟踪特征数据,将包含跟踪速度值、跟踪加速度值、跟踪加加速度值在内的多种跟踪特征数据作为检测样本,实现了跟踪算法的精度的多维度评估。
在一实施例中,图4为获取相对位置坐标步骤的流程示意图。如图4所示,步骤302,包括:
步骤402,获取所述多帧跟踪数据的上一帧跟踪数据和当前帧跟踪数据。
其中,多帧跟踪数据可为运动对象的摄像头获取的包含目标物体运动状态信息的视频数据。当前帧跟踪数据可指从跟踪视频截取的当前时刻的跟踪数据。当前帧跟踪数据包含有目标物体的位置坐标信息。上一帧跟踪数据可指从跟踪视频截取的相对当前时刻的上一时刻的跟踪数据,上一帧跟踪数据包含有目标物体上一时刻的位置坐标信息。
步骤404,检测上一帧跟踪数据中的目标物体,得到目标物体的位置坐标,根据目标物体的跟踪数据位置坐标与所述目标物体的实际空间位置坐标的对应关系,得到所述上一帧跟踪数据中目标物体的相对位置坐标。
其中,位置坐标可指目标物体在跟踪数据中的位置坐标,该对应关系可指结合跟踪数据的深度特征信息,计算得到的目标物体的位置坐标与实际空间位置坐标的对应关系。深度特征信息可指通过深度摄像头采集的深度信息,反映摄像头与目标物体之间的距离。
具体地,计算机设备100将获取到上一帧跟踪数据进行目标检测,得到该跟踪数据中目标物体在该跟踪数据中的位置坐标,根据位置坐标与实际空间位置坐标的对应关系,将目标物体的位置坐标转换得到目标物体的相对位置坐标。
步骤406,检测当前帧跟踪数据中的目标物体,得到目标物体的位置坐标,根据所述目标物体的位置坐标与所述目标物体的实际空间位置坐标的对应关系,得到所述当前帧跟踪数据中目标物体的相对位置坐标。
具体地,将当前帧跟踪数据跟上一帧跟踪数据进行相同的处理。
上述获取相对位置坐标步骤中,通过目标检测出跟踪数据中的目标物体,并根据目标物体的位置坐标和空间位置坐标的对应关系,得到目标物体的相对位置坐标。
在一实施例中,如图5所示,获取相对位移步骤的流程示意图,步骤304包括:
步骤502,将所述上一帧跟踪数据中目标物体的相对位置坐标作为目标物体对应的第一相对位置坐标,以及将所述当前帧跟踪数据中目标物体的相对位置坐标作为目标物体对应的第二相对位置坐标。
其中,第一相对位置坐标和第二相对位置坐标分别指不同帧跟踪数据中目标物体的相对位置坐标,本实施例中具体指相邻两帧跟踪数据中目标物体的相对位置坐标,
步骤504,将所述上一帧跟踪数据和当前帧跟踪数据的中的目标物体进行跟踪配对,得到目标物体的第一相对位置坐标和第二相对位置坐标的对应关系。
具体地,计算机设备100根据跟踪算法检测出上一帧跟踪数据和当前帧跟踪数据中目标物体进行配对,得到目标物体的第一相对位置坐标和第二相对位置坐标的对应关系。
步骤506,根据所述第一相对位置坐标和第二相对位置坐标的对应关系,获取目标物体的第一相对位置坐标与第二相对位置坐标之间的差值,得到所述目标物体的相对于所述运动对象的相对位移。
具体地,计算机设备100计算目标物体的第一相对位置坐标与第二相对位置坐标的差值,得到目标物体相对于运动对象的相对位移。
上述获取相对位移步骤中,通过跟踪算法对每帧跟踪数据中的目标物体进行跟踪处理和位移计算,得到目标物体相对于运动对象的相对位移。
在一实施例中,在所述将所述当前帧跟踪数据中目标物体的相对位置坐标作为所述目标物体对应的第二相对位置坐标之后,包括:将所述上一帧跟踪数据和当前帧跟踪数据的中的目标物体进行跟踪配对,得到所述目标物体的第一相对位置坐标和第二相对位置坐标的对应关系;根据所述第一相对位置坐标和第二相对位置坐标的对应关系,获取目标物体的第一相对位置坐标与第二相对位置坐标之间的差值,得到所述目标物体的相对于所述运动对象的相对位移;根据所述运动对象的相对位移与所述跟踪数据的帧与帧之间的时间差,计算得到所述物体的相对于所述运动对象的相对速度值。
其中,跟踪数据的帧与帧之间的时间差在本实施例中可指相邻两帧之间的时间差,即上一帧跟踪数据和当前帧跟踪数据的时间差。具体地,计算机设备100根据上一帧跟踪数据和当前帧跟踪数据的时间差及该相对位移进行除法运算,得到目标物体的相对于运动对象的相对速度值。
上述实施例中对获取的目标物体的位置坐标进行了滤波处理,还可对相对速度值、相对加速度值、相对加加速度值进行滤波处理。由于目标物体的位置坐标、速度、加速度、加加速度的测量值有噪声,因此可根据滤波算法,利用目标物体在上一帧跟踪数据和当前帧跟踪数据的变化值进行过滤,使得获取的跟踪特征数据更可信。在另一实施例中,所述获取目标物体的测量特征数据及所述测量特征数据的时间戳,将所述测量特征数据作为所述跟踪特征数据的参考值,包括:根据速度传感器读取所述目标物体的测量特征数据,将所述测量特征数据作为所述目标物体的跟踪特征数据的参考值发送给运动对象;根据所述目标物体的测量特征数据获取所述测量特征数据的时间戳。其中,速度传感器可包括码盘、超波测速仪、空速管、微差压风速传感器等。
在另一实施例中,在所述获取跟踪特征数据的时间戳与所述测量特征数据的时间戳之前,包括:获取卫星时间戳,根据所述卫星时间戳将所述跟踪特征数据的时间戳与所述测量特征数据的时间戳同步。其中,卫星时间戳是指卫星数据的时间标识。
在另一实施例中,所述计算所述跟踪特征数据与所述对应测量特征数据的差值,根据所述差值确定所述跟踪算法的精度,包括:获取每一时间节点下所述跟踪特征数据与所述对应测量特征数据;计算每一时间节点下所述跟踪特征数据与所述对应测量特征数据的差值;根据所述每一时间节点下的差值确定所述跟踪算法的精度。
在另一实施例中,计算对齐后的所述跟踪特征数据与所述测量特征数据的差值,根据所述差值确定所述跟踪算法的精度,包括:根据获取的目标物体的各时间节点的跟踪特征数据和参考值,计算得到目标物体的各个时间节点的跟踪特征值与参考值的差值,将各个差值计算得到平均值,得到的平均值可作为该跟踪算法的精度。
在另一实施例中,计算对齐后的所述跟踪特征数据与所述测量特征数据的差值,根据所述差值确定所述跟踪算法的精度,包括:根据获取的目标物体的各时间节点的跟踪特征数据和参考值,计算得到目标物体的各个时间节点的跟踪特征值与参考值的差值,将各个差值计算得到中值,得到的中值可作为该跟踪算法的精度。
在另一实施例中,计算对齐后的所述跟踪特征数据与所述测量特征数据的差值,根据所述差值确定所述跟踪算法的精度,包括:根据获取的目标物体的各时间节点的跟踪特征数据和参考值,计算得到目标物体的各个时间节点的跟踪特征值与参考值的差值,将各个差值计算得到加权平均值,得到的加权平均值可作为该跟踪算法的精度。
在另一实施例中,如图6所示,一种跟踪算法的精度检测方法的流程示意图,其方法步骤包括:
步骤602,通过环境感知模块,获得目标物体在全局坐标系下的跟踪特征数据,所述跟踪特征数据包括速度值、加速度值、加加速度值。
其中,环境感知模块可指运动对象中用于获取周围环境数据的传感模块,包括目标检测模块,目标跟踪模块、定位模块。目标检测模块用于检测出预先指定的目标物体,目标跟踪模块用于通过关联图像中的目标物体获得目标物体相对运动对象的相对位移及相对速度,定位模块用于获取运动对象在全局坐标系下的位置。其中,全局坐标系(GlobalCoordinate System)用于定位几何实体的位置。其中,加加速度是指由加速度的变化量和时间决定的描述加速度变化快慢的物理量。
其中,运动对象可指测试跟踪算法的精度的测试车辆,目标物体可指在测试车辆周围的被测车辆。
具体地,测试车辆通过目标检测模块得到目标物体的相对位置坐标,再通过目标跟踪模块得到目标物体在定位模块不同帧图像间的位移,再根据不同帧图像间的时间差,得到目标物体在不同帧图像间的移动速度。该移动速度为相对本车产生的位移从而获得的速度,即为相对速度值。其中,根据不同帧图像间的相对速度值与不同帧图像间时间差,可获得物体的相对加速度值,根据不同帧图像间的相对加速度值与不同帧图像间时间差,可获得物体的相对加加速度值。最后通过定位模块将上述速度值、加速度值、加加速度值转换为全局坐标系下的数据。
定位模块可获得运动对象的传感器在地图中的位置,根据该位置和目标物体相对于运动对象的传感器的位置,得到目标物体在地图中的位置,得到目标物体在全局坐标系下的位置值,根据该位置值计算出来的速度值、加速度值、加加速度值,即为目标物体在全局坐标系下的速度值、加速度值、加加速度值。
由于物体的位置坐标、速度、加速度、加加速度的测量值往往有噪声,因此还可根据滤波算法,利用物体的在上一帧和当前帧的速度值的变化关系,过滤掉噪声,使得获取的跟踪结果更可信。滤波方式可包括卡尔曼滤波、扩展卡尔曼滤波、中值滤波、粒子滤波、加权递推平均滤波法、复合滤波等。
步骤604,通过从目标物体的速度传感器获得测量特征数据,将所述测量特征数据作为目标物体的跟踪特征数据的参考值,所述测量特征数据包括测量速度值、测量加速度值、测量加加速度值。
其中,目标物体可指在测试车辆周围的被测车辆,速度传感器可指码盘。具体地,将目标车辆的码盘获取的瞬时特征数据的作为目标车辆的跟踪特征数据的参考值,该参考值可用于和测试车辆获取的目标车辆的跟踪特征数据进行比较得到跟踪算法的精度。
具体地,测试车辆通过被测车辆的速度传感器获得测量特征数据,将测量特征数据作为测试车辆获取的被测车辆的跟踪特征数据的参考值。
步骤606,通过卫星时间同步,对环境感知模块和目标物体的速度传感器进行时间校准,并将同一时间节点的跟踪特征数据和测量特征数据进行对齐。
其中,卫星时间同步可指利用卫星时间给测试车辆传感设备和被测车辆传感设备授时,使得同一时间节点下测试车辆获取的跟踪特征数据和被测车辆获取的测量特征数据的时间戳上保持一致,从而可以使得数据对齐。数据对齐可指在环境感知模块的处理数据量较大的情况下进行离线数据处理,将同一时间节点的数据进行对齐。
步骤608,根据对齐后的数据,计算跟踪算法的精度。
具体地,计算机设备100计算测试车辆获取的被测车辆的跟踪特征数据和测量特征数据的差值,根据该差值计算跟踪算法的精度。
上述跟踪算法的精度检测方法,通过环境感知模块获取目标物体的跟踪特征数据,再通过目标物体的速度传感器获取其测量特征数据,通过将同一时间节点的测量特征数据作为跟踪特征数据同步,将对应时间节点的目标物体的测量特征数据作为跟踪特征数据的参考值,最后根据跟踪特征数据及对应参考值计算得到跟踪算法的精度,实现了跟踪算法的精度的有效检测。
应该理解的是,虽然图2-6的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-6中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,提供了一种跟踪算法的精度检测装置,包括:跟踪分析模块、参考值获取模块和精度计算模块,其中:
跟踪分析模块702,用于获取目标物体的跟踪特征数据及所述跟踪特征数据的时间戳,所述跟踪特征数据为根据跟踪算法计算得到的,所述跟踪特征数据包括跟踪速度值和跟踪加速度值中至少一种。
参考值获取模块704,用于获取目标物体的测量特征数据及所述测量特征数据的时间戳,将所述测量特征数据作为所述跟踪特征数据的参考值,所述测量特征数据包括测量速度值和测量加速度值中至少一种,所述测量特征数据与所述跟踪特征数据类型相同。
数据对齐模块706,用于根据所述跟踪特征数据的时间戳与所述测量特征数据的时间戳将所述跟踪特征数据和所述测量特征数据对齐.
精度计算模块708,用于根据对齐后的所述跟踪特征数据和所述测量特征数据,确定所述跟踪算法的精度。
其中,跟踪分析模块702包括:
坐标获取单元,用于获取多帧跟踪数据的每一帧跟踪数据,进行目标检测,得到所述跟踪数据中目标物体相对运动对象的相对位置坐标,所述运动对象为通过跟踪算法获取所述目标物体的跟踪特征数据的设备。
位移获取单元,用于通过所述跟踪算法对所述目标物体进行跟踪处理,得到所述目标物体相对于所述运动对象的相对位移。
速度计算单元,用于根据所述目标物体的相对位移及所述跟踪数据的帧与帧之间的时间差,计算得到所述目标物体相对于所述运动对象的相对速度值及相对加速度值,将所述相对速度值及相对加速度值作为所述目标物体的跟踪特征数据,并获取所述跟踪特征数据的时间戳。
其中,坐标获取单元还用于获取包括图像数据或点云数据的跟踪数据。
其中,参考值获取模块704包括:
第一数据获取单元,用于根据速度传感器读取所述目标物体的测量特征数据。
第二数据获取单元,用于根据所述目标物体的测量特征数据获取所述测量特征数据的时间戳。
其中,数据对齐模块706包括:
卫星同步单元,用于获取卫星时间戳,根据所述卫星时间戳确定所述跟踪特征数据的时间戳与所述测量特征数据的时间戳。
其中,精度计算模块708包括:
数据获取单元,用于获取取每一时间节点下所述跟踪特征数据与所述对应测量特征数据。
差值计算单元,用于计算每一时间节点下所述跟踪特征数据与所述对应测量特征数据的差值。
精度计算单元,用于根据所述每一时间节点下的差值确定所述跟踪算法的精度。
其中,精度计算单元还用于计算所有时间节点下的差值的平均值或加权平均值或中值,将所述平均值或加权平均值或中值作为所述跟踪算法的精度。
进一步地,坐标获取单元包括:
跟踪数据获取单元,用于获取多帧跟踪数据的上一帧跟踪数据和当前帧跟踪数据。
第一坐标获取单元,用于检测上一帧跟踪数据中的目标物体,得到目标物体的跟踪数据位置坐标,根据目标物体的跟踪数据位置坐标与所述目标物体的实际空间位置坐标的对应关系,得到所述上一帧跟踪数据中目标物体的相对位置坐标。
第二坐标获取单元,用于检测当前帧跟踪数据中的目标物体,得到目标物体的位置坐标,根据所述目标物体的位置坐标与所述目标物体的实际空间位置坐标的对应关系,得到所述当前帧跟踪数据中目标物体的相对位置坐标。
进一步地,位移获取单元包括:
坐标确定单元,用于将所述上一帧跟踪数据中目标物体的相对位置坐标作为目标物体对应的第一相对位置坐标,以及将所述当前帧跟踪数据中目标物体的相对位置坐标作为目标物体对应的第二相对位置坐标。
坐标对齐单元,用于将所述上一帧跟踪数据和当前帧跟踪数据的中的目标物体进行跟踪配对,得到所述目标物体的第一相对位置坐标和第二相对位置坐标的对应关系。
位移计算单元,用于根据所述第一相对位置坐标和第二相对位置坐标的对应关系,获取目标物体的第一相对位置坐标与第二相对位置坐标之间的差值,得到所述目标物体的相对于所述运动对象的相对位移。
关于跟踪算法的精度检测装置的具体限定可以参见上文中对于跟踪算法的精度检测方法的限定,在此不再赘述。上述跟踪算法的精度检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种跟踪算法的精度检测方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述跟踪算法的精度检测方法步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述跟踪算法的精度检测方法步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种跟踪算法的精度检测方法,所述方法包括:
获取目标物体的跟踪特征数据及所述跟踪特征数据的时间戳,所述跟踪特征数据为根据跟踪算法计算得到的,所述跟踪特征数据包括跟踪速度值、跟踪加速度值、跟踪加加速度值中至少一种;
获取目标物体的测量特征数据及所述测量特征数据的时间戳,将所述测量特征数据作为所述跟踪特征数据的参考值所述测量特征数据包括测量速度值、测量加速度值、测量加加速度值中至少一种,所述测量特征数据与所述跟踪特征数据类型相同;
根据所述跟踪特征数据的时间戳与所述测量特征数据的时间戳将所述跟踪特征数据和所述测量特征数据对齐;
根据对齐后的所述跟踪特征数据与所述测量特征数据,确定所述跟踪算法的精度。
2.根据权利要求1所述的方法,其特征在于,所述获取目标物体的跟踪特征数据及所述跟踪特征数据的时间戳,包括:
获取多帧跟踪数据的每一帧跟踪数据,进行目标检测,得到所述目标物体相对于运动对象的相对位置坐标,所述运动对象为通过跟踪算法获取所述目标物体的跟踪特征数据的设备;
通过所述跟踪算法对所述目标物体进行跟踪处理,得到所述目标物体相对于所述运动对象的相对位移;
根据所述目标物体的相对位移及所述跟踪数据的帧与帧之间的时间差,计算得到所述目标物体相对于所述运动对象的相对速度值及相对加速度值,将所述相对速度值及相对加速度值作为所述目标物体的跟踪特征数据,并获取所述跟踪特征数据的时间戳。
3.根据权利要求2所述的方法,其特征在于,所述跟踪数据包括图像数据或点云数据。
4.根据权利要求1所述的方法,其特征在于,所述获取目标物体的测量特征数据及所述测量特征数据的时间戳,将所述测量特征数据作为所述跟踪特征数据的参考值,包括:
根据速度传感器读取所述目标物体的测量特征数据;
根据所述目标物体的测量特征数据获取所述测量特征数据的时间戳。
5.根据权利要求1所述的方法,其特征在于,在所述获取跟踪特征数据的时间戳与所述测量特征数据的时间戳之前,包括:
获取卫星时间戳,根据所述卫星时间戳确定所述跟踪特征数据的时间戳与所述测量特征数据的时间戳。
6.根据权利要求1所述的方法,其特征在于,所述根据所述对齐后的所述跟踪特征数据与所述测量特征数据,确定所述跟踪算法的精度,包括:
获取每一时间节点下所述跟踪特征数据与所述对应测量特征数据;
计算每一时间节点下所述跟踪特征数据与所述对应测量特征数据的差值;
根据所述每一时间节点下的差值确定所述跟踪算法的精度。
7.根据权利要求6所述的方法,其特征在于,所述根据所述每一时间节点下的差值确定所述跟踪算法的精度包括:
计算所有时间节点下的差值的平均值或加权平均值或中值,将所述平均值或加权平均值或中值作为所述跟踪算法的精度。
8.一种跟踪算法的精度测评装置,其特征在于,所述装置包括:
跟踪分析模块,用于获取所述目标物体的跟踪特征数据及所述跟踪特征数据的时间戳,所述跟踪特征数据为根据跟踪算法计算得到的,所述跟踪特征数据包括跟踪速度值、跟踪加速度值、跟踪加加速度值中至少一种;
参考值获取模块,用于获取所述目标物体的测量特征数据及所述测量特征数据的时间戳,将所述测量特征数据作为所述跟踪特征数据的参考值,所述测量特征数据包括测量速度值、测量加速度值、测量加加速度值中至少一种,所述测量特征数据与所述跟踪特征数据类型相同;
数据对齐模块,用于根据所述跟踪特征数据的时间戳与所述测量特征数据的时间戳将所述跟踪特征数据和所述测量特征数据对齐;
精度计算模块,用于根据对齐后的所述跟踪特征数据和所述测量特征数据,确定所述跟踪算法的精度。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN201910204081.XA 2019-03-18 2019-03-18 跟踪算法的精度检测方法、装置、计算机设备和存储介质 Active CN111723826B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910204081.XA CN111723826B (zh) 2019-03-18 2019-03-18 跟踪算法的精度检测方法、装置、计算机设备和存储介质
CN202310928276.5A CN117152569A (zh) 2019-03-18 2019-03-18 跟踪算法的精度检测装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910204081.XA CN111723826B (zh) 2019-03-18 2019-03-18 跟踪算法的精度检测方法、装置、计算机设备和存储介质

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202310928276.5A Division CN117152569A (zh) 2019-03-18 2019-03-18 跟踪算法的精度检测装置

Publications (2)

Publication Number Publication Date
CN111723826A true CN111723826A (zh) 2020-09-29
CN111723826B CN111723826B (zh) 2023-08-29

Family

ID=72562311

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202310928276.5A Pending CN117152569A (zh) 2019-03-18 2019-03-18 跟踪算法的精度检测装置
CN201910204081.XA Active CN111723826B (zh) 2019-03-18 2019-03-18 跟踪算法的精度检测方法、装置、计算机设备和存储介质

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202310928276.5A Pending CN117152569A (zh) 2019-03-18 2019-03-18 跟踪算法的精度检测装置

Country Status (1)

Country Link
CN (2) CN117152569A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113280854A (zh) * 2021-04-02 2021-08-20 无锡先导智能装备股份有限公司 感应加热装置的监测方法、装置、计算机设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030120448A1 (en) * 2001-02-08 2003-06-26 Netmor Ltd. System for three dimensional positioning and tracking
CN102222341A (zh) * 2010-04-16 2011-10-19 东软集团股份有限公司 运动特征点检测方法及装置、运动目标检测方法及装置
CN103942811A (zh) * 2013-01-21 2014-07-23 中国电信股份有限公司 分布式并行确定特征目标运动轨迹的方法与系统
CN107341831A (zh) * 2017-07-06 2017-11-10 青岛海通胜行智能科技有限公司 一种imu辅助的视觉特征鲁棒跟踪方法及装置
CN107481284A (zh) * 2017-08-25 2017-12-15 京东方科技集团股份有限公司 目标物跟踪轨迹精度测量的方法、装置、终端及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030120448A1 (en) * 2001-02-08 2003-06-26 Netmor Ltd. System for three dimensional positioning and tracking
CN102222341A (zh) * 2010-04-16 2011-10-19 东软集团股份有限公司 运动特征点检测方法及装置、运动目标检测方法及装置
CN103942811A (zh) * 2013-01-21 2014-07-23 中国电信股份有限公司 分布式并行确定特征目标运动轨迹的方法与系统
CN107341831A (zh) * 2017-07-06 2017-11-10 青岛海通胜行智能科技有限公司 一种imu辅助的视觉特征鲁棒跟踪方法及装置
CN107481284A (zh) * 2017-08-25 2017-12-15 京东方科技集团股份有限公司 目标物跟踪轨迹精度测量的方法、装置、终端及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113280854A (zh) * 2021-04-02 2021-08-20 无锡先导智能装备股份有限公司 感应加热装置的监测方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN111723826B (zh) 2023-08-29
CN117152569A (zh) 2023-12-01

Similar Documents

Publication Publication Date Title
CN110766716B (zh) 一种空间未知运动目标的信息获取方法及系统
US10636168B2 (en) Image processing apparatus, method, and program
CN108871311B (zh) 位姿确定方法和装置
WO2015134795A2 (en) Method and system for 3d capture based on structure from motion with pose detection tool
CN105103089B (zh) 用于基于视频输入生成准确传感器校正的系统和方法
US20180128620A1 (en) Method, apparatus, and system for determining a movement of a mobile platform
KR101890612B1 (ko) 적응적 관심영역 및 탐색창을 이용한 객체 검출 방법 및 장치
EP4155673A1 (en) Extrinsic parameter change detection method and apparatus, electronic device, and detection system
CN111723597B (zh) 跟踪算法的精度检测方法、装置、计算机设备和存储介质
US20180075614A1 (en) Method of Depth Estimation Using a Camera and Inertial Sensor
CN113447923A (zh) 目标检测方法、装置、系统、电子设备及存储介质
CN114359334A (zh) 目标跟踪方法、装置、计算机设备和存储介质
CN112629565B (zh) 像机与惯性测量单元旋转关系校准方法、装置和设备
CN112907671B (zh) 点云数据生成方法、装置、电子设备及存储介质
CN111723826B (zh) 跟踪算法的精度检测方法、装置、计算机设备和存储介质
CN111721283B (zh) 定位算法的精度检测方法、装置、计算机设备和存储介质
CN110706257B (zh) 有效特征点对的识别方法、相机状态的确定方法及装置
CN115272408A (zh) 车辆静止检测方法、装置、计算机设备和存储介质
JP5230354B2 (ja) 位置特定装置及び異動建物検出装置
CN110456347B (zh) 地形测量方法、装置、计算机设备和存储介质
JP2021169990A (ja) 測位システム、方法及びプログラム
CN113916213A (zh) 定位方法、装置、电子设备和计算机可读存储介质
JP7346342B2 (ja) 計測装置、計測方法およびプログラム
Feng Switching from Vitamin K Antagonists to Non-vitamin K Oral Anticoagulants, Drug-Drug Interactions, and Health Outcomes among Working-Age Adults with Atrial Fibrillation
WO2020255231A1 (ja) 変位測定装置、変位測定方法、コンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant