CN111723597A - 跟踪算法的精度检测方法、装置、计算机设备和存储介质 - Google Patents
跟踪算法的精度检测方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111723597A CN111723597A CN201910205057.8A CN201910205057A CN111723597A CN 111723597 A CN111723597 A CN 111723597A CN 201910205057 A CN201910205057 A CN 201910205057A CN 111723597 A CN111723597 A CN 111723597A
- Authority
- CN
- China
- Prior art keywords
- obstacle
- tracking
- value
- relative
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种跟踪算法的精度检测方法、装置、计算机设备及存储介质。所述方法包括:获取至少一个目标障碍物的跟踪特征值,所述跟踪特征值为根据跟踪算法计算得到的;所述跟踪特征值包括跟踪速度值和跟踪加速度值中至少一种;获取运动物体的运动特征值,将所述运动特征值作为所述至少一个目标障碍物的跟踪特征值的参考值;计算所述至少一个跟踪特征值和所述参考值的差值,根据所述差值确定所述跟踪算法的精度。采用将运动物体的运动特征值作为跟踪特征值的参考值,且将至少一个目标障碍物的跟踪特征值作为检测样本,保证了精度检测的准确性,实现了对跟踪算法的精度的有效检测。
Description
技术领域
本申请涉及无人驾驶技术领域,特别是涉及一种跟踪算法的精度检测方法、装置、计算机设备和存储介质。
背景技术
随着无人驾驶开发领域的发展,跟踪模块成为无人驾驶技术中非常重要的功能模块。跟踪模块主要用于获取周围障碍物的跟踪速度,以提供障碍物状态信息给到无人驾驶车辆。其中,跟踪算法可结合其他辅助算法实现跟踪模块的主要功能。
然而,目前的跟踪算法的精确度很难评测,因为难以获取周围障碍物的真实速度值,无法将跟踪算法得到的周围障碍物的跟踪速度值与其真实速度值进行比较,从而检测出跟踪算法的精度。传统的可通过离线人工对目标障碍物进行标注的方式,可以获取到相对较准的周围障碍物的真实速度值,但该方法需要耗费大量的时间成本和人力的成本。因此,存在跟踪算法的精度难以检测的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种跟踪算法的精度检测方法、装置、计算机设备和存储介质。
一种跟踪算法的精度检测方法,所述方法包括:
获取至少一个目标障碍物的跟踪特征值,所述跟踪特征值为根据跟踪算法计算得到的;所述跟踪特征值包括跟踪速度值和跟踪加速度值中至少一种;
获取运动物体的运动特征值,将所述运动特征值作为所述至少一个目标障碍物的跟踪特征值的参考值;
计算所述至少一个目标障碍物的跟踪特征值和所述参考值的差值,根据所述差值确定所述跟踪算法的精度。
在其中一个实施例中,所述获取至少一个目标障碍物的跟踪特征值,所述跟踪特征值为根据跟踪算法计算得到的;所述跟踪特征值包括跟踪速度值和跟踪加速度值中至少一种包括:
获取多帧图像中的每一帧图像,进行目标检测,得到所述图像中每个障碍物相对运动物体的相对位置坐标;
通过所述跟踪算法对所述每个障碍物进行跟踪处理,得到所述每个障碍物相对于所述运动物体的相对位移;
根据所述每个障碍物的相对位移及所述图像的帧与帧之间的时间差,计算得到所述每个障碍物相对于所述运动物体的相对速度值;
将所述每个障碍物的相对速度值转换到大地坐标系下,得到所述每个障碍物在大地坐标系下的速度值;
根据所述每个障碍物在大地坐标系下的速度值,筛选出大地坐标系下的速度值在0的预设邻域范围内的障碍物,作为目标障碍物;
根据所述每个障碍物相对于所述运动物体的相对速度值,筛选出所述目标障碍物相对于所述运动物体的相对速度值,作为所述目标障碍物的跟踪速度值。
在其中一个实施例中,所述获取多帧图像中的每一帧图像,进行目标检测,得到所述图像中每个障碍物相对运动物体的相对位置坐标包括:
获取所述多帧图像中的上一帧图像和当前帧图像;
检测上一帧图像中的每个障碍物,得到每个障碍物的图像位置坐标,根据每个障碍物的图像位置坐标与所述障碍物的实际空间位置坐标的对应关系,得到所述上一帧图像中每个障碍物的相对位置坐标;
检测当前帧图像中的每个障碍物,得到每个障碍物的图像位置坐标,根据所述每个障碍物的图像位置坐标与所述障碍物的实际空间位置坐标的对应关系,得到所述当前帧图像中每个障碍物的相对位置坐标;
所述通过所述跟踪算法对所述每个障碍物进行跟踪处理,得到所述每个障碍物相对于所述运动物体的相对位移包括:
将所述上一帧图像中每个障碍物的相对位置坐标作为每个障碍物对应的第一相对位置坐标,以及将所述当前帧图像中每个障碍物的相对位置坐标作为每个障碍物对应的第二相对位置坐标;
将所述上一帧图像和当前帧图像的中的同一障碍物进行跟踪配对,得到所述同一障碍物的第一相对位置坐标和第二相对位置坐标的对应关系;
根据所述第一相对位置坐标和第二相对位置坐标的对应关系,获取每个障碍物的第一相对位置坐标与第二相对位置坐标之间的差值,得到所述每个障碍物的相对于所述运动物体的相对位移。
在其中一个实施例中,所所述检测当前帧图像中的每个障碍物,得到每个障碍物的图像位置坐标,根据所述每个障碍物的图像位置坐标与所述障碍物的实际空间位置坐标的对应关系,得到所述当前帧图像中每个障碍物的相对位置坐标之后,还包括:
根据所述上一帧图像中的每个障碍物的相对位置坐标,得到所述当前帧图像中的每个障碍物的相对位置坐标对应的估值范围;
筛选所述当前帧图像中相对位置坐标满足对应的估值范围的障碍物;
所述将所述当前帧图像中每个障碍物的相对位置坐标作为每个障碍物对应的第二相对位置坐标,包括:
将满足对应的估值范围的障碍物的相对位置坐标作为所述障碍物的第二相对位置坐标。
在其中一个实施例中,所述根据所述相对位移及所述图像的帧与帧之间的时间差,计算得到所述障碍物的相对于所述本体的相对速度值包括:
计算所述上一帧图像和当前帧图像的时间差,根据所述相对位移除以所述时间差,得到所述障碍物的相对于所述运动物体的相对速度值。
在其中一个实施例中,所述获取运动物体的运动特征值,将所述运动特征值作为所述至少一个目标障碍物的跟踪特征值的参考值包括:
根据运动物体中搭载的速度传感器读取所述运动物体的运动特征值,作为所述至少一个目标障碍物的跟踪特征值的参考值。
在其中一个实施例中,所述图像包括二维图像和/或三维图像。
一种跟踪算法的精度检测装置,所述装置包括:
跟踪分析模块,用于获取至少一个目标障碍物的跟踪特征值;
参考值获取模块,用于获取运动物体的运动特征值,将所述运动特征值作为所述至少一个目标障碍物的跟踪特征值的参考值;
精度计算模块,用于计算所述至少一个跟踪特征值和所述参考值的差值,根据所述差值确定所述跟踪算法的精度。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述跟踪算法的精度检测步骤:
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述跟踪算法的精度检测步骤:
上述跟踪算法的精度检测方法、装置、计算机设备和存储介质,通过获取至少一个目标障碍物的跟踪特征值,将至少一个目标障碍物的跟踪特征值作为检测样本,再将运动物体的运动特征值作为跟踪特征值的参考值,最后将至少一个目标障碍物的跟踪特征值和参考值的差值进行比较,进而得到跟踪算法的精度。其中运动物体的运动特征值较其他约定参考值容易获得,且使用多个检测样本,保证了精度检测的准确性,实现了对跟踪算法的精度的有效检测。
附图说明
图1为一个实施例中跟踪算法的精度检测方法的应用环境图;
图2为一个实施例中跟踪算法的精度检测方法的流程示意图;
图3为一个实施例中获取跟踪特征值步骤的流程示意图;
图4为一个实施例中获取障碍物相对位置坐标步骤的流程示意图;
图5为一个实施例中获取障碍物相对位移步骤的流程示意图;
图6为另一个实施例中跟踪算法的精度检测方法的流程示意图;
图7为一个实施例中跟踪算法的精度检测装置的结构框图;
图8为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本申请,并不用于限定本申请。
图1为一个实施例中跟踪算法的精度检测的应用环境图。本申请实施例提供的跟踪算法的精度检测方法,可以应用于如图1所示的应用环境中。其中,计算机设备100可以是台式终端或移动终端,移动终端具体可以是手机、平板电脑、笔记本电脑、穿戴式设备、个人数字助理等。计算机设备100也可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
图2为在一个实施例中的跟踪算法的精度检测方法的流程示意图。如图2所示,一种跟踪算法的精度检测方法,以该方法应用于图1中的计算机设备100为例进行说明,包括以下步骤:
步骤202,获取至少一个目标障碍物的跟踪特征值,所述跟踪特征值为根据跟踪算法计算得到的;所述跟踪特征值包括跟踪速度值和跟踪加速度值中至少一种。
其中,目标障碍物可指运动物体的周围障碍物中可被选为检测样本的障碍物,目标障碍物可包括人、车等。跟踪算法是指获取运动物体周围障碍物的跟踪特征值的算法。跟踪特征值可指跟踪算法获取的目标障碍物相对于运动物体的相对速度值和/或相对加速度值。
具体地,计算机设备100从摄像头或传感器获取多帧图像,根据多帧图像中的视频数据进行数据分析,得到运动物体的周围障碍物的跟踪特征值,再根据周围障碍物的跟踪特征值对周围障碍物进行筛选,得到目标障碍物,将得到的目标障碍物的跟踪特征值作为跟踪算法的精度检测样本。
步骤204,获取运动物体的运动特征值,将所述运动特征值作为所述至少一个目标障碍物的跟踪特征值的参考值。
运动物体可指需要获取周围障碍物状态信息的移动中的装置,运动物体可为无人驾驶车辆、无人机、移动机器人、移动视频监测设备等。运动特征值可指瞬时速度值和/或瞬时加速度值和/或平均速度值。
其中,本实施例约定运动物体的运动特征值作为目标障碍物的跟踪特征值的参考值。
具体地,计算机设备100通过运动物体的传感器获取运动物体的运动特征值,将该运动特征值作为目标障碍物的跟踪特征值的参考值。传感器可指速度传感器。
步骤206,计算所述至少一个目标障碍物的跟踪特征值和所述参考值的差值,根据所述差值确定所述跟踪算法的精度。
其中,跟踪算法的精度可指跟踪算法测得的跟踪特征值的精确度,本实施例中参考值可指运动物体的运动特征值,该跟踪算法的精度可根据计算机设备100获取的目标障碍物的跟踪特征值和运动物体的运动特征值计算差值得到。
在一实施例中,计算所述至少一个目标障碍物的跟踪特征值和所述参考值的差值,根据所述差值确定所述跟踪算法的精度,包括:根据获取的至少一个目标障碍物的跟踪特征值和参考值,计算得到各个目标障碍物的跟踪特征值与参考值的差值,将各个差值计算得到平均值,得到的平均值可作为该跟踪算法的精度。
在一实施例中,计算所述至少一个目标障碍物的跟踪特征值和所述参考值的差值,根据所述差值确定所述跟踪算法的精度,包括:根据获取的至少一个目标障碍物的跟踪特征值和参考值,计算得到各个目标障碍物的跟踪特征值与参考值的差值,将各个差值计算得到中值或最大值或最小值或方差,得到的中值或最大值或最小值或方差可作为该跟踪算法的精度。
上述跟踪算法的精度检测方法中,通过跟踪算法获取至少一个目标障碍物的跟踪特征值,将至少一个目标障碍物的跟踪特征值作为检测样本,再将运动物体的运动特征值作为跟踪特征值的参考值,最后将跟踪特征值和参考值的差值进行比较,进而得到跟踪算法的精度。本实施例中采用至少一个目标障碍物的跟踪特征值作为精度检测样本,并设定运动物体的运动特征值为跟踪特征值的参考值,实现了对跟踪算法的精度的有效检测。
在一实施例中,如图3所示,获取跟踪特征值步骤的流程示意图,参照图3,步骤202包括:
步骤302,获取多帧图像中的每一帧图像,进行目标检测,得到所述图像中每个障碍物相对运动物体的相对位置坐标。
多帧图像中可为运动物体的摄像头获取的包含周围障碍物运动状态信息的视频数据,也可为运动物体从其他摄像设备获取的包含周围障碍物运动状态信息的视频数据。
目标检测可指通过目标检测算法对多帧图像中中的障碍物进行的检测处理,障碍物的相对位置坐标可指在相对坐标系下运动物体周围障碍物的相对于运动物体的位置坐标。
具体地,计算机设备100将运动物体的摄像头或传感器获取的多帧图像进行分帧,得到多帧图像中的每一帧图像,该图像包括障碍物的位置状态信息;对每帧图像进行目标检测,得到每帧图像中的每个障碍物的图像位置坐标,图像位置坐标可指每个障碍物在每帧图像中的位置坐标;再根据每个障碍物的图像位置坐标与该障碍物在实际空间位置坐标的对应关系,得到每帧图像中每个障碍物在实际空间中相对运动物体的相对位置坐标。
步骤304,通过所述跟踪算法对所述每个障碍物进行跟踪处理,得到所述每个障碍物相对于所述运动物体的相对位移。
其中,跟踪处理可指计算机设备100根据跟踪算法将不同帧图像中的同一障碍物进行跟踪匹配,障碍物的相对位移可指在相对坐标系下运动物体周围障碍物的相对于运动物体的相对位移。
具体地,计算机设备100获取每帧图像的每个障碍物的相对位置坐标,根据跟踪算法将不同帧图像中的同一障碍物进行跟踪匹配,再根据不同帧图像中的同一障碍物的相对位置坐标进行差值计算,得到每个障碍物的相对于运动物体的相对位移。
步骤306,根据所述每个障碍物的相对位移及所述图像的帧与帧之间的时间差,计算得到所述每个障碍物相对于所述运动物体的相对速度值。
其中,帧与帧之间的时间差可指根据多帧图像数据获取的图像帧之间的时间差值,障碍物的相对速度值可指在相对坐标系下运动物体周围障碍物的相对于运动物体的相对速度。
具体地,计算机设备100获取每个障碍物相对于运动物体的相对位移,将该相对位移除以帧与帧之间的时间差,得到每个障碍物相对于运动物体的相对速度值。
步骤308,将所述每个障碍物的相对速度值转换到大地坐标系下,得到所述每个障碍物在大地坐标系下的速度值。
其中,大地坐标系可指包括大地经度L、大地纬度B和大地高H的3个坐标分量的大地坐标系。障碍物在大地坐标系下的速度值可指在大地坐标系下运动物体周围障碍物的实际速度。
具体地,计算机设备100获取每个障碍物在相对坐标系下的相对速度值,与坐标系转换参数进行权值计算,得到每个障碍物在大地坐标系下的速度值。
步骤310,根据所述每个障碍物在大地坐标系下的速度值,筛选出大地坐标系下的速度值在0的预设邻域范围内的障碍物,作为目标障碍物。
其中,0的预设邻域范围可指预设区间在0的邻域范围内的数值范围。
具体地,计算机设备100获取每个障碍物在大地坐标系下的速度值,若该速度值在0的预设邻域范围内,则将该速度值对应的障碍物作为大地坐标系下的呈现静止状态的障碍物,将该障碍物作为目标障碍物。其中,目标障碍物用于跟踪算法获取其跟踪速度值和/或跟踪加速度值,将其跟踪速度值和/或跟踪加速度值作为精度检测的样本。
步骤312,根据所述每个障碍物相对于所述运动物体的相对速度值,筛选出得到所述目标障碍物相对于所述运动物体的相对速度值,作为所述目标障碍物的跟踪速度值。
具体地,计算机设备100获取每个障碍物在相对坐标系下相对于运动物体的相对速度值,筛选出其中目标障碍物相对于运动物体的相对速度值,将该相对速度值作为该目标障碍物的跟踪速度值。
上述获取跟踪特征值步骤中,通过对多帧图像进行目标检测分析及跟踪处理得到运动物体周围障碍物的相对位移,根据该相对位移和图像帧与帧之间的时间差计算得到运动物体周围障碍物的相对速度值,然后将该相对速度值转换为大地坐标系下的速度值,根据该速度值筛选出目标障碍物,得到目标障碍物的跟踪特征值。其中,通过筛选满足大地坐标系下的速度值在0的预设邻域范围内的障碍物作为目标障碍物,得到了用于跟踪算法的精度检测的多个检测样本,从而保证了跟踪算法精度检测的准确性。
在另一实施例中,将所述目标障碍物的绝对速度值转换到相对坐标系下,得到所述目标障碍物相对于所述运动物体的相对速度值,作为所述目标障碍物的跟踪速度值之后,包括:根据目标障碍物的跟踪速度值和帧与帧之间的时间差进行计算,得到目标障碍物的跟踪加速度值。
上述获取跟踪加速度值步骤中,通过获取的跟踪速度值与帧间时间差计算得到目标障碍物的跟踪加速度值,结合获取的跟踪速度值,得到了更多的跟踪特征数据。
在一实施例中,如图4所示,获取障碍物相对位置坐标步骤的流程示意图,参照图4,步骤302包括:
步骤402,获取所述多帧图像中的上一帧图像和当前帧图像。
其中,多帧图像可为运动物体的摄像头或传感器获取的包含周围障碍物运动状态信息的视频数据,当前帧图像可指从多帧图像中截取的当前时刻的图像,当前帧图像包含有周围障碍物的位置坐标信息,上一帧图像可指从多帧图像中截取的相对当前时刻的上一时刻的图像,上一帧图像包含有周围障碍物上一时刻的位置坐标信息。
步骤404,检测上一帧图像中的每个障碍物,得到每个障碍物的图像位置坐标,根据每个障碍物的图像位置坐标与所述障碍物的实际空间位置坐标的对应关系,得到所述上一帧图像中每个障碍物的相对位置坐标。
其中,图像位置坐标可指障碍物在图像中的位置坐标,该对应关系可指结合图像的深度特征信息,计算得到的障碍物的图像位置坐标与实际空间位置坐标的对应关系。
具体地,计算机设备100将获取到上一帧图像进行目标检测,得到该图像中所有障碍物在该图像中的位置坐标,根据图像位置坐标与实际空间位置坐标的对应关系,将每个障碍物的图像位置坐标转换得到每个障碍物的相对位置坐标。
步骤406,检测当前帧图像中的每个障碍物,得到每个障碍物的图像位置坐标,根据所述每个障碍物的图像位置坐标与所述障碍物的实际空间位置坐标的对应关系,得到所述当前帧图像中每个障碍物的相对位置坐标。
具体地,将当前帧图像跟上一帧图像进行相同的处理。
上述获取障碍物相对位置坐标步骤中,通过目标检测出图像中的所有障碍物,并根据每个障碍物的图像位置坐标和空间位置坐标的对应关系,得到每个障碍物的相对位置坐标。
在另一实施例中,检测当前帧图像中的每个障碍物,得到每个障碍物的图像位置坐标,根据每个障碍物的图像位置坐标与障碍物的实际空间位置坐标的对应关系,得到当前帧图像中每个障碍物的相对位置坐标之后,还包括:
根据所述上一帧图像中的每个障碍物的相对位置坐标,得到当前帧图像中的每个障碍物的相对位置坐标对应的估值范围;筛选当前帧图像中相对位置坐标满足对应的估值范围的障碍物。其中估值范围可指上一帧图像中的每个障碍物的相对位置坐标的邻域范围,可作为当前帧图像中的对应障碍物的相对位置坐标的参考范围,若不在此范围内,该相对位置坐标将被过滤。
所述将当前帧图像中每个障碍物的相对位置坐标作为每个障碍物对应的第二相对位置坐标,包括:将满足对应的估值范围的障碍物的相对位置坐标作为所述障碍物的第二相对位置坐标。其中,满足对应的估值范围的障碍物的相对位置坐标可指,在上一帧图像中的每个障碍物的相对位置坐标的邻域范围内的,当前帧图像中的对应障碍物的相对位置坐标。
进一步地,根据上一帧图像中的每个障碍物的相对位置坐标与当前帧图像中的每个障碍物的相对位置坐标,结合帧间时间差计算得到上一帧图像的速度值和当前帧图像的速度值。
例如,假设上一时刻测得障碍物的速度值是10,那当前时刻测得障碍物的的速度值就不可能为30,如果上一时刻测得本车的速度值是10,那当前时刻的障碍物的实际速度的估值范围应在10-15区间内。
上述过滤步骤中,通过将上一帧图像中每个障碍物的相对位置坐标得到当前帧图像中的对应障碍物的相对位置坐标的估值范围,再筛选当前帧图像中相对位置坐标满足对应的估值范围的障碍物,得到优化后的相对位置坐标。
在一实施例中,如图5所示,获取障碍物相对位移步骤的流程示意图,参照图5,步骤304包括:
步骤502,将所述上一帧图像中每个障碍物的相对位置坐标作为每个障碍物对应的第一相对位置坐标,以及将所述当前帧图像中每个障碍物的相对位置坐标作为每个障碍物对应的第二相对位置坐标。
其中,第一相对位置坐标和第二相对位置坐标分别指不同帧图像中每个障碍物的相对位置坐标,本实施例中具体指相邻两帧图像中每个障碍物的相对位置坐标,
步骤504,将所述上一帧图像和当前帧图像的中的同一障碍物进行跟踪配对,得到所述同一障碍物的第一相对位置坐标和第二相对位置坐标的对应关系。
具体地,计算机设备100根据跟踪算法检测出上一帧图像和当前帧图像中具备相同或相近特征的障碍物,将其作为同一障碍物进行配对,得到该障碍物的第一相对位置坐标和第二相对位置坐标的对应关系。
步骤506,根据所述第一相对位置坐标和第二相对位置坐标的对应关系,获取每个障碍物的第一相对位置坐标与第二相对位置坐标之间的差值,得到所述每个障碍物的相对于所述运动物体的相对位移。
具体地,计算机设备100计算每个障碍物的第一相对位置坐标与第二相对位置坐标的差值,得到每个障碍物相对于运动物体的相对位移。
上述获取障碍物相对位移步骤中,通过跟踪算法对每帧图像中的同一障碍物进行跟踪处理和位移计算,得到每个障碍物相对于运动物体的相对位移。
在一实施例中,所述根据所述相对位移及所述图像的帧与帧之间的时间差,计算得到所述障碍物的相对于所述本体的相对速度值包括:计算所述上一帧图像和当前帧图像的时间差,根据所述相对位移除以所述时间差,得到所述障碍物的相对于所述运动物体的相对速度值。
其中,图像的帧与帧之间的时间差在本实施例中可指相邻两帧之间的时间差,即上一帧图像和当前帧图像的时间差。具体地,计算机设备100根据上一帧图像和当前帧图像的时间差及该相对位移进行除法运算,得到该障碍物的相对于运动物体的相对速度值。
在一实施例中,所述获取运动物体的运动特征值,将所述运动特征值作为所述至少一个目标障碍物的跟踪特征值的参考值包括:根据速度传感器读取所述运动物体的运动特征值,作为所述至少一个目标障碍物的跟踪特征值的参考值。
其中,速度传感器可包括码盘、超波测速仪、空速管、微差压风速传感器等。具体地,计算机设备100根据运动物体的速度传感器读取运动物体的运动特征值,再将该运动特征值作为目标障碍物的跟踪特征值的参考值。
在另一实施例中,如图6所示,一种跟踪算法的精度检测方法的流程示意图,其方法步骤包括:
步骤602,通过目标检测算法和跟踪算法获取对本车周围障碍物相对于本车的相对位置坐标和/或相对速度值和/或相对加速度。
其中,跟踪算法可关联不同帧图像间的障碍物。本车可指测试跟踪算法的精度的测试车辆,周围障碍物可指在本车周围的被测物体,周围障碍物可为人、车等。
具体地,计算机设备100根据目标检测算法和跟踪算法得到障碍物在不同帧图像间的位移,再根据不同帧图像间的时间差,得到障碍物在不同帧图像间的移动速度。该移动速度为相对本车产生的位移从而获得的速度,即为相对速度值。其中,根据不同帧图像间的相对速度值与不同帧图像间时间差,可获得障碍物的相对加速度。
其中,根据图像中的位置坐标与障碍物的实际位置坐标的对应关系,可以得到障碍物实际位置。该图像可以是三维图像,也可以是二维图像。该三维图像可以是点云图像,也可以是深度图像,深度图像是指以灰度表达物体与摄像头距离的图像,还可以是CAD几何图像(Computer Aided Design,计算机辅助设计)。其中,深度图像的每个像素点的灰度值可用于表征场景中某一点距离摄像头的远近,深度图像经过坐标转换可以计算为点云数据。
由于障碍物的位置坐标、速度、加速度的测量值往往有噪声,因此还可根据滤波算法,利用障碍物的在上一帧和当前帧的速度值的变化关系,过滤掉噪声,使得获取的跟踪结果更可信。滤波方式可包括卡尔曼滤波、扩展卡尔曼滤波、中值滤波、粒子滤波、加权递推平均滤波法、复合滤波等。
步骤604,通过高精度定位模块将所述相对位置坐标和/或相对速度值和/或相对加速度转换到大地坐标系下,得到障碍物在大地坐标系下的速度值。
其中,高精度定位模块可获得运动物体的传感器在地图中的位置,根据该位置和障碍物相对于运动物体的传感器的位置,得到障碍物在地图中的位置,得到障碍物在大地坐标系下的位置值,根据该位置值计算出来的速度加速度,即为障碍物在大地坐标系下的速度值和加速度值。
步骤606,根据所述障碍物在大地坐标系下的速度值筛选出周围障碍物中的静止障碍物,作为目标障碍物。
其中,静止障碍物的在大地坐标系下的速度值在0的预设邻域范围内。
在另一实施例中,可在筛选出目标障碍物之前根据需求设定样本个数。
步骤608,将本车码盘获取的瞬时速度值的反向值作为目标障碍物的相对速度的参考值,根据所述参考值和所述目标障碍物的相对速度值计算得到跟踪算法的精度。
具体地,将本车码盘获取的瞬时速度值进行反向值计算,将得到瞬时速度值的反向值作为目标障碍物的相对速度的参考值。其中,目标障碍物为静止障碍物,静止障碍物相对本车做反向运动,因此将瞬时速度值的反向值作为参考值。
计算每个目标障碍物的跟踪速度大小和本车瞬时速度大小的差值再求得所有差值的平均值,得到跟踪速度的精度。同样的,可计算得到跟踪加速度的精度。
上述跟踪算法的精度检测方法,通过实时获取障碍物在大地坐标系下的跟踪速度值,在筛选出静止的障碍物作为目标障碍物,将本车的瞬时速度值的反向值作为目标障碍物的相对速度值的参考值,计算得到跟踪算法的精度,从而实现了对跟踪算法的精度检测。
应该理解的是,虽然图2-6的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-6中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,提供了一种跟踪算法的精度检测装置,包括:跟踪分析模块、参考值获取模块和精度计算模块,其中:
跟踪分析模块702,用于获取至少一个目标障碍物的跟踪特征值。
参考值获取模块704,用于获取运动物体的运动特征值,将所述运动特征值作为所述至少一个目标障碍物的跟踪特征值的参考值。
精度计算模块706,用于计算所述至少一个跟踪特征值和所述参考值的差值,根据所述差值确定所述跟踪算法的精度。
其中,跟踪分析模块702包括:
坐标获取单元,用于获取多帧图像中的每一帧图像,进行目标检测,得到所述图像中每个障碍物相对运动物体的相对位置坐标;
位移获取单元,用于通过所述跟踪算法对所述每个障碍物进行跟踪处理,得到所述每个障碍物相对于所述运动物体的相对位移;
速度计算单元,用于根据所述每个障碍物的相对位移及所述图像的帧与帧之间的时间差,计算得到所述每个障碍物相对于所述运动物体的相对速度值。
转换单元,用于将所述每个障碍物的相对速度值转换到大地坐标系下,得到所述每个障碍物在大地坐标系下的速度值;
第一筛选单元,用于根据所述每个障碍物在大地坐标系下的速度值,筛选出大地坐标系下的速度值在0的预设邻域范围内的障碍物作为目标障碍物;
第二筛选单元,用于根据所述每个障碍物相对于所述运动物体的相对速度值,筛选出所述目标障碍物相对于所述运动物体的相对速度值,作为所述目标障碍物的跟踪速度值。
进一步地,坐标获取单元包括:
图像获取单元,用于获取所述多帧图像中的上一帧图像和当前帧图像;
第一坐标获取单元,用于检测上一帧图像中的每个障碍物,得到每个障碍物的图像位置坐标,根据每个障碍物的图像位置坐标与所述障碍物的实际空间位置坐标的对应关系,得到所述上一帧图像中每个障碍物的相对位置坐标;
第二坐标获取单元,用于检测当前帧图像中的每个障碍物,得到每个障碍物的图像位置坐标,根据所述每个障碍物的图像位置坐标与所述障碍物的实际空间位置坐标的对应关系,得到所述当前帧图像中每个障碍物的相对位置坐标;
进一步地,位移获取单元包括:
坐标确定单元,用于将所述上一帧图像中每个障碍物的相对位置坐标作为每个障碍物对应的第一相对位置坐标,以及将所述当前帧图像中每个障碍物的相对位置坐标作为每个障碍物对应的第二相对位置坐标;
坐标对齐单元,用于将所述上一帧图像和当前帧图像的中的同一障碍物进行跟踪配对,得到所述同一障碍物的第一相对位置坐标和第二相对位置坐标的对应关系;
位移计算单元,用于根据所述第一相对位置坐标和第二相对位置坐标的对应关系,获取每个障碍物的第一相对位置坐标与第二相对位置坐标之间的差值,得到所述每个障碍物的相对于所述运动物体的相对位移。
关于跟踪算法的精度检测装置的具体限定可以参见上文中对于跟踪算法的精度检测方法的限定,在此不再赘述。上述跟踪算法的精度检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种跟踪算法的精度检测方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述跟踪算法的精度检测方法步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述跟踪算法的精度检测方法步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种跟踪算法的精度检测方法,所述方法包括:
获取至少一个目标障碍物的跟踪特征值,所述跟踪特征值为根据跟踪算法计算得到的;所述跟踪特征值包括跟踪速度值和跟踪加速度值中至少一种;
获取运动物体的运动特征值,将所述运动特征值作为所述至少一个目标障碍物的跟踪特征值的参考值;
计算所述至少一个目标障碍物的跟踪特征值和所述参考值的差值,根据所述差值确定所述跟踪算法的精度。
2.根据权利要求1所述的方法,其特征在于,所述获取至少一个目标障碍物的跟踪特征值,所述跟踪特征值为根据跟踪算法计算得到的;所述跟踪特征值包括跟踪速度值和跟踪加速度值中至少一种,包括:
获取多帧图像中的每一帧图像,进行目标检测,得到所述图像中每个障碍物相对运动物体的相对位置坐标;
通过所述跟踪算法对所述每个障碍物进行跟踪处理,得到所述每个障碍物相对于所述运动物体的相对位移;
根据所述每个障碍物的相对位移及所述图像的帧与帧之间的时间差,计算得到所述每个障碍物相对于所述运动物体的相对速度值;
将所述每个障碍物的相对速度值转换到大地坐标系下,得到所述每个障碍物在大地坐标系下的速度值;
根据所述每个障碍物在大地坐标系下的速度值,筛选出大地坐标系下的速度值在0的预设邻域范围内的障碍物,作为目标障碍物;
根据所述每个障碍物相对于所述运动物体的相对速度值,筛选出所述目标障碍物相对于所述运动物体的相对速度值,作为所述目标障碍物的跟踪速度值。
3.根据权利要求2所述的方法,其特征在于,所述获取多帧图像中的每一帧图像,进行目标检测,得到所述图像中每个障碍物相对运动物体的相对位置坐标包括:
获取所述多帧图像中的上一帧图像和当前帧图像;
检测上一帧图像中的每个障碍物,得到每个障碍物的图像位置坐标,根据每个障碍物的图像位置坐标与所述障碍物的实际空间位置坐标的对应关系,得到所述上一帧图像中每个障碍物的相对位置坐标;
检测当前帧图像中的每个障碍物,得到每个障碍物的图像位置坐标,根据所述每个障碍物的图像位置坐标与所述障碍物的实际空间位置坐标的对应关系,得到所述当前帧图像中每个障碍物的相对位置坐标;
所述通过所述跟踪算法对所述每个障碍物进行跟踪处理,得到所述每个障碍物相对于所述运动物体的相对位移包括:
将所述上一帧图像中每个障碍物的相对位置坐标作为每个障碍物对应的第一相对位置坐标,以及将所述当前帧图像中每个障碍物的相对位置坐标作为每个障碍物对应的第二相对位置坐标;
将所述上一帧图像和当前帧图像的中的同一障碍物进行跟踪配对,得到所述同一障碍物的第一相对位置坐标和第二相对位置坐标的对应关系;
根据所述第一相对位置坐标和第二相对位置坐标的对应关系,获取每个障碍物的第一相对位置坐标与第二相对位置坐标之间的差值,得到所述每个障碍物的相对于所述运动物体的相对位移。
4.根据权利要求3所述的方法,其特征在于,所述检测当前帧图像中的每个障碍物,得到每个障碍物的图像位置坐标,根据所述每个障碍物的图像位置坐标与所述障碍物的实际空间位置坐标的对应关系,得到所述当前帧图像中每个障碍物的相对位置坐标之后,还包括:
根据所述上一帧图像中的每个障碍物的相对位置坐标,得到所述当前帧图像中的每个障碍物的相对位置坐标对应的估值范围;
筛选所述当前帧图像中相对位置坐标满足对应的估值范围的障碍物;
所述将所述当前帧图像中每个障碍物的相对位置坐标作为每个障碍物对应的第二相对位置坐标,包括:
将满足对应的估值范围的障碍物的相对位置坐标作为所述障碍物的第二相对位置坐标。
5.根据权利要求2所述的方法,其特征在于,所述根据所述相对位移及所述图像的帧与帧之间的时间差,计算得到所述障碍物的相对于所述本体的相对速度值,包括:
计算所述上一帧图像和当前帧图像的时间差,根据所述相对位移除以所述时间差,得到所述障碍物的相对于所述运动物体的相对速度值。
6.根据权利要求1所述的方法,其特征在于,所述获取运动物体的运动特征值,将所述运动特征值作为所述至少一个目标障碍物的跟踪特征值的参考值,包括:
根据运动物体中搭载的速度传感器读取所述运动物体的运动特征值,作为所述至少一个目标障碍物的跟踪特征值的参考值。
7.根据权利要求2所述的方法,其特征在于,所述图像包括二维图像和/或三维图像。
8.一种跟踪算法的精度检测装置,其特征在于,所述装置包括:
跟踪分析模块,用于获取至少一个目标障碍物的跟踪特征值;
参考值获取模块,用于获取运动物体的运动特征值,将所述运动特征值作为所述至少一个目标障碍物的跟踪特征值的参考值;
精度计算模块,用于计算所述至少一个跟踪特征值和所述参考值的差值,根据所述差值确定所述跟踪算法的精度。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910205057.8A CN111723597B (zh) | 2019-03-18 | 2019-03-18 | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910205057.8A CN111723597B (zh) | 2019-03-18 | 2019-03-18 | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111723597A true CN111723597A (zh) | 2020-09-29 |
CN111723597B CN111723597B (zh) | 2023-07-14 |
Family
ID=72562669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910205057.8A Active CN111723597B (zh) | 2019-03-18 | 2019-03-18 | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111723597B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329552A (zh) * | 2020-10-16 | 2021-02-05 | 爱驰汽车(上海)有限公司 | 基于汽车的障碍物检测方法及装置 |
CN113255439A (zh) * | 2021-04-13 | 2021-08-13 | 深圳市锐明技术股份有限公司 | 一种障碍物识别方法、装置、系统、终端及云端 |
CN113362370A (zh) * | 2021-08-09 | 2021-09-07 | 深圳市速腾聚创科技有限公司 | 目标对象的运动信息确定方法、装置、介质及终端 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030120448A1 (en) * | 2001-02-08 | 2003-06-26 | Netmor Ltd. | System for three dimensional positioning and tracking |
CN102222341A (zh) * | 2010-04-16 | 2011-10-19 | 东软集团股份有限公司 | 运动特征点检测方法及装置、运动目标检测方法及装置 |
CN103942811A (zh) * | 2013-01-21 | 2014-07-23 | 中国电信股份有限公司 | 分布式并行确定特征目标运动轨迹的方法与系统 |
CN107341831A (zh) * | 2017-07-06 | 2017-11-10 | 青岛海通胜行智能科技有限公司 | 一种imu辅助的视觉特征鲁棒跟踪方法及装置 |
CN107481284A (zh) * | 2017-08-25 | 2017-12-15 | 京东方科技集团股份有限公司 | 目标物跟踪轨迹精度测量的方法、装置、终端及系统 |
-
2019
- 2019-03-18 CN CN201910205057.8A patent/CN111723597B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030120448A1 (en) * | 2001-02-08 | 2003-06-26 | Netmor Ltd. | System for three dimensional positioning and tracking |
CN102222341A (zh) * | 2010-04-16 | 2011-10-19 | 东软集团股份有限公司 | 运动特征点检测方法及装置、运动目标检测方法及装置 |
CN103942811A (zh) * | 2013-01-21 | 2014-07-23 | 中国电信股份有限公司 | 分布式并行确定特征目标运动轨迹的方法与系统 |
CN107341831A (zh) * | 2017-07-06 | 2017-11-10 | 青岛海通胜行智能科技有限公司 | 一种imu辅助的视觉特征鲁棒跟踪方法及装置 |
CN107481284A (zh) * | 2017-08-25 | 2017-12-15 | 京东方科技集团股份有限公司 | 目标物跟踪轨迹精度测量的方法、装置、终端及系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329552A (zh) * | 2020-10-16 | 2021-02-05 | 爱驰汽车(上海)有限公司 | 基于汽车的障碍物检测方法及装置 |
CN112329552B (zh) * | 2020-10-16 | 2023-07-14 | 爱驰汽车(上海)有限公司 | 基于汽车的障碍物检测方法及装置 |
CN113255439A (zh) * | 2021-04-13 | 2021-08-13 | 深圳市锐明技术股份有限公司 | 一种障碍物识别方法、装置、系统、终端及云端 |
CN113255439B (zh) * | 2021-04-13 | 2024-01-12 | 深圳市锐明技术股份有限公司 | 一种障碍物识别方法、装置、系统、终端及云端 |
CN113362370A (zh) * | 2021-08-09 | 2021-09-07 | 深圳市速腾聚创科技有限公司 | 目标对象的运动信息确定方法、装置、介质及终端 |
CN113362370B (zh) * | 2021-08-09 | 2022-01-11 | 深圳市速腾聚创科技有限公司 | 目标对象的运动信息确定方法、装置、介质及终端 |
Also Published As
Publication number | Publication date |
---|---|
CN111723597B (zh) | 2023-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10636168B2 (en) | Image processing apparatus, method, and program | |
US10895458B2 (en) | Method, apparatus, and system for determining a movement of a mobile platform | |
CN111723597B (zh) | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 | |
US9501839B1 (en) | Methods and systems for detecting moving objects in a sequence of image frames produced by sensors with inconsistent gain, offset, and dead pixels | |
CN109300143B (zh) | 运动向量场的确定方法、装置、设备、存储介质和车辆 | |
CN110211151B (zh) | 一种运动物体的追踪方法和装置 | |
US20180075614A1 (en) | Method of Depth Estimation Using a Camera and Inertial Sensor | |
CN105103089B (zh) | 用于基于视频输入生成准确传感器校正的系统和方法 | |
KR101890612B1 (ko) | 적응적 관심영역 및 탐색창을 이용한 객체 검출 방법 및 장치 | |
CN113447923A (zh) | 目标检测方法、装置、系统、电子设备及存储介质 | |
CN111241224A (zh) | 目标距离估计的方法、系统、计算机设备和存储介质 | |
CN108519631B (zh) | 降水强度预测方法 | |
CN114445404A (zh) | 基于亚像素边缘检测的结构振动响应自动识别方法及系统 | |
CN114359334A (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
CN114527490A (zh) | 在车辆运行时检测三维结构模型 | |
CN114859938A (zh) | 机器人、动态障碍物状态估计方法、装置和计算机设备 | |
JP2006090957A (ja) | 移動体の周囲物体検出装置及び移動体の周囲物体検出方法 | |
CN111103584A (zh) | 用于获知车辆的环境中的物体的高度信息的设备和方法 | |
CN112629565B (zh) | 像机与惯性测量单元旋转关系校准方法、装置和设备 | |
CN111721283B (zh) | 定位算法的精度检测方法、装置、计算机设备和存储介质 | |
CN113701750A (zh) | 一种井下多传感器的融合定位系统 | |
CN111723826B (zh) | 跟踪算法的精度检测方法、装置、计算机设备和存储介质 | |
CN114943809A (zh) | 一种地图模型的生成方法、装置及存储介质 | |
JP5230354B2 (ja) | 位置特定装置及び異動建物検出装置 | |
CN115272408A (zh) | 车辆静止检测方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |