CN112904331B - 移动轨迹的确定方法、装置、设备及存储介质 - Google Patents

移动轨迹的确定方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112904331B
CN112904331B CN201911135403.6A CN201911135403A CN112904331B CN 112904331 B CN112904331 B CN 112904331B CN 201911135403 A CN201911135403 A CN 201911135403A CN 112904331 B CN112904331 B CN 112904331B
Authority
CN
China
Prior art keywords
track
radar detection
determining
radar
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911135403.6A
Other languages
English (en)
Other versions
CN112904331A (zh
Inventor
李彬
曾挥毫
莫致良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201911135403.6A priority Critical patent/CN112904331B/zh
Publication of CN112904331A publication Critical patent/CN112904331A/zh
Application granted granted Critical
Publication of CN112904331B publication Critical patent/CN112904331B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本申请公开了一种移动轨迹的确定方法、装置、设备及存储介质,属于数据挖掘技术领域。该方法包括:基于通过雷达采集的目标的雷达检测数据,确定雷达检测轨迹;分别获取雷达检测轨迹和视频轨迹在多个相同时间点的轨迹点坐标,视频轨迹是通过视觉传感器确定得到;根据所获取的轨迹点坐标,确定雷达检测轨迹与视频轨迹之间的相似度,得到第一相似度;当第一相似度小于相似度阈值时,确定视频轨迹为目标的真实移动轨迹。通过视频轨迹和雷达检测轨迹的相似度确定视频轨迹和目标的真实移动轨迹的差异性,如此可以判断出视频轨迹是否能够被确定为用户的真实移动轨迹。

Description

移动轨迹的确定方法、装置、设备及存储介质
技术领域
本申请涉及数据挖掘技术领域,特别涉及一种移动轨迹的确定方法、装置、设备及存储介质。
背景技术
为了更好地对用户的行为进行分析,室内场景中往往会布置有视觉传感器,视觉传感器可以通过检测、建模和目标跟踪等过程生成视频轨迹,譬如在商场、银行、医院等室内场景中,总会安装有摄像机之类的视觉传感器。然而,视觉传感器由于光学畸变等原因,生成的视频轨迹与用户的真实移动轨迹可能会有一定的差异,如此,如何判断视频轨迹是否能够作为用户的真实移动轨迹成为当前亟需解决的问题。
发明内容
本申请实施例提供了一种移动轨迹的确定方法、装置、设备及存储介质,可以解决相关技术中移动轨迹的确定结果不准确的问题。所述技术方案如下:
一方面,提供了一种移动轨迹的确定方法,所述方法包括:
基于通过雷达采集的目标的雷达检测数据,确定雷达检测轨迹;
分别获取所述雷达检测轨迹和视频轨迹在多个相同时间点的轨迹点坐标,所述视频轨迹是通过视觉传感器确定得到;
根据所获取的轨迹点坐标,确定所述雷达检测轨迹与所述视频轨迹之间的相似度,得到第一相似度;
当所述第一相似度小于相似度阈值时,确定所述视频轨迹为所述目标的真实移动轨迹。
在本申请一种可能的实现方式中,所述基于通过雷达采集的目标的雷达检测数据,确定雷达检测轨迹,包括:
基于通过雷达在第一可视区域内采集的目标的第一雷达检测数据,确定所述目标在所述第一可视区域内的第一雷达检测轨迹;
基于所述第一雷达检测轨迹中的目标轨迹点,确定预测轨迹,所述预测轨迹包括所述目标在雷达探测不到的区域对应的轨迹;
基于通过雷达在第二可视区域内采集的第二雷达检测数据,确定所述第二可视区域内的第二雷达检测轨迹;
当所述第二可视区域内存在一条第二雷达检测轨迹时,将所述第一雷达检测轨迹、所述预测轨迹以及所述第二雷达检测轨迹连接后的整体轨迹确定为所述雷达检测轨迹。
在本申请一种可能的实现方式中,所述方法还包括:
当所述第二可视区域内存在多条第二雷达检测轨迹时,确定所述多条第二雷达检测轨迹中每条第二雷达检测轨迹与所述预测轨迹之间的相似度,得到多个第二相似度;
当所述多个第二相似度中存在一个最大第二相似度时,将最大第二相似度对应的第二雷达检测轨迹确定为所述目标的第二雷达检测轨迹;
将所述第一雷达检测轨迹、所述预测轨迹以及所确定的第二雷达检测轨迹连接后的整体轨迹确定为所述雷达检测轨迹。
在本申请一种可能的实现方式中,所述方法还包括:
当所述多个第二相似度中存在多个最大第二相似度时,分别确定所述多个最大第二相似度中每个最大第二相似度对应的第二雷达检测轨迹与所述视频轨迹之间的相似度,得到多个第三相似度;
将所述多个第三相似度中最小第三相似度对应的第二雷达检测轨迹确定为所述目标的第二雷达检测轨迹。
在本申请一种可能的实现方式中,所述基于通过雷达在第一可视区域内采集的目标的第一雷达检测数据,确定所述目标在所述第一可视区域内的第一雷达检测轨迹,包括:
所述第一雷达检测数据包括所述目标在不同轨迹点时与所述雷达之间的角度和距离,基于所述目标在不同轨迹点时与所述雷达之间的角度和距离,确定所述目标在不同轨迹点对应的轨迹点坐标;
根据所确定的轨迹点坐标,绘制所述目标在所述第一可视区域内的第一雷达检测轨迹。
在本申请一种可能的实现方式中,所述基于所述第一雷达检测轨迹中的目标轨迹点,确定预测轨迹,包括:
根据所述第一雷达检测轨迹中的七个轨迹点的轨迹点坐标,采用最小二乘法,确定目标三次方函数;
基于所述第一雷达检测轨迹中的M个轨迹点的横坐标和所述目标三次方函数,确定所述多个预测轨迹点的轨迹点坐标;
根据所述多个预测轨迹点的轨迹点坐标,确定所述预测轨迹。
在本申请一种可能的实现方式中,所述确定所述多条第二雷达检测轨迹中每条第二雷达检测轨迹与所述预测轨迹之间的相似度,包括:
根据每条第二雷达检测轨迹中的所有轨迹点的轨迹点坐标与所述预测轨迹中的所有轨迹点的轨迹点坐标,确定每条第二雷达检测轨迹对应的欧氏距离;
基于每条第二雷达检测轨迹对应的欧式距离,确定每条第二雷达检测轨迹对应的动态时间规整DTW递推模型;
基于所述DTW递推模型和参考调节系数,确定所述每条第二雷达检测轨迹与所述预测轨迹之间的相似度。
在本申请一种可能的实现方式中,所述根据所获取的轨迹点坐标,确定所述雷达检测轨迹与所述视频轨迹之间的相似度,得到第一相似度,包括:
确定所述雷达检测轨迹与所述视频轨迹在每个相同时间点对应的轨迹点的欧式距离,得到多个欧式距离;
将所述多个欧式距离值的平均值确定为所述第一相似度。
另一方面,提供了一种移动轨迹的确定装置,所述装置包括:
第一确定模块,用于基于通过雷达采集的目标的雷达检测数据,确定雷达检测轨迹;
获取模块,用于分别获取所述雷达检测轨迹和视频轨迹在多个相同时间点的轨迹点坐标,所述视频轨迹是通过视觉传感器确定得到;
第二确定模块,用于根据所获取的轨迹点坐标,确定所述雷达检测轨迹与所述视频轨迹之间的相似度,得到第一相似度;
第三确定模块,用于当所述第一相似度小于相似度阈值时,确定所述视频轨迹为所述目标的真实移动轨迹。
在本申请一种可能的实现方式中,所述第一确定模块用于:
基于通过雷达在第一可视区域内采集的目标的第一雷达检测数据,确定所述目标在所述第一可视区域内的第一雷达检测轨迹;
基于所述第一雷达检测轨迹中的目标轨迹点,确定预测轨迹,所述预测轨迹包括所述目标在雷达探测不到的区域对应的轨迹;
基于通过雷达在第二可视区域内采集的第二雷达检测数据,确定所述第二可视区域内的第二雷达检测轨迹;
当所述第二可视区域内存在一条第二雷达检测轨迹时,将所述第一雷达检测轨迹、所述预测轨迹以及所述第二雷达检测轨迹连接后的整体轨迹确定为所述雷达检测轨迹。
在本申请一种可能的实现方式中,所述第一确定模块还用于:
当所述第二可视区域内存在多条第二雷达检测轨迹时,确定所述多条第二雷达检测轨迹中每条第二雷达检测轨迹与所述预测轨迹之间的相似度,得到多个第二相似度;
当所述多个第二相似度中存在一个最大第二相似度时,将最大第二相似度对应的第二雷达检测轨迹确定为所述目标的第二雷达检测轨迹;
将所述第一雷达检测轨迹、所述预测轨迹以及所确定的第二雷达检测轨迹连接后的整体轨迹确定为所述雷达检测轨迹。
在本申请一种可能的实现方式中,所述第一确定模块还用于:
当所述多个第二相似度中存在多个最大第二相似度时,分别确定所述多个最大第二相似度中每个最大第二相似度对应的第二雷达检测轨迹与所述视频轨迹之间的相似度,得到多个第三相似度;
将所述多个第三相似度中最小第三相似度对应的第二雷达检测轨迹确定为所述目标的第二雷达检测轨迹。
在本申请一种可能的实现方式中,所述第一确定模块用于:
所述第一雷达检测数据包括所述目标在不同轨迹点时与所述雷达之间的角度和距离,基于所述目标在不同轨迹点时与所述雷达之间的角度和距离,确定所述目标在不同轨迹点对应的轨迹点坐标;
根据所确定的轨迹点坐标,绘制所述目标在所述第一可视区域内的第一雷达检测轨迹。
在本申请一种可能的实现方式中,所述第一确定模块用于:
根据所述第一雷达检测轨迹中的七个轨迹点的轨迹点坐标,采用最小二乘法,确定目标三次方函数;
基于所述第一雷达检测轨迹中的M个轨迹点的横坐标和所述目标三次方函数,确定所述多个预测轨迹点的轨迹点坐标;
根据所述多个预测轨迹点的轨迹点坐标,确定所述预测轨迹。
在本申请一种可能的实现方式中,所述第一确定模块用于:
根据每条第二雷达检测轨迹中的所有轨迹点的轨迹点坐标与所述预测轨迹中的所有轨迹点的轨迹点坐标,确定每条第二雷达检测轨迹对应的欧氏距离;
基于每条第二雷达检测轨迹对应的欧式距离,确定每条第二雷达检测轨迹对应的动态时间规整DTW递推模型;
基于所述DTW递推模型和参考调节系数,确定所述每条第二雷达检测轨迹与所述预测轨迹之间的相似度。
在本申请一种可能的实现方式中,所述第二确定模块用于:
确定所述雷达检测轨迹与所述视频轨迹在每个相同时间点对应的轨迹点的欧式距离,得到多个欧式距离;
将所述多个欧式距离值的平均值确定为所述第一相似度。
另一方面,提供了一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为实现上述一方面所述的移动轨迹的确定方法。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,所述指令被处理器执行时实现上述一方面所述的移动轨迹的确定方法。
另一方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述一方面所述的移动轨迹的确定方法。
本申请实施例提供的技术方案带来的有益效果是:
基于通过雷达采集的目标的雷达检测数据,确定雷达检测轨迹,由于雷达检测结果通常比较准确,所以基于雷达检测数据确定的雷达检测轨迹往往可以反映目标的真实移动轨迹。分别获取雷达检测轨迹和视频轨迹在多个相同时间点的轨迹点坐标,视频轨迹是通过视觉传感器确定得到。根据所获取的轨迹点坐标,确定雷达检测轨迹与视频轨迹之间的相似度,得到第一相似度。当第一相似度小于相似度阈值时,可以说明视频轨迹与雷达检测轨迹的差异较小,进而可以说明视频轨迹与目标的真实移动轨迹的差异比较小,即通过视觉传感器确定的结果比较准确,所以可以将视频轨迹确定为目标的真实移动轨迹。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种实施环境的示意图;
图2是本申请实施例提供的一种移动轨迹的确定方法的流程图;
图3是本申请实施例提供的一种可视区域的示意图;
图4是本申请实施例提供的一种室内场景的示意图;
图5是本申请实施例提供的另一种室内场景的示意图;
图6是本申请实施例提供的一种视频轨迹和雷达检测轨迹的示意图;
图7是本申请实施例提供的一种移动轨迹的确定装置的结构示意图;
图8是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
在对本申请实施例提供的移动轨迹的确定方法进行详细介绍之前,对本申请实施例涉及的实施环境进行简单介绍。
请参考图1,本申请实施例提供的移动轨迹的确定方法可以由电子设备110来执行,该电子设备110可以配置有雷达120和视觉传感器130,作为一种示例,该电子设备110可以为PC(Personal Computer,个人计算机)、手机、智能手机、PDA(Personal DigitalAssistant,个人数字助手)、掌上电脑PPC(Pocket PC)、平板电脑等,本申请实施例对此不做限定。
其中,雷达120可以用于探测目标,并生成雷达检测数据。作为一种示例,该雷达120可以采用毫米波雷达、激光雷达等,本申请实施例对此不作限定。
其中,视觉传感器130可以通过检测、建模和目标跟踪等过程生成视频轨迹,作为一种示例,该视觉传感器130可以采用球机、枪机等,本申请实施例对此不作限定。
在介绍完本申请实施例涉及的实施环境后,接下来将结合附图对本申请实施例提供的移动轨迹的确定方法进行详细介绍。
图2是本申请实施例提供的一种移动轨迹的确定方法的流程图,该方法可以应用于上述电子设备中。请参考图2,该方法包括如下步骤:
步骤201:基于通过雷达采集的目标的雷达检测数据,确定雷达检测轨迹。
其中,目标也就是雷达检测的对象,可以是行人,也可以是物体,譬如可以为智能机器人。目标的数量可能是一个,也可能是多个,也就是说雷达可能采集一个目标的雷达检测数据,也可能采集多个目标的雷达检测数据。当雷达采集多个目标的雷达检测数据时,相应的可以确定多条雷达检测轨迹。
通常来说,由于雷达对目标的检测精度比较高,因此一般认为根据雷达检测数据确定的雷达检测轨迹可以表示目标的真实移动轨迹。然而,由于布置雷达的成本较高,所以实际应用中,通常不会直接通过雷达检测轨迹确定目标的真实移动轨迹,而是会通过视觉传感器生成的视频轨迹来确定目标的真实移动轨迹,为了进一步确定视频轨迹的准确性,往往会确定雷达检测轨迹,通过该雷达检测轨迹对视频轨迹进行度量。
具体地,基于通过雷达采集的目标的雷达检测数据,确定雷达检测轨迹的实现可以包括如下几个过程:
1、基于通过雷达在第一可视区域内采集的目标的第一雷达检测数据,确定目标在第一可视区域内的第一雷达检测轨迹。
其中,可视区域也就是指雷达可以探测到目标的区域。一般来说,雷达的探测区域是有限的,当有限的探测区域内存在障碍物时,被障碍物遮挡的目标无法被雷达探测到,也就是可以认为障碍物所在区域是不可视区域,其他没有障碍物的区域为可视区域。譬如,当雷达的检测区域中出现货架时,被货架遮挡的目标无法被雷达探测到,也就可以认为货架所在区域是不可视区域,其他没有货架的区域为可视区域。
通常来说,雷达的探测区域内可能存在一个障碍物,也可能存在多个障碍物。当雷达的探测区域内存在一个障碍物时,根据该障碍物所处区域的不同,雷达的探测区域内可以有一个可视区域,也可以有两个可视区域,譬如当障碍物处于雷达的探测区域内的边界区域时,可以认为雷达的探测区域内除该障碍物所在区域外的其余区域为一个可视区域。当障碍物处于雷达的探测区域的中间区域时,可以认为障碍物任一侧的区域为第一可视区域,障碍物另一侧的区域为第二可视区域。当雷达的探测区域存在多个障碍物时,相应的雷达的探测区域内可以有多个可视区域。
譬如,如图3所示,当雷达的探测区域内存在一个障碍物,且该障碍物处于雷达的探测区域内的中间区域,如图3(a)所示,可以认为障碍物的一侧为第一可视区域,障碍物的另一侧为第二可视区域。当该障碍物处于雷达的探测区域内的边界区域时,如图3(b)所示,可以认为除障碍物所在区域外的其他区域为可视区域。
对于雷达探测到的至少一个目标中的任意一个目标,将雷达在第一可视区域内对该目标的检测数据确定为第一雷达检测数据,进而通过该第一雷达检测数据确定该目标在第一可视区域内的第一雷达检测轨迹。
具体地,基于通过雷达在第一可视区域内采集的目标的第一雷达检测数据,确定目标在第一可视区域内的第一雷达检测轨迹的实现方式可以为:第一雷达检测数据包括目标在不同轨迹点时与雷达之间的角度和距离,基于目标在不同轨迹点时与雷达之间的角度和距离,确定目标在不同轨迹点对应的轨迹点坐标。根据所确定的轨迹点坐标,绘制目标在第一可视区域内的第一雷达检测轨迹。
通常来说,目标的移动轨迹是连续的,也就是在第一可视区域内,随着目标的移动,雷达会检测到该目标的多个轨迹点。对于同一个目标来说,雷达的采样频率越高,雷达检测到该目标的轨迹点的数量就越多,该目标相邻两个轨迹点之间的时间间隔就越小。其中,雷达的采样频率可以根据实际情况进行设置,譬如可以设置雷达的采样频率为50Hz,也就是设置雷达在1秒钟内采样50次。
电子设备中可以建立有坐标系,基于该坐标系,确定雷达在坐标系中的位置坐标,进而基于目标相对于雷达的角度和距离,确定目标在坐标系中的轨迹点坐标。譬如,如图4所示,可以以室内场景的东南角为坐标原点,以正北方向为y轴正方向,正东方向为x轴正方向建立一个坐标系。
由于雷达的位置是固定的,当目标在第一可视区域内移动时,也就是当该目标处于不同的轨迹点时,该目标与雷达之间的角度与距离会相应的不同,进而通过目标在不同轨迹点时与雷达之间的角度和距离,以及雷达的坐标,可以确定目标在不同轨迹点时的轨迹点坐标。
示例性的,如图5所示,目标与雷达之间的距离为d,目标与雷达之间的角度为θ,雷达在坐标系中的坐标为(x0,y0),如此可以认为目标的横坐标为xi=-|d·sin(θ)|+x0,目标点的纵坐标为yi=|d·cos(θ)|+y0
也就是说,雷达可以检测到同一目标在不同轨迹点时距离雷达的角度和距离,由此可以确定目标在不同轨迹点时与雷达之间的相对位置,进而基于雷达在坐标系中的坐标,确定目标在不同轨迹点时在该坐标系中的轨迹点坐标。通过连接确定的目标在不同轨迹点时的轨迹点坐标,得到第一雷达检测轨迹。
2、基于第一雷达检测轨迹中的目标轨迹点,确定预测轨迹,预测轨迹包括目标在雷达探测不到的区域对应的轨迹。
也就是说,当存在障碍物将雷达的探测区域分为第一可视区域和第二可视区域时,由于被障碍物遮挡的目标无法被雷达探测到,也就是无法生成被障碍物遮挡区域的目标的雷达检测轨迹,由此,在第一可视区域内的第一雷达检测轨迹与第二可视区域内的第二雷达检测轨迹是不连续的,当第一可视区域和第二可视区域分别存在多个目标时,雷达无法判断哪一条第二雷达检测轨迹所属的目标与第一雷达检测轨迹所属的目标相同。
为了将同一个目标在第一可视区域与第二可视区域内的雷达检测轨迹匹配起来,往往要确定该目标在障碍物遮挡区域内的轨迹。通常来说,同一个目标在移动时往往具有一定的规律,因此可以根据第一雷达检测轨迹确定一个预测轨迹,也就是确定一条预测轨迹,该预测轨迹与第一雷达检测轨迹所属的目标的移动规律相同。也就是基于第一雷达检测轨迹对障碍物遮挡区域该目标的移动轨迹进行预测。
需要说明的是,预测轨迹可以包括预测的障碍物遮挡区域该目标的移动轨迹,还可以包括预测的在第二可视区域内该目标的移动轨迹,本实施例对此不作限定。
具体地,基于第一雷达检测轨迹中的目标轨迹点,确定预测轨迹的实现方式可以为:根据第一雷达检测轨迹中的七个轨迹点的轨迹点坐标,采用最小二乘法,确定目标三次方函数。基于第一雷达检测轨迹中的M个轨迹点的横坐标和目标三次方函数,确定多个预测轨迹点的轨迹点坐标。根据多个预测轨迹点的轨迹点坐标,确定预测轨迹。
由于雷达的采样频率相对较高,也就是每个轨迹点之间的间隔时长相对较小,如此,连续的几个轨迹点对应的时长也不会很长,根据这几个连续的轨迹点确定出的移动规律不会很准确,因此,在确定第一雷达检测轨迹的目标轨迹点之前,可以对第一雷达检测轨迹中的多个轨迹点进行降采样处理,也就是将雷达的采样频率降低,在多个轨迹点中确定部分轨迹点,该部分轨迹点中相邻两个轨迹点之间的间隔时长相对较大。示例性的,通常视觉传感器的采样频率比雷达的采样频率低,所以可以将雷达的采样频率降至与视觉传感器的采样频率相同。
通常情况下,目标在障碍物区域的轨迹点坐标与距离障碍物区域最近的一段轨迹点坐标关联比较大,因此,可以选取该第一雷达检测轨迹中最后七个轨迹点作为目标轨迹点。
一般来说,在确定目标轨迹点后,可以采用最小二乘法来确定目标三次方函数。最小二乘法是一种数据优化技术,对于给定的一组数据,通过确定最小的误差的平方和确定一个与该组数据最为匹配的函数。也就是说,当给定数据{(xi,yi),i=0,1,2,…,N}时,定义函数在点xi处的误差为δi=f(xi)-yi(i=0,1,2,…,N),为了使y=f(x)与给定数据最为匹配,需要使误差尽可能小,如此,通过确定误差的平方和最小,也就是最小,确定一个最终的函数y=f(x)。
也就是说,基于确定的七个轨迹点的轨迹坐标点,可以确定一个目标三次方函数,即可以用于表示目标的移动规律的函数。如此,基于确定的目标三次方函数与该七个轨迹点中的多个轨迹点,可以对障碍物遮挡区域内目标的轨迹点进行预测。
示例性的,可以设定目标三次方函数为f(x)=ax3+bx2+cx+d,待求的参数为a,b,c,d,已知七个点的坐标(x1,y1),(x2,y2),(x3,y3),(x4,y4),(x5,y5),(x6,y6),(x7,y7),由这七个坐标可以构成一个非线性方程组f(xi)=axi 3+bxi 2+cxi+d,该非线性方程组可以通过矩阵的方式来表示,如公式(1)所示:
其中,di,1=i3,di,2=i2,di,3=i,di,4=1,如此,基于上述最小二乘法,对该非线性方程组进行求解,可以求出该目标三次方函数中的参数a,b,c,d。
在确定该目标三次方函数之后,可以基于该七个轨迹点中M个轨迹点的横坐标和该目标三次方函数,生成预测的轨迹点坐标。
其中,M的数值可以根据实际情况进行设置。
示例性的,可以通过来确定下一个轨迹点的横坐标,将xi+1带入目标三次方函数,可以得到yi+1,也就是可以得到预测的轨迹点坐标(xi+1,yi+1),如此,继续基于预测的轨迹点坐标(xi+1,yi+1)和目标三次方函数,循环生成预测的轨迹点坐标。
譬如,当M=3时,也就是通过确定下一个轨迹点的横坐标。
需要说明的是,还可以根据实际情况设置一个数量阈值G,也就是当预测的轨迹点的数量达到G时,停止对轨迹点的预测,认为当前预测得到的所有轨迹点为预测轨迹点序列。
3、基于通过雷达在第二可视区域内采集的第二雷达检测数据,确定第二可视区域内的第二雷达检测轨迹。
类似地,第二雷达监测轨迹的确定方法与第一雷达检测轨迹的确定方法相同,由于雷达的位置是固定的,当目标在第二可视区域内移动时,也就是当该目标处于不同的轨迹点时,该目标与雷达之间的角度与距离会相应的不同,进而通过目标在不同轨迹点时与雷达之间的角度和距离,以及雷达的坐标,可以确定目标在不同轨迹点时的轨迹点坐标。通过连接确定的目标在不同轨迹点时的轨迹点坐标,得到第二雷达检测轨迹,也就是得到该目标在第二可视区域内的真实移动轨迹。
需要说明的是,当第二可视区域内存在多个目标时,相应的也可以得到多条第二雷达检测轨迹,不同的第二雷达检测轨迹可以反映不同的目标在第二可视区域内的真实移动轨迹。
4、当第二可视区域内存在一条第二雷达检测轨迹时,将第一雷达检测轨迹、预测轨迹以及第二雷达检测轨迹连接后的整体轨迹确定为雷达检测轨迹。
其中,第二可视区域内存在一条第二雷达检测轨迹,也就可以确定该第二雷达检测轨迹所属的目标与第一雷达检测轨迹所属的目标为同一个目标,因此,可以认为由第一雷达检测轨迹、预测轨迹和第二雷达检测轨迹组成的轨迹是该目标的雷达检测轨迹。
需要说明的是,本申请实施例仅仅是以将第一雷达检测轨迹、预测轨迹和第二雷达检测轨迹连接后的整体轨迹为雷达检测轨迹为例进行说明,还可以认为第一雷达检测轨迹与第二雷达检测轨迹组成的轨迹为雷达检测轨迹,本实施例对此不做限定。
然而,当第二可视区域内存在多个目标,也就是存在多条第二雷达检测轨迹时,确定目标的雷达检测轨迹的方法又有所不同。
具体地,当第二可视区域内存在多条第二雷达检测轨迹时,确定多条第二雷达检测轨迹中每条第二雷达检测轨迹与预测轨迹之间的相似度,得到多个第二相似度。当多个第二相似度中存在一个最大第二相似度时,将最大第二相似度对应的第二雷达检测轨迹确定为目标的第二雷达检测轨迹。将第一雷达检测轨迹、预测轨迹以及所确定的第二雷达检测轨迹连接后的整体轨迹确定为雷达检测轨迹。
其中,当第二可视区域内存在多条第二雷达检测轨迹时,也就说明第二可视区域内存在多个目标,此时,需要在该多条第二雷达检测轨迹中确定一条第二雷达检测轨迹,该第二雷达检测轨迹所属的目标与第一雷达检测轨迹所属的目标为同一个目标。
也就是说,当第二可视区域内存在多个目标时,需要确定预测轨迹与该多个目标对应的多条第二雷达检测轨迹的相似度,当存在一条第二雷达检测轨迹与预测轨迹之间的相似度最高时,也就可以认为该条第二雷达检测轨迹所属的目标与预测轨迹所属的目标为同一个目标,即该条第二雷达检测轨迹所属的目标与第一雷达检测轨迹所述的目标为同一个目标。进而,可以将第一雷达检测轨迹、预测轨迹与该条第二雷达检测轨迹组成的轨迹确定为该目标的雷达检测轨迹,也就是该目标在雷达的探测区域内的真实移动轨迹。
需要说明的是,本申请实施例仅仅是以将第一雷达检测轨迹、预测轨迹和第二雷达检测轨迹连接后的整体轨迹为雷达检测轨迹为例进行说明,还可以认为第一雷达检测轨迹与第二雷达检测轨迹组成的轨迹为雷达检测轨迹,本实施例对此不做限定。
然而,当同时存在多条第二雷达检测轨迹与预测轨迹的相似度最高时,要对该多条第二雷达检测轨迹作进一步处理,以在该多条第二雷达检测轨迹中确定一条第二雷达检测轨迹,相应的确定雷达检测轨迹的方法又有所不同。
具体地,当多个第二相似度中存在多个最大第二相似度时,分别确定多个最大第二相似度中每个最大第二相似度对应的第二雷达检测轨迹与视频轨迹之间的相似度,得到多个第三相似度。将多个第三相似度中最小第三相似度对应的第二雷达检测轨迹确定为目标的第二雷达检测轨迹。
也就是说,在通过预测轨迹与第二雷达检测轨迹之间的相似度确定出多条相似度最大的第二雷达检测轨迹时,可以进一步通过视频轨迹与该多条第二雷达检测轨迹之间的相似度,确定一条相似度最小的第二雷达检测轨迹,可以认为该第二雷达检测轨迹所属的目标与第一雷达检测轨迹所属的目标为同一个目标。
通常来说,相似度可以用于表示两条轨迹之间的差异,两条轨迹之间的相似度越小时,可以认为该两条轨迹之间的差异越小。
具体地,可以通过确定第二雷达检测轨迹与视频轨迹在每个相同时间点对应的轨迹点的欧式距离,得到多个欧式距离,将多个欧式距离的平均值确定为第三相似度。
示例性的,假设在相同时间点第二雷达检测轨迹的轨迹点坐标为(xEi,yEi),视频轨迹的轨迹点坐标为(xFi,yFi),在相同时间点,第二雷达检测轨迹与视频轨迹对应的轨迹点之间的欧氏距离为进而可以确定/>为第三相似度,其中,z是指多个相同时间点的数量。
譬如,如图6所示,视觉传感器生成的视频轨迹为A,雷达生成的第一雷达检测轨迹为B1,雷达生成的第二雷达检测轨迹分别为B2、B3和B4,其中B2、B3与预测轨迹之间的相似度最高,进而,通过A分别与B2、B3进行相似度对比,确定B3与A所属的目标与第一雷达检测轨迹所属的目标是同一个目标。
具体地,确定多条第二雷达检测轨迹中每条第二雷达检测轨迹与预测轨迹之间的相似度的实现方式可以为:根据每条第二雷达检测轨迹中的所有轨迹点的轨迹点坐标与预测轨迹中的所有轨迹点的轨迹点坐标,确定每条第二雷达检测轨迹对应的欧氏距离。基于每条第二雷达检测轨迹对应的欧式距离,确定每条第二雷达检测轨迹对应的动态时间规整DTW递推模型。基于DTW递推模型和参考调节系数,确定每条第二雷达检测轨迹与预测轨迹之间的相似度。
其中,第二雷达检测轨迹中的所有轨迹点的数量与预测轨迹中的所有轨迹点的数量可能相同,也可能不同。
由于DTW是一种把时间规整和距离测度计算结合起来的一种非线性规整技术,也就是当存在两个不同长度的序列时,可以通过DTW确定这两个不同长度的序列之间的相似度。因此,可以基于DTW确定预测轨迹与第二雷达检测轨迹之间的相似度。
示例性的,假设每条第二雷达检测轨迹中有n个轨迹点,该n个轨迹点组成序列L,预测轨迹中有h个轨迹点,该h个轨迹点组成序列Y。通过计算各个轨迹点之间的欧氏距离,可以确定一个n*h的矩阵,如公式(2)所示:
其中,dij表示L(i)和Y(j)之间的欧氏距离,也就是第二雷达检测轨迹中第i个轨迹点与预测轨迹中第j个轨迹点之间的欧氏距离。
设定dest(Li,Yj)表示从(L1,Y1)到(Li,Yj)的累计欧式距离,通常来说,当要确定dest(Li,Yj)时,往往认为其前序的累计欧式距离应为dest(Li-1,Yj)、dest(Li-1,Yj-1)、dest(Li-1,Yj-2)中最小的一个,也就是即第二雷达检测轨迹中第i个轨迹点与预测轨迹中第j个轨迹点之间的欧氏距离与前序的累计欧式距离之和为从(L1,Y1)到(Li,Yj)的累计欧式距离,由此,确定dest(Ln,Yh),也就是确定从(L1,Y1)到(Ln,Yh)的累计欧式距离。
确定dest(Ln,Yh)后,进而可以确定为第二相似度,其中q为参考调节系数,q可以根据实际情况进行设置,示例性的,可以设置q=1。
步骤202:分别获取雷达检测轨迹和视频轨迹在多个相同时间点的轨迹点坐标,视频轨迹是通过视觉传感器确定得到。
譬如,可以获取雷达检测轨迹在1s、2s、3s、4s、5s、6s时的轨迹点坐标,相应的获取视频轨迹在1s、2s、3s、4s、5s、6s时的轨迹点坐标。
步骤203:根据所获取的轨迹点坐标,确定雷达检测轨迹与视频轨迹之间的相似度,得到第一相似度。
也就是说,可以通过确定雷达检测轨迹与视频轨迹之间的相似度,确定视频轨迹与目标的真实移动轨迹的接近程度。
具体地,根据所获取的轨迹点坐标,确定雷达检测轨迹与视频轨迹之间的相似度,得到第一相似度的实现方式可以为:确定雷达检测轨迹与视频轨迹在每个相同时间点对应的轨迹点的欧式距离,得到多个欧式距离。将多个欧式距离值的平均值确定为第一相似度。
示例性的,假设在相同时间点第二雷达检测轨迹的轨迹点坐标为(xEi,yEi),视频轨迹的轨迹点坐标为(xFi,yFi),在相同时间点,第二雷达检测轨迹与视频轨迹对应的轨迹点之间的欧氏距离为进而可以确定/>为第一相似度,其中,v是指多个相同时间点的数量。
步骤204:当第一相似度小于相似度阈值时,确定视频轨迹为目标的真实移动轨迹。
其中,相似度阈值可以根据实际情况进行设置。
当第一相似度小于相似度阈值时,也就说明视频轨迹与雷达检测轨迹之间的差异较小,进而可以说明视频轨迹与目标的真实移动轨迹的差异较小,即通过视觉传感器确定的结果比较准确,所以可以将视频轨迹确定为目标的真实移动轨迹。
在本申请实施例中,基于通过雷达采集的目标的雷达检测数据,确定雷达检测轨迹,由于雷达检测结果通常比较准确,所以基于雷达检测数据确定的雷达检测轨迹往往可以反映目标的真实移动轨迹。分别获取雷达检测轨迹和视频轨迹在多个相同时间点的轨迹点坐标,视频轨迹是通过视觉传感器确定得到。根据所获取的轨迹点坐标,确定雷达检测轨迹与视频轨迹之间的相似度,得到第一相似度。当第一相似度小于相似度阈值时,可以说明视频轨迹与雷达检测轨迹的差异较小,进而可以说明视频轨迹与目标的真实移动轨迹的差异比较小,即通过视觉传感器确定的结果比较准确,所以可以将视频轨迹确定为目标的真实移动轨迹。
图7是本申请实施例提供的一种移动轨迹的确定装置的结构示意图,该移动轨迹的确定装置可以由软件、硬件或者两者的结合实现。该移动轨迹的确定装置可以包括:
第一确定模块710,用于基于通过雷达采集的目标的雷达检测数据,确定雷达检测轨迹;
获取模块720,用于分别获取所述雷达检测轨迹和视频轨迹在多个相同时间点的轨迹点坐标,所述视频轨迹是通过视觉传感器确定得到;
第二确定模块730,用于根据所获取的轨迹点坐标,确定所述雷达检测轨迹与所述视频轨迹之间的相似度,得到第一相似度;
第三确定模块740,用于当所述第一相似度小于相似度阈值时,确定所述视频轨迹为所述目标的真实移动轨迹。
在本申请一种可能的实现方式中,所述第一确定模块710用于:
基于通过雷达在第一可视区域内采集的目标的第一雷达检测数据,确定所述目标在所述第一可视区域内的第一雷达检测轨迹;
基于所述第一雷达检测轨迹中的目标轨迹点,确定预测轨迹,所述预测轨迹包括所述目标在雷达探测不到的区域对应的轨迹;
基于通过雷达在第二可视区域内采集的第二雷达检测数据,确定所述第二可视区域内的第二雷达检测轨迹;
当所述第二可视区域内存在一条第二雷达检测轨迹时,将所述第一雷达检测轨迹、所述预测轨迹以及所述第二雷达检测轨迹连接后的整体轨迹确定为所述雷达检测轨迹。
在本申请一种可能的实现方式中,所述第一确定模块710还用于:
当所述第二可视区域内存在多条第二雷达检测轨迹时,确定所述多条第二雷达检测轨迹中每条第二雷达检测轨迹与所述预测轨迹之间的相似度,得到多个第二相似度;
当所述多个第二相似度中存在一个最大第二相似度时,将最大第二相似度对应的第二雷达检测轨迹确定为所述目标的第二雷达检测轨迹;
将所述第一雷达检测轨迹、所述预测轨迹以及所确定的第二雷达检测轨迹连接后的整体轨迹确定为所述雷达检测轨迹。
在本申请一种可能的实现方式中,所述第一确定模块710还用于:
当所述多个第二相似度中存在多个最大第二相似度时,分别确定所述多个最大第二相似度中每个最大第二相似度对应的第二雷达检测轨迹与所述视频轨迹之间的相似度,得到多个第三相似度;
将所述多个第三相似度中最小第三相似度对应的第二雷达检测轨迹确定为所述目标的第二雷达检测轨迹。
在本申请一种可能的实现方式中,所述第一确定模块710用于:
所述第一雷达检测数据包括所述目标在不同轨迹点时与所述雷达之间的角度和距离,基于所述目标在不同轨迹点时与所述雷达之间的角度和距离,确定所述目标在不同轨迹点对应的轨迹点坐标;
根据所确定的轨迹点坐标,绘制所述目标在所述第一可视区域内的第一雷达检测轨迹。
在本申请一种可能的实现方式中,所述第一确定模块710用于:
根据所述第一雷达检测轨迹中的七个轨迹点的轨迹点坐标,采用最小二乘法,确定目标三次方函数;
基于所述第一雷达检测轨迹中的M个轨迹点的横坐标和所述目标三次方函数,确定所述多个预测轨迹点的轨迹点坐标;
根据所述多个预测轨迹点的轨迹点坐标,确定所述预测轨迹。
在本申请一种可能的实现方式中,所述第一确定模块710用于:
根据每条第二雷达检测轨迹中的所有轨迹点的轨迹点坐标与所述预测轨迹中的所有轨迹点的轨迹点坐标,确定每条第二雷达检测轨迹对应的欧氏距离;
基于每条第二雷达检测轨迹对应的欧式距离,确定每条第二雷达检测轨迹对应的动态时间规整DTW递推模型;
基于所述DTW递推模型和参考调节系数,确定所述每条第二雷达检测轨迹与所述预测轨迹之间的相似度。
在本申请一种可能的实现方式中,所述第二确定模块730用于:
确定所述雷达检测轨迹与所述视频轨迹在每个相同时间点对应的轨迹点的欧式距离,得到多个欧式距离;
将所述多个欧式距离值的平均值确定为所述第一相似度。
在本申请实施例中,基于通过雷达采集的目标的雷达检测数据,确定雷达检测轨迹,由于雷达检测结果通常比较准确,所以基于雷达检测数据确定的雷达检测轨迹往往可以反映目标的真实移动轨迹。分别获取雷达检测轨迹和视频轨迹在多个相同时间点的轨迹点坐标,视频轨迹是通过视觉传感器确定得到。根据所获取的轨迹点坐标,确定雷达检测轨迹与视频轨迹之间的相似度,得到第一相似度。当第一相似度小于相似度阈值时,可以说明视频轨迹与雷达检测轨迹的差异较小,进而可以说明视频轨迹与目标的真实移动轨迹的差异比较小,即通过视觉传感器确定的结果比较准确,所以可以将视频轨迹确定为目标的真实移动轨迹。
需要说明的是:上述实施例提供的移动轨迹的确定装置在进行移动轨迹的确定时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的移动轨迹的确定装置与移动轨迹的确定方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图8是本申请实施例提供的一种电子设备800的结构框图。该电子设备800可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture Experts GroupAudio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture ExpertsGroup Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。电子设备800还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,电子设备800包括有:处理器801和存储器802。
处理器801可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器801可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器801也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器801可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器801还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器802可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器802还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器802中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器801所执行以实现本申请中方法实施例提供的移动轨迹的确定方法。
本领域技术人员可以理解,图8中示出的结构并不构成对电子设备800的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在一些实施例中,还提供了一种计算机可读存储介质,该存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述实施例中移动轨迹的确定方法的步骤。例如,所述计算机可读存储介质可以是ROM、RAM、CD-ROM、磁带、软盘和光数据存储设备等。
值得注意的是,本申请提到的计算机可读存储介质可以为非易失性存储介质,换句话说,可以是非瞬时性存储介质。
应当理解的是,实现上述实施例的全部或部分步骤可以通过软件、硬件、固件或者其任意结合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。所述计算机指令可以存储在上述计算机可读存储介质中。
也即是,在一些实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述所述的移动轨迹的确定方法的步骤。
以上所述为本申请提供的实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种移动轨迹的确定方法,其特征在于,所述方法包括:
基于通过雷达在第一可视区域内采集的目标的第一雷达检测数据,确定所述目标在所述第一可视区域内的第一雷达检测轨迹;
基于所述第一雷达检测轨迹中的目标轨迹点,确定预测轨迹,所述预测轨迹包括所述目标在雷达探测不到的区域对应的轨迹;
基于通过雷达在第二可视区域内采集的第二雷达检测数据,确定所述第二可视区域内的第二雷达检测轨迹;
当所述第二可视区域内存在一条第二雷达检测轨迹时,将所述第一雷达检测轨迹、所述预测轨迹以及所述第二雷达检测轨迹连接后的整体轨迹确定为雷达检测轨迹;
分别获取所述雷达检测轨迹和视频轨迹在多个相同时间点的轨迹点坐标,所述视频轨迹是通过视觉传感器确定得到;
根据所获取的轨迹点坐标,确定所述雷达检测轨迹与所述视频轨迹之间的相似度,得到第一相似度;
当所述第一相似度小于相似度阈值时,确定所述视频轨迹为所述目标的真实移动轨迹,所述第一相似度用于表示所述雷达检测轨迹和所述视频轨迹之间的差异。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
当所述第二可视区域内存在多条第二雷达检测轨迹时,确定所述多条第二雷达检测轨迹中每条第二雷达检测轨迹与所述预测轨迹之间的相似度,得到多个第二相似度;
当所述多个第二相似度中存在一个最大第二相似度时,将最大第二相似度对应的第二雷达检测轨迹确定为所述目标的第二雷达检测轨迹;
将所述第一雷达检测轨迹、所述预测轨迹以及所确定的第二雷达检测轨迹连接后的整体轨迹确定为所述雷达检测轨迹。
3.如权利要求2所述的方法,其特征在于,所述方法还包括:
当所述多个第二相似度中存在多个最大第二相似度时,分别确定所述多个最大第二相似度中每个最大第二相似度对应的第二雷达检测轨迹与所述视频轨迹之间的相似度,得到多个第三相似度,所述第三相似度用于表示所述第二雷达检测轨迹和所述视频轨迹之间的差异;
将所述多个第三相似度中最小第三相似度对应的第二雷达检测轨迹确定为所述目标的第二雷达检测轨迹。
4.如权利要求1所述的方法,其特征在于,所述基于通过雷达在第一可视区域内采集的目标的第一雷达检测数据,确定所述目标在所述第一可视区域内的第一雷达检测轨迹,包括:
所述第一雷达检测数据包括所述目标在不同轨迹点时与所述雷达之间的角度和距离,基于所述目标在不同轨迹点时与所述雷达之间的角度和距离,确定所述目标在不同轨迹点对应的轨迹点坐标;
根据所确定的轨迹点坐标,绘制所述目标在所述第一可视区域内的第一雷达检测轨迹。
5.如权利要求2所述的方法,其特征在于,所述基于所述第一雷达检测轨迹中的目标轨迹点,确定预测轨迹,包括:
根据所述第一雷达检测轨迹中的七个轨迹点的轨迹点坐标,采用最小二乘法,确定目标三次方函数;
基于所述第一雷达检测轨迹中的M个轨迹点的横坐标和所述目标三次方函数,确定多个预测轨迹点的轨迹点坐标;
根据所述多个预测轨迹点的轨迹点坐标,确定所述预测轨迹。
6.如权利要求2所述的方法,其特征在于,所述确定所述多条第二雷达检测轨迹中每条第二雷达检测轨迹与所述预测轨迹之间的相似度,包括:
根据每条第二雷达检测轨迹中的所有轨迹点的轨迹点坐标与所述预测轨迹中的所有轨迹点的轨迹点坐标,确定每条第二雷达检测轨迹对应的欧氏距离;
基于每条第二雷达检测轨迹对应的欧式距离,确定每条第二雷达检测轨迹对应的动态时间规整DTW递推模型;
基于所述DTW递推模型和参考调节系数,确定所述每条第二雷达检测轨迹与所述预测轨迹之间的相似度。
7.如权利要求1所述的方法,其特征在于,所述根据所获取的轨迹点坐标,确定所述雷达检测轨迹与所述视频轨迹之间的相似度,得到第一相似度,包括:
确定所述雷达检测轨迹与所述视频轨迹在每个相同时间点对应的轨迹点的欧式距离,得到多个欧式距离;
将所述多个欧式距离的平均值确定为所述第一相似度。
8.一种移动轨迹的确定装置,其特征在于,所述装置包括:
第一确定模块,用于基于通过雷达在第一可视区域内采集的目标的第一雷达检测数据,确定所述目标在所述第一可视区域内的第一雷达检测轨迹;基于所述第一雷达检测轨迹中的目标轨迹点,确定预测轨迹,所述预测轨迹包括所述目标在雷达探测不到的区域对应的轨迹;基于通过雷达在第二可视区域内采集的第二雷达检测数据,确定所述第二可视区域内的第二雷达检测轨迹;当所述第二可视区域内存在一条第二雷达检测轨迹时,将所述第一雷达检测轨迹、所述预测轨迹以及所述第二雷达检测轨迹连接后的整体轨迹确定为雷达检测轨迹;
获取模块,用于分别获取所述雷达检测轨迹和视频轨迹在多个相同时间点的轨迹点坐标,所述视频轨迹是通过视觉传感器确定得到;
第二确定模块,用于根据所获取的轨迹点坐标,确定所述雷达检测轨迹与所述视频轨迹之间的相似度,得到第一相似度;
第三确定模块,用于当所述第一相似度小于相似度阈值时,确定所述视频轨迹为所述目标的真实移动轨迹,所述第一相似度用于表示所述雷达检测轨迹和所述视频轨迹之间的差异。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为实现权利要求1-7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现权利要求1-7任一项所述方法的步骤。
CN201911135403.6A 2019-11-19 2019-11-19 移动轨迹的确定方法、装置、设备及存储介质 Active CN112904331B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911135403.6A CN112904331B (zh) 2019-11-19 2019-11-19 移动轨迹的确定方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911135403.6A CN112904331B (zh) 2019-11-19 2019-11-19 移动轨迹的确定方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN112904331A CN112904331A (zh) 2021-06-04
CN112904331B true CN112904331B (zh) 2024-05-07

Family

ID=76103575

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911135403.6A Active CN112904331B (zh) 2019-11-19 2019-11-19 移动轨迹的确定方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112904331B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113342057B (zh) * 2021-08-05 2021-12-03 特金智能科技(上海)有限公司 轨迹的融合方法、装置、无人机探测系统、设备和介质
CN114237286B (zh) * 2021-12-06 2024-04-16 上海特金信息科技有限公司 轨迹的确认方法、装置、无人机探测系统、设备和介质
CN114973060A (zh) * 2022-04-22 2022-08-30 山东省计算中心(国家超级计算济南中心) 一种移动视频的相似度计算方法和系统
CN116819511A (zh) * 2023-04-11 2023-09-29 中铁十一局集团有限公司 隧道全向广域毫米波雷达精准感知方法及相关设备
CN117111019B (zh) * 2023-10-25 2024-01-09 深圳市先创数字技术有限公司 一种基于雷达探测的目标跟踪监控方法和系统

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237339A (ja) * 2010-05-12 2011-11-24 Mitsubishi Electric Corp 経路予測装置
CN102819951A (zh) * 2011-06-09 2012-12-12 无锡物联网产业研究院 一种道路目标检测系统、方法及装置
CN104184990A (zh) * 2014-06-03 2014-12-03 南通航运职业技术学院 一种导航雷达或ais跟踪参数引导的智能视频监控系统
CN106710240A (zh) * 2017-03-02 2017-05-24 公安部交通管理科学研究所 融合多目标雷达与视频信息的通行车辆跟踪测速方法
CN107544507A (zh) * 2017-09-28 2018-01-05 速感科技(北京)有限公司 可移动机器人移动控制方法及装置
CN107672589A (zh) * 2017-09-26 2018-02-09 苏州观瑞汽车技术有限公司 一种基于雷达探测数据的车辆轨迹实时预测方法和装置
CN108227738A (zh) * 2017-12-28 2018-06-29 湖北电鹰科技有限公司 一种无人机避障方法及系统
CN108663681A (zh) * 2018-05-16 2018-10-16 华南理工大学 基于双目摄像头与二维激光雷达的移动机器人导航方法
CN108965809A (zh) * 2018-07-20 2018-12-07 长安大学 雷达引导的视频联动监控系统及控制方法
CN109583505A (zh) * 2018-12-05 2019-04-05 百度在线网络技术(北京)有限公司 一种多传感器的物体关联方法、装置、设备及介质
CN109885066A (zh) * 2019-03-26 2019-06-14 北京经纬恒润科技有限公司 一种运动轨迹预测方法及装置
CN109887033A (zh) * 2019-03-01 2019-06-14 北京智行者科技有限公司 定位方法及装置
CN109997054A (zh) * 2016-12-05 2019-07-09 追踪者有限责任公司 用于使用雷达数据和成像器数据跟踪物体的装置、系统和方法
CN110135314A (zh) * 2019-05-07 2019-08-16 电子科技大学 一种基于深度轨迹预测的多目标跟踪方法
CN110275179A (zh) * 2019-04-09 2019-09-24 安徽理工大学 一种基于激光雷达以及视觉融合的构建地图方法
CN110443285A (zh) * 2019-07-16 2019-11-12 浙江大华技术股份有限公司 相似轨迹的确定方法、装置及计算机存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8983765B2 (en) * 2006-10-11 2015-03-17 GM Global Technology Operations LLC Method and system for lane centering control
US10018711B1 (en) * 2014-01-28 2018-07-10 StereoVision Imaging, Inc System and method for field calibrating video and lidar subsystems using independent measurements
WO2016176487A1 (en) * 2015-04-28 2016-11-03 Henri Johnson Systems to track a moving sports object
US10565468B2 (en) * 2016-01-19 2020-02-18 Aptiv Technologies Limited Object tracking system with radar/vision fusion for automated vehicles
US9792567B2 (en) * 2016-03-11 2017-10-17 Route4Me, Inc. Methods and systems for managing large asset fleets through a virtual reality interface
US10794989B2 (en) * 2018-01-12 2020-10-06 The Euclide 2012 Investment Trust Method of using a direct sequence spread spectrum in vehicle location approximation when using orthogonal frequency-division multiplexing
KR102391205B1 (ko) * 2018-03-20 2022-04-27 주식회사 에이치엘클레무브 객체 검출 기반 거리 추정 장치 및 그 방법

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237339A (ja) * 2010-05-12 2011-11-24 Mitsubishi Electric Corp 経路予測装置
CN102819951A (zh) * 2011-06-09 2012-12-12 无锡物联网产业研究院 一种道路目标检测系统、方法及装置
CN104184990A (zh) * 2014-06-03 2014-12-03 南通航运职业技术学院 一种导航雷达或ais跟踪参数引导的智能视频监控系统
CN109997054A (zh) * 2016-12-05 2019-07-09 追踪者有限责任公司 用于使用雷达数据和成像器数据跟踪物体的装置、系统和方法
CN106710240A (zh) * 2017-03-02 2017-05-24 公安部交通管理科学研究所 融合多目标雷达与视频信息的通行车辆跟踪测速方法
CN107672589A (zh) * 2017-09-26 2018-02-09 苏州观瑞汽车技术有限公司 一种基于雷达探测数据的车辆轨迹实时预测方法和装置
CN107544507A (zh) * 2017-09-28 2018-01-05 速感科技(北京)有限公司 可移动机器人移动控制方法及装置
CN108227738A (zh) * 2017-12-28 2018-06-29 湖北电鹰科技有限公司 一种无人机避障方法及系统
CN108663681A (zh) * 2018-05-16 2018-10-16 华南理工大学 基于双目摄像头与二维激光雷达的移动机器人导航方法
CN108965809A (zh) * 2018-07-20 2018-12-07 长安大学 雷达引导的视频联动监控系统及控制方法
CN109583505A (zh) * 2018-12-05 2019-04-05 百度在线网络技术(北京)有限公司 一种多传感器的物体关联方法、装置、设备及介质
CN109887033A (zh) * 2019-03-01 2019-06-14 北京智行者科技有限公司 定位方法及装置
CN109885066A (zh) * 2019-03-26 2019-06-14 北京经纬恒润科技有限公司 一种运动轨迹预测方法及装置
CN110275179A (zh) * 2019-04-09 2019-09-24 安徽理工大学 一种基于激光雷达以及视觉融合的构建地图方法
CN110135314A (zh) * 2019-05-07 2019-08-16 电子科技大学 一种基于深度轨迹预测的多目标跟踪方法
CN110443285A (zh) * 2019-07-16 2019-11-12 浙江大华技术股份有限公司 相似轨迹的确定方法、装置及计算机存储介质

Also Published As

Publication number Publication date
CN112904331A (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
CN112904331B (zh) 移动轨迹的确定方法、装置、设备及存储介质
US11657516B2 (en) Target tracking method and computing device
US10638117B2 (en) Method and apparatus for gross-level user and input detection using similar or dissimilar camera pair
CN109947886B (zh) 图像处理方法、装置、电子设备及存储介质
CN111291768B (zh) 图像特征匹配方法及装置、设备、存储介质
CN106934351B (zh) 手势识别方法、装置及电子设备
US9058660B2 (en) Feature searching based on feature quality information
CN111738225B (zh) 人群聚集检测方法、装置、设备及存储介质
CN103679788A (zh) 一种移动终端中3d图像的生成方法和装置
CN114063098A (zh) 多目标跟踪方法、装置、计算机设备和存储介质
CN113808162B (zh) 目标跟踪方法、装置、电子设备及存储介质
Xiaowei et al. Object tracking with an evolutionary particle filter based on self-adaptive multi-features fusion
Huang et al. An improved method for swing measurement based on monocular vision to the payload of overhead crane
CN110728172B (zh) 基于点云的人脸关键点检测方法、装置、系统及存储介质
Tang et al. Real-time detection of moving objects in a video sequence by using data fusion algorithm
US20240013406A1 (en) Trajectory predicting method and computing system for trajectory prediction
CN117132649A (zh) 人工智能融合北斗卫星导航的船舶视频定位方法及装置
WO2011047508A1 (en) Embedded vision tracker and mobile guiding method for tracking sequential double color beacons array with extremely wide-angle lens
CN109444905B (zh) 一种基于激光的动态物体检测方法、装置及终端设备
CN109241942B (zh) 图像处理方法、装置、人脸识别设备及存储介质
CN116384148A (zh) 一种雷达对抗系统的元宇宙建模系统
CN114648556A (zh) 视觉跟踪方法、装置和电子设备
Yan et al. An efficient extended target detection method based on region growing and contour tracking algorithm
Zhang et al. An Efficient Feature Extraction Scheme for Mobile Anti-Shake in Augmented Reality
Hu et al. Hough transform relative to a four-dimensional parameter space for the detection of constant velocity target

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant