发明内容
本发明要解决的技术问题就在于:针对现有技术存在的技术问题,本发明提供一种原理简单、操作简便、精度更高的融合毫米波雷达与相机的区域目标跟踪方法。
为解决上述技术问题,本发明采用以下技术方案:
一种融合毫米波雷达与相机的区域目标跟踪方法,其步骤包括:
步骤S1:通过雷达进行数据采集,实时获取运动目标的信息;
步骤S2:通过相机进行图像信息采集,使用深度学习中的神经网络提取图像中感兴趣的目标区域;
步骤S3:利用目标跟踪算法对视频中的目标进行编号并跟踪;
步骤S4:从运动的画面中提取出移动的感兴趣目标;
步骤S5:将雷达目标和视频目标进行融合;
步骤S6:对感兴趣目标进行持续跟踪与警戒。
作为本发明的进一步改进:所述步骤S1中通过去噪、滤波、聚类操作滤除静态目标信息,得到运动目标的距离、方位及速度信息。
作为本发明的进一步改进:所述步骤S2中,感兴趣目标为区域警戒场景下的目标可能进行入侵的移动目标;所述神经网络包括输入端、主干网络、连接网络、检测头输出端;所述输入端用于接收图像数据,所述主干网络用于从图像中提取特征,所述连接网络用于将所提取网络进行融合并采样至不同尺度,所述检测头输出端用于根据所提取特征对感兴趣目标进行定位与分类;所述目标区域为用边界框将感兴趣目标在图像中的位置标记出来。
作为本发明的进一步改进:所述步骤S3中,包括以下步骤:
步骤31:给每个视频目标分配ID号;
步骤32:比较前后两帧的目标框,对于每一个视频目标,比较前后两帧目标框的重叠区域,若重叠区域较大,则保留该ID号并更新目标框位置;若重叠区域太小或无重叠区域,则根据目标的运动趋势进行目标框的预测;
步骤33:比较预测的目标框和真实的目标框,若重叠区域较大,则保留该ID号,否则清除该ID号。
作为本发明的进一步改进:所述步骤S4中,包括以下步骤:
步骤41:获取相机的参数;
步骤42:在固定时间间隔获取相机的PTZ值参数,所述PTZ值为相机的水平运动状态、俯仰运动状态及变焦状态;
步骤43:根据当前的变焦状态及最大视场角计算当前变倍大小下的视场角大小;
步骤44:将两次的PTZ值进行相减运算,得到相机转动的角度,再根据相机当前视场角及其成像分辨率,计算相机运动造成的像素偏移量;
步骤45:获取固定间隔前后同一ID目标的目标框,对相机运动前的框进行补偿并与运动后的目标框进行重叠区域计算,所述补偿是在运动前的目标框上加上相机运动造成的像素偏移量,若重叠区域太小或不重叠,则得到运动的感兴趣目标,否则为静态目标。
作为本发明的进一步改进:所述步骤S5中,包括以下步骤:
步骤51:获取雷达目标信息与视频目标信息;
步骤52:雷达目标和视频目标的融合;
步骤53:使用新息误差来进行数据关联和状态更新。
作为本发明的进一步改进:所述雷达目标信息包括雷达目标的距离、方位及速度,所述视频目标信息包括目标在图像中的位置、目标的类别及目标分类正确的置信度;获取可见光相机的水平视场角、垂直视场角及相机成像的分辨率大小。
作为本发明的进一步改进:所述步骤52中融合包括数据关联、及状态更新;所述数据关联采用最近邻方法,在状态预测及更新阶段,使用线性卡尔曼滤波,预测状态
、状态转移矩阵A和后验状态
满足:
。
作为本发明的进一步改进:所述步骤53中测量残差满足:
,在不进行空间标定及坐标转换的情况下,将目标与相机光心的夹角
作为目标的状态矩阵,使用图像目标的坐标值
代入观测矩阵计算
,将图像目标的宽
及当前水平视场角代入观测模型,最终可计算得到测
量残差
;最终得到新息误差
,通过新息误差判断雷达目标与视频目标是否匹配。
作为本发明的进一步改进:所述步骤S1和步骤S2为并行的两个步骤。
与现有技术相比,本发明的优点就在于:
本发明的融合毫米波雷达与相机的区域目标跟踪方法,原理简单、操作简便、精度更高,其利用毫米波雷达和可见光相机对感兴趣目标进行持续跟踪,并根据目标是否进入警戒区域而确定是否执行报警处理,这就能够有效利用多个传感器的优势进行互补,全方位提升区域安防检测及跟踪入侵目标的效率,从而有效地解决了区域警戒场景中的雷达目标与视频感兴趣目标的对应关系问题,减少了误报的情况。
具体实施方式
以下将结合说明书附图和具体实施例对本发明做进一步详细说明。
如图1所示,本发明的一种融合毫米波雷达与相机的区域目标跟踪方法,是利用毫米波雷达和可见光相机对感兴趣目标进行持续跟踪,并根据目标是否进入警戒区域而确定是否执行报警处理。本发明的具体步骤包括:
步骤S1: 雷达数据采集及处理:使用毫米波雷达进行数据采集,实时获取运动目标的距离、方位及速度;
步骤S2: 相机采集及处理:使用可见光相机(如云台相机)进行图像信息采集,并使用深度学习中的神经网络提取图像中感兴趣的目标区域;
步骤S3: 视频目标跟踪:使用目标跟踪算法对视频中的目标进行编号并跟踪;
步骤S4: 运动画面中的移动目标提取:从运动的画面中提取出移动的感兴趣目标;
步骤S5: 在无需空间标定及坐标转换的情况下,将雷达目标和视频目标进行融合;
步骤S6: 目标持续跟踪与警戒:对感兴趣目标进行持续跟踪与警戒。
在具体应用实例中,所述步骤S1中的雷达数据采集及处理具体包括:通过去噪、滤波、聚类等操作滤除静态目标信息,得到运动目标的距离、方位及速度等信息。
在本实施例中,步骤S1和步骤S2可以是并行的两个步骤,不存在严格的先后时序关系。
在具体应用实例中,所述步骤S2使用深度学习中的神经网络提取图像中感兴趣的目标区域为:使用改进的YOLOv5方法检测感兴趣目标。其中:
所述感兴趣目标为区域警戒场景下的人、车、动物等可能进行入侵的移动目标;
所述神经网络包括输入端、主干网络、连接网络、检测头输出端;所述输入端用于接收图像数据,所述主干网络用于从图像中提取特征,所述连接网络用于将所提取网络进行融合并采样至不同尺度,所述检测头输出端用于根据所提取特征对感兴趣目标进行定位与分类。
所述目标区域为用矩形框将感兴趣目标在图像中的位置标记出来。
在具体应用过程中,输入端表示输入网络的图像,本实例中的输入图像尺寸为640×640大小,该阶段包括对图像的预处理操作。所述预处理操作具体包括图像缩放至网络输入大小、归一化、在图像中加入噪声、模糊图像、图像拼接等。进一步,同时使用Mosaic数据增强操作,提升网络的泛化能力,所述Mosaic数据增强方法则使用4张图片,并且按照随机缩放、随机裁剪和随机排布的方式进行拼接。进一步,还可以使用自适应锚框计算与自适应图片缩放提升检测效果。
在具体应用过程中,主干网络可以选用性能优异的分类器网络,用于提取图像中的通用特征表示,本实例中使用CSPDarknet53结构作为主干网络。
在具体应用过程中,连接网络可以位于主干网络与检测头输出端之间,主要用于提升特征的多样性及鲁棒性,本实例中的连接网络使用SPP模块、FPN模块及PAN模块。
在具体应用过程中,检测头输出端用于完成目标检测结构的输出,根据所提取特征对感兴趣目标进行定位与分类,针对不同的检测算法,输出端的分支个数不尽相同,通常包含一个分类分支和一个回归分支。
在步骤S3中,使用目标跟踪算法对视频中的目标进行编号并跟踪,具体包括获取视频目标信息,具体包括视频目标的类别及在图像中的位置,并分配ID号。预测下一帧的目标位置比较前后两帧的目标框,对于每一个视频目标,根据卡尔曼滤波方法对目标在图像下一帧的位置进行预测,比较前后两帧目标框的重叠区域,若重叠区域较大,则保留该ID号并更新目标框位置;若重叠区域太小或无重叠区域,则根据目标的运动趋势进行目标框的预测。
在具体应用实例中,所述步骤S3的具体过程可以包括以下步骤:
步骤31:给每个视频目标分配ID号;使用目标跟踪算法对视频中的目标进行编号并跟踪,具体包括获取视频目标信息,即包括视频目标的类别及在图像中的位置,并分配ID号。参见图2所示,为应用实例中在视频中的2个感兴趣目标101、102。
步骤32:比较前后两帧的目标框,对于每一个视频目标,比较前后两帧目标框的重叠区域,若重叠区域较大,则保留该ID号并更新目标框位置;若重叠区域太小或无重叠区域,则根据目标的运动趋势进行目标框的预测;
步骤33:比较预测的目标框和真实的目标框,若重叠区域较大,则保留该ID号,否则清除该ID号。
在步骤S4中,在运动画面中进行移动目标提取:获取云台相机的运动状态,根据相机的PTZ值判断画面是否偏移,计算画面的像素偏移,对每一个运动前的目标框进行补偿,并与运动后同一ID的目标框进行对比,得到该目标的运动状态。
在具体应用实例中,所述步骤S4的具体过程可以包括以下步骤:
步骤41:获取相机的参数,包括相机的最大水平视场角、最大垂直视场角、镜头焦距、相机最大变倍数、相机成像的分辨率大小、云台相机的最大转动速度;
步骤42:获取PTZ值:在固定时间间隔获取相机的PTZ值参数,所述PTZ值为相机的水平运动状态、俯仰运动状态及变焦状态;通过固定时间前后得到的两次状态值,可以反映出云台相机的运动幅度。所述固定时间应保证云台以最大速度转动时,在此时间内,图像的偏移不超过图像宽或高的一半。
步骤43:计算当前视场角:根据当前的变焦状态及最大视场角计算当前变倍大小下的视场角大小;其中,当前视场角FOV、最大视场角MaxFOV、当前变倍大小Zoom以及相机最大变倍数MaxZoom应满足:
步骤44:计算画面像素偏移:将两次的PTZ值进行相减运算,得到相机转动的角度,再根据相机当前视场角及其成像分辨率,计算相机运动造成的像素偏移量;即,得到固定时间前后的PTZ值后,通过计算在水平、俯仰方向以及变焦状态的变化,可以得到相机转动的角度。图像的偏移像素ShiftPix、相机转动的角度az、当前的视场角FOV以及图像的宽或高ImagePix应满足:
需要注意的是,因为固定时间取PTZ值的设置,图像的偏移像素不会超过图像的宽或高的一半,若图像的偏移像素为0或较小,则认为当前云台相机为静止状态。同时,图像在水平方向和俯仰方向的像素偏移应采用对应的水平视场角或垂直视场角计算。
步骤45:判断目标状态:获取固定间隔前后同一ID目标的目标框,对相机运动前的框进行补偿并与运动后的目标框进行重叠区域计算,所述补偿是在运动前的目标框上加上相机运动造成的像素偏移量,若重叠区域太小或不重叠,则得到运动的感兴趣目标,否则为静态目标;
首先,获取固定时间间隔前后,同一ID目标的目标框位置,根据步骤S44得到的图像像素偏移判断该时间间隔内,云台是否运动。若云台未运动,即图像画面静止,则计算固定时间间隔前后同一ID目标的目标框的交并比(IOU),所述IOU为两个目标框的重叠程度的量化指标,若其IOU小于一定阈值,则认为该目标为运动目标,否则为静态目标;若云台运动,则对云台运动前每一个目标框进行补偿,再与运动后同一ID目标的目标框计算IOU,若其IOU小于一定阈值,则认为该目标为运动目标,否则为静态目标,所述补偿是在运动前的目标框上加上相机运动造成的像素偏移量,运动前的目标框BBox1(x1, y1, w1, h1),对BBox1补偿后的目标框BBox2(x2, y2, w2, h2),水平偏移像素ShiftPixX及纵向偏移像素ShiftPixY满足:
在具体应用实例中,所述步骤S5的具体过程可以包括以下步骤:
步骤51:获取雷达目标信息与视频目标信息;
所述雷达目标信息包括雷达目标的距离、方位及速度,所述视频目标信息包括目标在图像中的位置、目标的类别及目标分类正确的置信度;获取可见光相机的水平视场角、垂直视场角及相机成像的分辨率大小。
步骤52:雷达目标和视频目标的融合;
所述融合包括数据关联、及状态更新;
所述数据关联采用最近邻方法,保证了算法的简洁性及时间效率,在状态预测及更新阶段,使用线性卡尔曼滤波,预测状态
、状态转移矩阵A和后验状态
满足:
。
步骤53:使用新息误差来进行数据关联和状态更新。
测量残差满足:
,在不进行空间标定及坐标转换的情况下,将目标与相机光心的夹角
作为目标的状态矩阵,使用图像目标的坐标值
代入观测矩阵计算
,将图像目标的宽
及当前水平视场角代入观测模
最终得到新息误差
,通过新息误差判断雷达目标与视频目标是否匹配。
在一个具体应用实例中,如图3所示为云台相机转动后的画面,及当前检测目标103、104分别与经过补偿后的目标框101、102的对应关系,经过补偿后的目标框101和当前103重叠区域较大,补偿后的目标框102和当前104无重叠区域,可判断101为静止目标,102为移动目标。
步骤S5:雷达目标与视频移动目标融合:在提取出雷达目标与视频中的移动目标后,在无需坐标转换与空间标定的情况下,将两种不同传感器的数据进行融合,利用不同传感器的优势,提升整体检测效果,具体包括步骤S51获取目标信息与传感器信息、步骤S52数据关联与状态更新、步骤S53跟踪管理。
步骤S51:获取目标信息与传感器信息:获取目标信息具体包括获取雷达目标信息与视频目标信息,所述雷达目标信息包括雷达目标的距离、方位及速度,所述视频目标信息包括目标在图像中的位置、目标的类别及目标分类正确的置信度。值得注意的是,雷达数据和视频数据为同一时间采集,且采用线程同步的方法进行雷达数据和视频数据的对齐。
步骤S52:数据关联与状态更新:数据关联采用最近邻关联方法,保证了算法的简洁性及时间效率,在状态预测及更新阶段,使用线性卡尔曼滤波,预测状态
、状态转移矩阵A和后验状态
满足:
即通过计算状态转移矩阵来预测下一时刻的状态,使用新息误差来进行数据关联和状态更新。测量残差
,当前状态的观测值
,观测模型
及预测状态
满足:
通过不断比较观测状态和预测状态,减小其差距,从而使预测状态不断地更接近观测状态。在不进行空间标定及坐标转换的情况下,将目标与相机光心的夹角
代入目标的状态矩阵,使用图像目标的坐标值
代入观测矩阵计算
,将图像目标的宽
及当前水平视场角代入观测模型,最终可计算得到测量残差
其中
为
的协方差矩阵,通过新息误差判断雷达目标与视频目标是否匹配,若
小于一定的阈值,则认为该对目标匹配,并进行状态更新:
其中,
为卡尔曼增益,
为
的协方差矩阵,I为单位矩阵,其中状态
更新包括雷达目标距离r,视频目标与相机光心的夹角az的更新。若
大于阈值,则认为该对目标不匹配,并将该对目标转入未匹配目标的跟踪管理,从而完成雷达数据与视频数据的关联。
步骤S53:跟踪管理:具体包括跟踪器合并、跟踪器更新、未匹配的跟踪管理。跟踪器合并是指若存在运动的雷达目标或视频目标则生成一个跟踪器,在雷达目标与视频目标完成匹配后,若存在两个匹配完成的跟踪器的状态
和
以及其协方差矩阵
满足:
则将两个跟踪器合并,并删除第二个跟踪器。跟踪器更新即实时对跟踪器的状态
及其协方差矩阵进行更新。未匹配的跟踪管理具体为,对于未匹配上的雷达目标与视频目标,增大其新息误差:
在具体应用实例中,在所述步骤S6中,对于完成匹配的雷达目标与视频目标,将其不同传感器上的信息合并,包括来自雷达传感器的方位、距离与速度等,来自视频传感器的目标类型、在图像中的位置、目标置信度等,并将这些信息进行记录与实时更新。目标在运动过程中,根据目标的雷达方位及目标在图像中的位置,引导云台进行转动,使目标始终位于图像中心。根据目标的距离信息,设置安防防区,若目标进入防区内,则对目标进行警戒。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。