CN117031424A - 一种基于导航雷达的水面目标检测跟踪方法 - Google Patents

一种基于导航雷达的水面目标检测跟踪方法 Download PDF

Info

Publication number
CN117031424A
CN117031424A CN202310681707.2A CN202310681707A CN117031424A CN 117031424 A CN117031424 A CN 117031424A CN 202310681707 A CN202310681707 A CN 202310681707A CN 117031424 A CN117031424 A CN 117031424A
Authority
CN
China
Prior art keywords
target
radar
echo
matching
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310681707.2A
Other languages
English (en)
Inventor
王伟
杜旭洋
杨志伟
薛冰
黄平
李欣
吴凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202310681707.2A priority Critical patent/CN117031424A/zh
Publication of CN117031424A publication Critical patent/CN117031424A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/414Discriminating targets with respect to background clutter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

一种基于导航雷达的水面目标检测跟踪方法,涉及环境感知技术领域,针对现有技术中当雷达回波图像中存在位置相距较小的多个目标时易产生误匹配的问题,本申请首先利用图像区域连通算法对破碎程度较低的回波进行聚合操作;其次结合地图匹配算法将陆地、岛屿等破碎程度较高的回波准确判别并剔除;再次通过结合回波形态和位置的Kuhn‑Munkres(KM)算法对连续两帧回波图中属于同一目标的回波进行匹配;最终利用加入ARIMA预测模型序列的EMD算法对回波消失的目标进行预测,同时提升了导航雷达在目标检测跟踪过程中的抗干扰能力以及匹配准确率,进而解决了当雷达回波图像中存在位置相距较小的多个目标时易产生误匹配的问题。

Description

一种基于导航雷达的水面目标检测跟踪方法
技术领域
本发明涉及环境感知技术领域,具体为一种基于导航雷达的水面目标检测跟踪方法。
背景技术
随着人工智能相关领域的飞速发展,合理利用无人艇替代有人水面舰艇能够在一些人为无法操控的水域环境中完成一系列复杂、危险的工作。无人艇执行任务的条件是具有安全的自主航行能力,针对无人艇的工作环境以及工作任务,具有高精度的环境感知能力是实现无人艇安全航行的重要前提。目前,无人艇对水面环境进行检测的手段主要包括导航雷达、激光雷达和视觉相机等。激光雷达和视觉相机的检测范围相对较小,导航雷达的能够实现较远距离的探测,并且检测精度受天气和海况影响较小,所以多数利用导航雷达实现水面的环境感知。为了保证无人艇对周围环境具有良好的感知能力,需要对导航雷达的目标检测跟踪性能进行更深一步的研究。
理论上导航雷达可以精准获取到目标的反射回波,无人艇通过接收雷达的回波数据就能够得到周围工作环境的信息。在实际使用过程中,由于海上环境复杂,雷达接收到的回波强度和完整度都不稳定,易导致回波图中出现区域破碎现象,需要先聚合回波再进行目标检测,常用于对破碎目标进行聚类的DBSCAN算法计算复杂度随着数据量的增多而增大,导致运行速度缓慢;利用卷积神经网络进行目标检测时,需要建立对应的数据集,并且对硬件的要求较高。当导航雷达对目标进行跟踪时,需要将连续多帧回波图中属于同一目标的回波进行匹配,常用基于位置关系的KM算法实现,但当雷达回波图像中存在位置相距较小的多个目标时易产生误匹配。
发明内容
本发明的目的是:针对现有技术中当雷达回波图像中存在位置相距较小的多个目标时易产生误匹配的问题,提出一种基于导航雷达的水面目标检测跟踪方法。
本发明为了解决上述技术问题采取的技术方案是:
一种基于导航雷达的水面目标检测跟踪方法,包括以下步骤:
步骤1:接收导航雷达和惯导数据,并对导航雷达和惯导数据进行解算,得到雷达的回波数据,之后对雷达的回波数据进行预处理,所述预处理包括图像修正、坐标变换以及滤波处理,所述坐标变换用于将雷达的回波数据从极坐标系下映射到直角坐标系;
步骤2:利用Two-pass算法对预处理后的雷达回波数据进行处理,得到带有标签的雷达回波图像;
步骤3:基于导航雷达的量程,获取覆盖该量程的地图,之后将地图通过墨卡托投影将地理坐标转换为直角坐标系,然后进行平移操作,转换至屏幕坐标系,最后将转换后的地图和雷达回波图像进行尺度归一化;
步骤4:利用基于自适应阈值分割的距离匹配算法对归一化后的地图和雷达回波图像进行匹配,判别属于陆地或岛屿的回波,并确定陆地或岛屿的回波对应的标签,即批号;
步骤5:获取目标对应批号的回波具体位置以及轮廓信息,利用二元素KM匹配算法对连续两帧中属于同一目标的回波进行匹配,并赋予同一批号;
步骤6:判断新出现的回波是目标还是杂波,若为杂波,则不赋予新批号,若为目标,则对新出现的目标赋予新批号;
步骤7:检测目标距无人艇的距离,并根据连续帧的回波信息解算目标的航向和目标的航速,之后判断目标距无人艇的距离、目标的航向和目标的航速有无毛刺干扰,若有毛刺干扰,则进行EMD算法分解,得到IMF,并将IMF中最高频的IMF剔除掉,之后将剩余IMF进行信号重构得到去掉毛刺干扰的目标距无人艇的距离、目标的航向和目标的航速,否则判断已赋予批号的、且持续出现5帧以上的目标对应的回波是否消失,当目标消失时,则利用ARIMA模型对消失目标进行位置预测,当消失目标对应的回波在后3帧出现时,则利用该目标预测位置与目标出现的位置进行匹配,若匹配结果一致,则赋予同一批号,否则,将该消失目标剔除,进而完成目标检测跟踪;
步骤8:消失目标剔除后,预测未来连续3帧所有回波的位置,之后利用EMD算法优化所有的目标当前距无人艇的距离、航向和航速。
进一步的,所述将地理坐标转换为直角坐标系表示为:
其中,(X,Y)为地球球面一点P的经纬度坐标,(x,y)为(X,Y)对应的直角坐标,K为基准纬度圈半径,L0为地球球面原点经度,原点纬度为0。
进一步的,所述转换后的地图的尺寸表示为:
其中,Pc和P分别为雷达图像和地图在屏幕坐标系下的尺寸,Rc为雷达图像的实际距离,R为地图的实际距离。
进一步的,所述步骤4中利用基于自适应阈值分割的距离匹配算法对归一化后的地图和雷达回波图像进行匹配的具体步骤为:
步骤4.1:将雷达回波图像和归一化后的地图中无人艇所在位置的像素点作为匹配点,实现雷达回波图像和归一化后的地图的初步匹配,得到匹配图像;
步骤4.2:对雷达回波图像进行二值化,归一化后的地图通过自适应阈值分割算法进行二值化,其中自适应阈值分割算法具体包括:
步骤4.2.1:寻找归一化后的地图的灰度极值,即最大灰度lmax(x,y)与最小灰度lmin(x,y),计算归一化后的地图的最大灰度lmax(x,y)与最小灰度lmin(x,y)的均值G1
步骤4.2.2:将G1作为迭代法的初始阈值,以初始阈值作为分界阈值,分别寻找归一化后的地图中所有大于G1的像素点灰度极值和所有小于G1的像素点灰度极值,并分别得到所有大于G1的像素点灰度极值的平均值G11和所有小于G1的像素点灰度极值平均值G12,得到第二个阈值G2
步骤4.2.3:更新阈值为G2,并重复步骤4.2.2,直到|Gi-Gi-1|<0.1时,停止,选取Gi对归一化后的地图进行二值化;
步骤4.3:将步骤4.2中二值化后的雷达回波图像和地图,通过canny算子,提取雷达回波图像和地图的轮廓;
步骤4.4:根据步骤4.1中匹配图像,并结合雷达回波图像和地图的轮廓,分别选取雷达回波图像和地图的最小外接矩形,并将两个最小外接矩形中大的矩形分别作为雷达回波图像的匹配区域和地图的匹配区域;
步骤4.5:计算雷达回波图像的匹配区域和地图的匹配区域之间的Hausdorff距离,选择相似度最高的匹配点进行匹配。
进一步的,所述步骤4.5的具体步骤为:
假设雷达回波图像的匹配区域和地图的匹配区域中像素点分别构成集合A和B:
A={a1,a2,…,ap}B={b1,b2,…,bq}
其中,ap表示集合A中第p个像素点,bq表示集合B中第q个像素点;
A、B之间的Hausdorff距离定义为:
其中,i=1,2...p,j=1,2...q,h(B,A)表示B到A的Hausdorff,h(A,B)表示A到B的Hausdorff。
进一步的,所述步骤5中利用二元素KM匹配算法对连续两帧中属于同一目标的回波进行匹配的具体为:
步骤5.1:假设前一帧回波具体位置坐标为(x1,x2,x3,,xn),对应的回波面积为(s1,s2,s3,,sn),后一帧回波具体位置坐标为(y1,y2,y3,,yn),对应的回波面积为(t1,t2,t3,,tn),分别求出前后两帧回波具体位置的欧式距离之和的最小值sum1和回波面积的欧式距离之和的最小值sum2:
步骤5.2:根据sum1和sum2,并利用KM算法进行匹配,得到匹配结果。
进一步的,所述进行EMD算法分解,得到IMF的具体步骤为:
步骤7.2.1:首先获取目标距无人艇的距离、航向或航速信息的信号序列,表示为:
其中,r为信号余量,IMFk(t)为第k个本征模态分量,K为本征模态分量总数;
之后获取s(t)所有的极大值和极小值,极大值和极小值分别进行三次样条拟合函数拟合得到s(t)的上、下包络曲线,并得到上、下包络曲线的均值m(t);
步骤7.2.2:计算分量判断/>是否为IMF,如果是IMF,则将IMF记为Ii(t),并执行步骤7.2.3,如果不是IMF,则令/>并执行步骤7.2.1,直至得到IMF:
判断是否为IMF的标准为满足两个条件:
(1)信号中的零点个数与极值点个数差值不大于1;
(2)信号任意点的上下包络均值为0;
步骤7.2.3:Ii(t)为第i个IMF分量,求取残余量r(t):
步骤7.2.4:当余量r(t)为常量或者单调函数时,停止分解。
进一步的,所述步骤4.3中通过canny算子提取雷达回波图像和地图的轮廓的具体步骤为:
利用canny算子分别提取雷达回波图像轮廓和地图的轮廓,将根据轮廓面积的均值对提取轮廓进行筛选,大于均值的轮廓进行保留,小于轮廓的均值剔除。
进一步的,所述步骤1中滤波处理包括孤立噪声点滤波和回波阈值滤波。
进一步的,所述图像修正采用图像滑窗修正法。
本发明的有益效果是:
本申请首先利用图像区域连通算法对破碎程度较低的回波进行聚合操作;其次结合地图匹配算法将陆地、岛屿等破碎程度较高的回波准确判别并剔除;再次通过结合回波形态和位置的Kuhn-Munkres(KM)算法对连续两帧回波图中属于同一目标的回波进行匹配;最终利用加入ARIMA预测模型序列的EMD算法对回波消失的目标进行预测,同时提升了导航雷达在目标检测跟踪过程中的抗干扰能力以及匹配准确率,进而解决了当雷达回波图像中存在位置相距较小的多个目标时易产生误匹配的问题。
本申请相比于通过聚类算法实现回波聚合的方式,运行时间较短,算法设置参数较少,且实现起来更加简单方便;并且本申请相比于传统目标跟踪算法,提升了匹配准确率和抗干扰能力;本申请整体改善了无人艇搭载导航雷达进行目标检测跟踪后得到的目标信息精度较低的问题。
附图说明
图1为雷达回波图像修正前图像;
图2为雷达回波图像修正后图像;
图3为滤波后的雷达回波示意图;
图4为区域连通的雷达回波示意图;
图5为地图尺度归一化示意图;
图6为自适应迭代阈值分割法示意图;
图7为地图直接二值化示意图;
图8为地图自适应阈值分割二值化示意图;
图9为回波图像与地图匹配后的结果示意图;
图10为集合匹配二分图;
图11为前一帧回波示意图;
图12为当前帧回波示意图;
图13为实验场景一轨迹图;
图14为实验场景二轨迹图;
图15为实验场景三轨迹图;
图16为实验场景四轨迹图;
图17为场景一检测距离信息对比图;
图18为场景一距离信息误差对比图;
图19为场景一检测航向信息对比图;
图20为场景一航向信息误差对比图;
图21为场景一检测航速信息对比图;
图22为场景一航速信息误差对比图;
图23为场景二检测距离信息对比图;
图24为场景二距离信息误差对比图;
图25为场景二检测航向信息对比图;
图26为场景二航向信息误差对比图;
图27为场景二检测航速信息对比图;
图28为场景二航速信息误差对比图;
图29为场景三检测距离信息对比图;
图30为场景三距离信息误差对比图;
图31为场景三检测航速信息对比图;
图32为场景三航速信息误差对比图;
图33为场景四检测距离信息对比图;
图34为场景四距离信息误差对比图;
图35为场景四检测航向信息对比图;
图36为场景四航向信息误差对比图;
图37为场景四检测航速信息对比图;
图38为场景四航速信息误差对比图。
具体实施方式
需要特别说明的是,在不冲突的情况下,本申请公开的各个实施方式之间可以相互组合。
具体实施方式一:参照图1具体说明本实施方式,本实施方式所述的一种基于导航雷达的水面目标检测跟踪方法,包括以下步骤:
步骤1:根据无人艇搭载的导航雷达和惯导传输数据的UDP协议接收导航雷达和惯导数据,并对导航雷达和惯导数据进行解算,得到雷达的回波数据,之后对雷达的回波数据进行预处理,所述预处理包括图像修正、坐标变换以及滤波处理,所述坐标变换用于将雷达的回波数据从极坐标系下映射到直角坐标系;
步骤2:利用Two-pass算法对预处理后的雷达回波数据进行处理,得到带有标签的雷达回波图像;
步骤3:基于导航雷达的量程,获取覆盖该量程的地图,之后将地图通过墨卡托投影将地理坐标转换为直角坐标系,然后进行平移操作,转换至屏幕坐标系,最后将转换后的地图和雷达回波图像进行尺度归一化;
步骤4:利用基于自适应阈值分割的距离匹配算法对归一化后的地图和雷达回波图像进行匹配,判别属于陆地或岛屿的回波,并确定陆地或岛屿的回波对应的标签,即批号;
步骤5:获取目标对应批号的回波具体位置以及轮廓信息,利用二元素KM匹配算法对连续两帧中属于同一目标的回波进行匹配,并赋予同一批号;
步骤6:判断新出现的回波是目标还是杂波,若为杂波,则不赋予新批号,若为目标,则对新出现的目标赋予新批号;
步骤7:检测目标距无人艇的距离,并根据连续帧的回波信息解算目标的航向和目标的航速,之后判断目标距无人艇的距离、目标的航向和目标的航速有无毛刺干扰,若有毛刺干扰,则进行EMD算法分解,得到IMF,并将IMF中最高频的IMF剔除掉,之后将剩余IMF进行信号重构得到去掉毛刺干扰的目标距无人艇的距离、目标的航向和目标的航速,否则判断已赋予批号的、且持续出现5帧以上的目标对应的回波是否消失,当目标消失时,则利用ARIMA模型对消失目标进行位置预测,当消失目标对应的回波在后3帧出现时,则利用该目标预测位置与目标出现的位置进行匹配,若匹配结果一致,则赋予同一批号,否则,将该消失目标剔除,进而完成目标检测跟踪;
步骤8:消失目标剔除后,预测未来连续3帧所有回波的位置,之后利用EMD算法优化所有的目标当前距无人艇的距离、航向和航速。
步骤一、按照协议接收导航雷达和惯导采集的数据,并对采集数据进行图像修正、坐标变换以及滤波处理等操作;
所述步骤一中,根据无人艇搭载的导航雷达和惯导传输数据的UDP协议,设计对应的接口进行数据接收,对接收到的数据进行解算后得到原始数据信息。由于无人艇自身运动状态变化和所处环境的复杂性,雷达的回波数据存在角度变化,需要对雷达图像进行修正。本发明利用图像滑窗修正法实现修正,其可以保证雷达图像的连续性,避免雷达图像出现盲区或重叠现象,且角度偏移的影响较小。利用连续获取到的两幅雷达回波图像数据,结合惯导信息,在前后雷达回波图像中各搜索一条正北向径向脉冲序数,截取中间部分组成新的完整雷达图像。由于新图像的雷达脉冲径向数与原始图像的雷达脉冲径向数存在差异,影响后续坐标变换问题,因此还需要对径向数据进行随机插值或删除操作,使径向数保持一致。插值与删除的径向序数选取应尽量均匀分布于无人艇航向变化较大的部分,以减小因数据量变化带来角度偏移的累积效应,修正前后的雷达回波对比图如图1和图2所示。
对回波图像进行修正后,由于原始回波图像是极坐标系下的数据,连通区域算法需要使用直角坐标系下的数据,需要预先将雷达回波图进行坐标转换。本发明采用坐标映射的方式,将极坐标系下的点直接映射到直角坐标系中唯一的对应点,通过遍历的方式一一搜索各点的映射关系,最终得到坐标系之间的映射矩阵。该算法第一次映射时需要较长时间,但后续可重复使用,迅速转换坐标系。
经过坐标变换后的回波数据还存在着少数来自陆地、海浪以及变换过程中的孤立噪声等干扰,需要对接收到的回波数据进行滤波处理。对雷达回波图像的滤波处理主要包括孤立噪声点滤波和回波阈值滤波。利用腐蚀—膨胀算法能够滤除回波图中的孤立噪声;利用统计的算法,通过移动核计算所有回波的均值及标准差,按照一定的判断准则,确定合适的阈值能够滤除回波图中的阈值噪声,滤波后的雷达回波图像如图3所示。
步骤二、对预处理后的雷达回波图像进行区域连通操作,聚合破碎程度较小的回波;
所述步骤二中,对原始回波图像经过预处理后,得到的雷达回波图初步显示出水面目标状况。由于雷达自身性能以及环境的影响,不同的回波可能表示的是同一目标。为了确定水面目标的具体状态,需要将回波进行聚合。连通区域(Connected Component)根据像素对回波图进行划分,将其中相邻的且具有相同像素值的前景区域进行标记,每个单独的连通区域会形成一个被标识的块。通过获取不同块中回波的轮廓、外接矩形、质心等几何参数,得到对应目标的信息。
Two-pass法扫描两遍图像,将图像中存在的所有连通区域找出并标记,适合回波图像的连通。采用按行扫描方式进行8向邻域连通。在第一次扫描的过程中,从回波图像的左上角开始遍历每一个像素点P,如果P的值不为0,则检测它8邻域的值。
Two-pass扫描具体的实施过程为:
(1)如果领域的值均为0,则给其打上标签值(从0开始递增);
(2)如果邻域中存在不为0的像素值,取邻域中最小的值赋予P,利用并查集,将邻域内的各像素点建立联系,并赋予同一标签值;
(3)扫描过程中同一个连通区域内的像素集合中可能会被赋予一个或多个不同标签值,因此需要将这些属于同一个连通区域但具有不同标签值的像素合并。第二阶段扫描就是通过设置合适的阈值,将具有相等关系的等效标签值所标记的像素归为一个连通区域并赋予一个相同的标签值。
在扫描过程中,将回波图中前景像素(目标)记为1,背景像素(水面)记为0,最终经过区域连通后赋予标签的回波图像如图4所示。
步骤三、对回波图像和地图进行尺度归一化操作,使其能够应用于图像匹配操作;
所述步骤三中,地图本身是在大地坐标系下,在地图数据中,各类物标的坐标是以经纬度进行标记的。在屏幕坐标系下,物标坐标点需要以像素点进行显示,所以地图显示时需要通过墨卡托投影将地理坐标转换为直角坐标系。将地球视为椭球体,原点纬度为0,原点经度为L0,假设球面一点P的经纬度坐标为(X,Y),其对应的直角坐标为(x,y),(x,y)的求解方式如式(1)所示:
其中K为基准纬度圈半径,K值计算如式(2)所示:
地图转换到直角坐标系下还需要进行平移等操作转换至屏幕坐标系,这样就可以将地图和雷达回波图显示在同一坐标系中。相同坐标系下的雷达图像与地图进行融合的前提是满足图像的比例和显示方向一致。回波图像和地图均是正北显示,但地图显示的是大范围的海域静态信息,回波图像显示的是某一时刻雷达扫描范围的海域信息,两者在同一屏幕下显示尺度相差较大。因此需要将多尺度图像的尺寸归一化。通过实际距离和像素点之间的关系,利用式(3)计算出当前回波图像尺寸对应的地图尺寸:
其中Pc和P分别为雷达图像和地图在屏幕坐标系下的尺寸,Rc为雷达图像的实际距离,R是地图的实际距离。经过坐标变换及尺度归一化后的地图如图5所示。
步骤四、利用基于自适应阈值分割的距离匹配算法对地图和回波图像进行匹配,判别属于陆地和岛屿的回波,进一步确定属于目标回波的批号;
所述步骤四中,将回波图像与地图的匹配分成两个阶段。第一阶段通过回波图像中惯导提供的信息获取当前无人艇所在位置,其经纬度对应在地图中最终会定位在一个像素点上,将回波图像和地图中对应同一位置的像素点作为匹配点,实现回波图像和地图的初步匹配。实际在建立经纬度与像素点关系的过程中,存在计算误差;此外,惯导测量的过程也会引入系统误差,所以直接通过无人艇经纬度信息匹配得到的结果不尽如人意。第二阶段使用加入自适应阈值分割的Hausdorff距离匹配算法对第一阶段的匹配结果进行修正。具体实现步骤如下:
(1)对回波图像和地图进行二值化:回波图可以直接进行二值化,但地图中色彩较为丰富,直接通过亮度值来表达图像的灰度值导致在海陆相接的区域灰度值差异不大,影响对地图的特征提取,需要选取合理的阈值实现对地图的二值化操作。在地图中,由于海洋是大面积蓝色区域,可以将海洋作为白色的背景,而海面上的所有障碍物作为黑色的前景。不同地图需要选取不同的阈值进行二值化,本发明提出一种自适应阈值分割算法满足地图的二值化。首先寻找地图的灰度极值,计算地图的最大灰度lmax(x,y)与最小灰度lmin(x,y)的均值G1如式(4)所示:
lmin(x,y)为每个像素点的灰度值,此时将G1作为迭代法的第一个粗略阈值。其次,以第一个阈值作为分界阈值,分别寻找图像中所有大于G1和小于G1的像素点灰度极值,并求其对应求平均值得到G11和G12,得到第二个粗略阈值G2如式(5)所示:
最终,更新阈值为G2,分别寻找图像中所有大于G2和小于所有G2的像素点灰度均值,得到的精确阈值G3,将阈值更新为G3,再次执行第三步步骤,直到|Gi-Gi-1|<&时,算法停止,选取Gi对地图进行二值化。算法的具体流程如图6所示,将图5经过直接二值化自和适应阈值分割算法的处理结果对比如图7和图8所示。
(2)提取回波图像和地图的轮廓:在二值图像基础上,提取图像的边缘信息作为图像的特征信息。选用Canny边缘检测算子提取图像特征,但由于回波图像和地图中存在着较多的轮廓信息,并且回波图中有较多回波轮廓与真实环境中的目标轮廓存在差别,如果直接提取两图轮廓进行匹配会增加运算时长,降低配准率,所以需要设置一个轮廓大小的阈值,将获取到的所有轮廓以阈值进行筛选,删除掉轮廓值小于阈值的轮廓,使处理之后的图像具有明显相似的大轮廓。
(3)回波图像与地图进行匹配:为了进一步提高运行速度,保证实时性,在轮廓筛选的基础上再次加入区域筛选。选取匹配区域为初匹配时基准像素点所在的临近区域,根据整张图像中轮廓像素值的占比确定具体区域阈值。确定匹配区域后,假设地图和回波图像经过轮廓提取后的匹配区域中像素点分别构成集合A和B,如式(6)所示:
A={a1,a2,…,ap} B={b1,b2,…,bq} (6)
将A、B之间的Hausdorff最小距离定义如式(7)所示:
通过对匹配区域进行Hausdorff距离计算,能够获取最佳匹配状态,根据计算出的匹配点进行配准,正确修正初匹配的结果。匹配完成后根据地图将回波图中属于陆地和岛屿的回波进行剔除,仅保留水面目标回波,减少后续工作的资源浪费,提高检测性能,最终地图匹配的结果如图9所示。
步骤五、获取目标对应批号的回波具体位置以及轮廓信息,利用二元素KM匹配算法对连续两帧中属于同一目标的回波进行匹配,并赋予同一批号;
所述步骤五中,当雷达采集到新一帧回波图后,所有的目标会被刷新,无法与前一帧图像建立联系,将连续两帧回波图关联是获取目标航速和航向的关键点。将陆地、岛屿等回波对应的标签剔除,留下水面目标的标签值,提取回波形心坐标作为当前目标所在位置。利用连续两帧中的目标位置结合KM算法可以实现目标的匹配,但当多个目标相距较近时,易发生误匹配现象,因此将回波形态也作为匹配的因素,设置合理的权重能够一定程度上提高匹配的精度。
假设前一帧检测水面目标的位置坐标为(x1,x2,x3,,xn),对应的目标回波面积为(s1,s2,s3,,sn),后一帧检测出水面目标的位置坐标(y1,y2,y3,,yn),求出前后两帧目标欧式距离之和的最小值sum1和sum2:如式(8)所示
在两个匹配因素的基础上引入可行顶标以及相等子图概念,实现二部图最优匹配的求解。连续两帧雷达回波图的点集分别构成二分图的两个集合(u,v),如图10所示。在集合构成二分图中,左侧为集合u(u1,u2,…,ui),右侧为集合v(v1,v2,…,vj),对应每组左右相连的ui和vj连接线权值为wij,算法通过给每个顶点一个顶标把求取最大权匹配的问题转化为求完备匹配的问题。在算法执行的过程中,对于任意一条连接线都有ui+vj≥wij成立。两集合匹配的具体步骤为:
首先,将图中的wij取反,构建得到初始化邻接矩阵。对邻接矩阵进行变换,每行(列)都减去各行(列)的最小值,此时每行(列)至少都有一个0;
其次,进行试匹配的循环步骤以寻求最优解:
(1)作最少的直线覆盖住邻接矩阵中所有的0元素,且直线只能是某一行或者某一列上的,不能跨越不同的行或列。若有元素被两条直线覆盖,标记上x*;
(2)判断是否需要终止循环,判断条件为第一步中作得的直线数是否等于各集合中的顶点数,若相等则终止循环,否则继续操作;
(3)对邻接矩阵中的元素作变换得到更多的0元素:首先将所有没有被直线覆盖的元素记作Φ,在Φ中找到最小的元素,记作k;然后将Φ中的所有元素都减去k,并将标记上x*的元素都加上k。
最后,输出变换后的邻接矩阵,从只有一个0元素的行或者列开始,将这个0元素标记为0*,这样做的目的是确保本行或列的顶点一定有另一个点做匹配,然后将0*所在的行和列中的其他元素忽略。对于同一列或同一行中出现多个0的情况,根据次小值越大对其行或列中的零元素优先匹配。反复选取之后,矩阵中的0*分别处于不同的行和不同的列中,则代表此次最大匹配已完成,0*对应的顶点即为匹配的结果。经过KM匹配算法得到的连续两帧回波匹配结果如图11和图12所示。
步骤六、判断新出现的回波是目标还是杂波,并对新出现的目标赋予新批号;
所述步骤六中,当风浪较大时,水面环境较为多变,可能会出现雷达将海浪检测为目标回波的情况,需要及时剔除杂波;当真实目标回波被湮灭时(就像图11和图12中的25号回波在第二帧中呈消失状态),要及时保留目标信息并预测其可能出现的位置。由于海浪的出现较为短暂且不稳定,本发明通过计算同一目标连续出现在雷达回波图中的帧数进行剔除。当新出现的目标回波连续显示超过3帧时认为出现了新目标,其他均当作杂波剔除;当有持续出现5帧及以上的目标回波突然消失时,保留其目标信息,预测下一帧目标位置,当其再出现时进行有效匹配。
步骤七、根据连续帧的回波信息解算目标的航向和航速,利用加入预测模型的EMD算法对已有目标回波消失的情况进行位置预测,对检测结果中的干扰信号进行剔除,优化每次输出的目标距离、航向和航速信息;
所述步骤七中,检测目标得到的信息会受到各种类型的噪声干扰,需要对获取信息进行优化,提高检测和跟踪的精度,本发明提出一种带有ARIMA预测模型的EMD算法提高目标跟踪的性能。
EMD算法依据导航雷达测得目标信息的时间尺度特征对数据信号进行分解,不需要预先设定任何基函数,具有很强的自适应性。假设输入信号为s(t),通过EDM分解后会形成多个本征模态函数(IntrinsicMdoeFunction,IMF)和一个残余分量,分解形式如式(9)所示:
每个IMF都包含原有信号的特定频率成分,先被分解的分量包含s(t)中的高频成分,随着分解次数增多,频率下降。当余量r为常量或者单调函数时,停止分解。分解得到的IMF应满足两个条件:(1)信号中的零点个数与极值点个数差值不能大于1;(2)信号任意点的上下包络均值为0。分解得到IMF的过程如下:
(1)获取s(t)所有的极大值和极小值,分别通过三次样条拟合函数拟合得到s(t)的上、下包络曲线,并求包络均值m(t);
(2)计算分量判断其是否为IMF,如果是IMF转至(3),如果不是IMF将/>再次返回(1)操作,直至得到IMF,记为Ii(t):
(3)此时的Ii(t)为第i个IMF分量,求取残余量r(t)如式(11)所示:
(4)当r(t)满足残留余量的条件时,停止分解s(t)。
实际分解过程中,IMF的包络均值一般不为0,当式(12)成立时,认为满足条件,λ=0.25。
虽然EMD算法能够去除检测过程中的一些噪声干扰,但其仍然存在以下问题:
(1)当目标周围突然有海浪或船只靠近时,会在检测信号中出现毛刺。
(2)EMD存在端点效应,分解的过程中需要寻找极值点,而信号的边界点会存在不确定性,容易导致边界处的分解出现误差。随着分解次数增多,误差累积,影响到整个信号分解;
(3)当目标突然消失时,原信号中会有缺损的时间序列,需要及时预测目标信息,才能保证EMD分解的准确性。
对于以上问题,本发明通过在EMD算法中添加ARIMA模型提出一种AM-EMD算法得以解决。
对雷达检测到的目标信息序列建立ARIMA模型,首先需要确定差分阶数d,当原始序列差分d阶后将会变成平稳随机序列,记为S(n)。假设ε(n)为白噪声序列,可以建立式(13)所示的p阶自回归与q阶滑动平均混合模型:
s(n)=α1s(n-1)+α2s(n-2)+…+αps(n-p)+ε(n)-β1ε(n-1)-β2ε(n-2)-…-βqε(n-q)(13)
其中,系数αi和βj构成的多项式分别记为式(14):
α(u)=1-α1u-α2u2-…-αpup β(u)=1-β1u-β2u2-…-βpup (14)
此时,α(u)与β(u)的根都在单位圆外,进一步将s(n)表述如式(15)所示:
其中系数ψj满足等式(16):
可以看出,该模型对未来某时间的序列值进行预测的过程中,需要对参数αi和βj进行估计,得到已有数据对该时刻序列值的影响程度。对参数估计的前提条件是得到阶数p、q的值。选用最小信息(AIC)准则确定模型的阶数和参数。
定义AIC准则如式(17)所示:
AIC=-2ln(L)+2k (17)
其中:L为模型的似然函数,k为独立参数个数。AIC准则函数由两项构成,第一项体现模型拟合的好坏,随着阶数的增大而变小;第二项标志了模型参数的多少,随着阶数的增大而变大。当式17具有最小值时,与之对应的阶数p,q就是理想阶数。得到d,p,q参数后即可对参数αi和βj进行最小二乘估计,拟合出ARIMA模型,对新一帧回波图中目标位置进行预测。AM-EMD算法的步骤如下:
(1)判断检测的信号序列有无毛刺干扰,如果有转至步骤(2),如果没有转至步骤(3);
(2)确定毛刺所在的区间,单独对其使用EMD算法分解,将最高频的IMF剔除掉,得到新的一段序列代替原序列;
(3)对信号序列建立ARIMA模型,确定建立模型的参数;
(4)预测某时刻消失目标的位置以及最后时刻目标所在位置,得到完整的信号序列;
(5)对(4)得到信号序列进行EMD分解,将IMF分量重新组合得到最终信号序列。
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本发明基于无人艇搭载的导航雷达,通过实验数据定量分析将本发明的目标检测跟踪算法与基于DBSCAN聚类结合匈牙利+卡尔曼滤波检测跟踪算法进行了比较。
如图11和图12所示,实验验证基于无人艇实验平台,其主要由两艘无人艇A和B、导航雷达和惯性导航系统组成。实验水域选取荆门市漳河水库,A艇为试验艇,B艇为目标艇,导航雷达型号为圆舟YR18M系列,测距范围50m~12nm,水平波束宽度为5.2°,垂直波束宽度为25°,发射频率为9.3~9.4GHz,安装高度距水面5m。硬件安装过程中,难以保证雷达正方向与运动平台艏向完全一致,存在一定的方位误差。方位误差会导致导航雷达探测到的目标位置与其实际位置误差随着距离的增大而增大,目标检测得到的信息偏差过大,无法准确感知水面环境,需要在实验前通过静态标定修正系统误差。
一、本发明测试实验场景
标定结束后开展目标检测跟踪测试实验,两艇相对运动的场景存在着多样性,为了体现本文发明的算法在各种运动环境下的有效性,设计了较为典型的四种场景对本文算法和常用的检测跟踪算法进行对比:
场景一:A艇保持静止不动,B艇以圆心为A艇所在位置,半径为500m左右,速度为12节左右进行圆周运动,如图13所示。该场景主要测试静止情况下,本文算法对角度持续变化的目标检测跟踪性能。
场景二:A艇以8节左右的速度匀速运动,低速运动状态,B艇以图14所示的轨迹,以10节左右的速度匀速运动,初始时刻两艇相聚730m,终止时刻两艇相距320m。该场景主要测试匀速运动情况下,本文算法对大角度变化目标的检测跟踪性能。
场景三:A艇先曲线运动后直线运动,速度从12节变加速至24节;B艇保持静止,如图15所示。初始时刻两艇相聚420m,终止时刻两艇相聚1100m。该场景主要测试变速运动情况下,本文算法对静止目标的检测跟踪性能。
场景四:A艇直线运动,速度从8节匀加速至16节,B艇匀速直线运动,速度为8节,两艇相向运动,如图16所示。初始时刻两艇相距1000m,终止时刻两艇相距300m。该场景主要测试变速运动的情况下,对相对方向运动目标的检测跟踪性能。
二、本发明定量验证分析
在进行定量分析验证时,为方便表述,设定方案A为基于DBSCAN聚类结合匈牙利+卡尔曼滤波检测跟踪算法,方案B为本发明的目标检测跟踪算法,基于以上四个场景对B艇进行检测跟踪得到的航速、航向和距离信息进行对比,场景一、二、三、四的对比结果分别如图17-图38所示。
根据图17-图22可以看出:在B艇绕A艇进行圆周运动的过程中,B艇与A艇的距离实际无法保证固定数值。在14:09:12时刻,由于雷达硬件内部噪声,回波形态产生较大的形变,同时B艇与A艇距离也发生突变,A算法产生了较大的距离检测误差,最大误差达到34.45m,B算法距离误差略有增大,最大误差为12.85m;A、B算法在该时刻下的航向检测也出现突变,导致航向误差均有增大,A算法最大误差达到26.30°,B算法最大误差上升为14.25°;全程B艇速度基本稳定,在14:07:09左右减速两节,A算法在此时未能稳定检测到航速的变化,导致航速最大误差为2.04m/s,B算法整体误差基本保持稳定,最大为0.84m/s;整体看来,A算法对目标的距离、航向和航速检测结果波动较大,B算法的检测结果整体较为平滑。
根据图23-图28可以看出:在A艇进行匀速直线运动的过程中,B艇做匀速直线运动时,A、B两算法的检测结果相差较小,整体检测性能相差不大;但该场景下B艇轨迹存在着多次大角度转弯,B算法在此情况下,检测性能明显优于A算法。在14:26:31~14:28:49时间段内,B艇做了180°大转弯后开始“S”形曲线运动;转弯多变导致A算法不能及时检测到当前B艇运动状态,虽然距离误差较为稳定,但航向误差出现多次突变,整体偏离真实航向;航速误差波动也较大,出现两次峰值,整体效果不佳。该场景下,A算法距离最大误差达到12.67m,航向最大误差达到22.89°,航速最大误差达到1.38m/s;相比之下,B算法整体较为稳定,距离误差略有减小,最大误差为9.42m;航向和航速检测误差存在明显优势,航向最大误差为15.67°,航向最大误差为0.37m/s。
根据图29-图32可以看出:在B艇静止的过程中,14:52:28~14:54:25时间段内,A艇做匀速曲线运动,此时A、B法在距离上的检测结果都比较平稳,A算法检测误差整体略大于B算法;在14:54:00时刻,B艇100m内出现其他目标,导致A算法对回波误判,检测的航速信息出现突变,导致A算法最大航速误差达到0.80m/s,B算法成功剔除了此干扰信号。14:54:26~15:00:07时间段内,A艇做变速直线运动,在A艇发生机动时,A算法检测效果明显受到本艇运动的影响,精度略有下降,测得距离信息误差整体增大,最大误差达到23.71m,航速误差则基本保持稳定;B算法受到的影响较小,距离误差基本保持稳定,最大误差为11.79m,由于B算法将航速小于0.5m/s的目标自动归为静止目标,所以航速总保持0值。
根据图33-图38可以看出:在A、B两艇相向运动的过程中,两者的距离先缩短后增大,11:07:21~11:07:49的时间段内,A、B两艇逐渐靠近,随着距离的减小,A、B算法的距离检测精度均呈现上升的趋势,但由于A艇存在变速运动,A算法受其影响整体扰动比较大,尤其航向误差很不稳定。11:07:49~11:07:55时间段内,A、B两艇相遇,此时由于两艇相距较近,雷达的分辨率无法达到足够高的精度,所以A、B算法的距离误差都有所增加,A算法趋势更明显,并且其航速误差也略有增大;B算法的航向和航速均保持在一个小而稳定的误差范围内,精度有着明显的优势。11:07:55~11:08:12时间段内,A、B两艇背向运动,距离逐渐增大,A算法检测结果依然存在干扰,距离误差不稳定,航向误差由于两艇由相向运动转为背向运动,A算法没有及时更新B艇运动状态,检测误差也逐渐增大,航速误差较为稳定;B算法在距离、航向和航速的检测结果依然保持稳定,误差趋势良好。该场景下的检测结果中,A算法距离最大误差达到23.96m,航向最大误差达到19.6°,航速最大误差达到0.67m/s;B算法距离最大误差为13.88m,航向最大误差为9.05°,航速最大误差为0.46m/s。
计算以上四个场景中A、B算法测试结果的RMSE,进一步对比两种算法目标检测跟踪的精度,结果如表1所示。可以看出,B算法在所有场景中的表现均优于A算法,距离精度提高不低于50%,航向精度提高不低于28%,航速精度提高不低于35%。
表1四种场景测试结果精度对比
对比两种算法处理每帧图像的运行时间,结果如表2所示。通过对比可以看出,算法B相比算法A运行效率略有提升,因为第一帧图像存在初始化过程,两种算法都耗费较长的时间,从第二帧开始图像处理速度会保持在一个较为稳定的值,B算法相比A算法的运行速度提升了20%左右。
表2算法运行时间对比
通过检测结果均方根误差和算法运行速度等数据的对比,可以证明本发明的无人艇搭载导航雷达的水面目标检测跟踪算法相较于传统目标检测跟踪算法在精度上得到了提高,算法耗时得到有效控制。
需要注意的是,具体实施方式仅仅是对本发明技术方案的解释和说明,不能以此限定权利保护范围。凡根据本发明权利要求书和说明书所做的仅仅是局部改变的,仍应落入本发明的保护范围内。

Claims (10)

1.一种基于导航雷达的水面目标检测跟踪方法,其特征在于,包括以下步骤:
步骤1:接收导航雷达和惯导数据,并对导航雷达和惯导数据进行解算,得到雷达的回波数据,之后对雷达的回波数据进行预处理,所述预处理包括图像修正、坐标变换以及滤波处理,所述坐标变换用于将雷达的回波数据从极坐标系下映射到直角坐标系;
步骤2:利用Two-pass算法对预处理后的雷达回波数据进行处理,得到带有标签的雷达回波图像;
步骤3:基于导航雷达的量程,获取覆盖该量程的地图,之后将地图通过墨卡托投影将地理坐标转换为直角坐标系,然后进行平移操作,转换至屏幕坐标系,最后将转换后的地图和雷达回波图像进行尺度归一化;
步骤4:利用基于自适应阈值分割的距离匹配算法对归一化后的地图和雷达回波图像进行匹配,判别属于陆地或岛屿的回波,并确定陆地或岛屿的回波对应的标签,即批号;
步骤5:获取目标对应批号的回波具体位置以及轮廓信息,利用二元素KM匹配算法对连续两帧中属于同一目标的回波进行匹配,并赋予同一批号;
步骤6:判断新出现的回波是目标还是杂波,若为杂波,则不赋予新批号,若为目标,则对新出现的目标赋予新批号;
步骤7:检测目标距无人艇的距离,并根据连续帧的回波信息解算目标的航向和目标的航速,之后判断目标距无人艇的距离、目标的航向和目标的航速有无毛刺干扰,若有毛刺干扰,则进行EMD算法分解,得到IMF,并将IMF中最高频的IMF剔除掉,之后将剩余IMF进行信号重构得到去掉毛刺干扰的目标距无人艇的距离、目标的航向和目标的航速,否则判断已赋予批号的、且持续出现5帧以上的目标对应的回波是否消失,当目标消失时,则利用ARIMA模型对消失目标进行位置预测,当消失目标对应的回波在后3帧出现时,则利用该目标预测位置与目标出现的位置进行匹配,若匹配结果一致,则赋予同一批号,否则,将该消失目标剔除,进而完成目标检测跟踪;
步骤8:消失目标剔除后,预测未来连续3帧所有回波的位置,之后利用EMD算法优化所有的目标当前距无人艇的距离、航向和航速。
2.根据权利要求1所述的一种基于导航雷达的水面目标检测跟踪方法,其特征在于所述将地理坐标转换为直角坐标系表示为:
其中,(X,Y)为地球球面一点P的经纬度坐标,(x,y)为(X,Y)对应的直角坐标,K为基准纬度圈半径,L0为地球球面原点经度,原点纬度为0。
3.根据权利要求2所述的一种基于导航雷达的水面目标检测跟踪方法,其特征在于所述转换后的地图的尺寸表示为:
其中,Pc和P分别为雷达图像和地图在屏幕坐标系下的尺寸,Rc为雷达图像的实际距离,R为地图的实际距离。
4.根据权利要求3所述的一种基于导航雷达的水面目标检测跟踪方法,其特征在于所述步骤4中利用基于自适应阈值分割的距离匹配算法对归一化后的地图和雷达回波图像进行匹配的具体步骤为:
步骤4.1:将雷达回波图像和归一化后的地图中无人艇所在位置的像素点作为匹配点,实现雷达回波图像和归一化后的地图的初步匹配,得到匹配图像;
步骤4.2:对雷达回波图像进行二值化,归一化后的地图通过自适应阈值分割算法进行二值化,其中自适应阈值分割算法具体包括:
步骤4.2.1:寻找归一化后的地图的灰度极值,即最大灰度lmax(x,y)与最小灰度lmin(x,y),计算归一化后的地图的最大灰度lmax(x,y)与最小灰度lmin(x,y)的均值G1
步骤4.2.2:将G1作为迭代法的初始阈值,以初始阈值作为分界阈值,分别寻找归一化后的地图中所有大于G1的像素点灰度极值和所有小于G1的像素点灰度极值,并分别得到所有大于G1的像素点灰度极值的平均值G11和所有小于G1的像素点灰度极值平均值G12,得到第二个阈值G2
步骤4.2.3:更新阈值为G2,并重复步骤4.2.2,直到|Gi-Gi-1|<0.1时,停止,选取Gi对归一化后的地图进行二值化;
步骤4.3:将步骤4.2中二值化后的雷达回波图像和地图,通过canny算子,提取雷达回波图像和地图的轮廓;
步骤4.4:根据步骤4.1中匹配图像,并结合雷达回波图像和地图的轮廓,分别选取雷达回波图像和地图的最小外接矩形,并将两个最小外接矩形中大的矩形分别作为雷达回波图像的匹配区域和地图的匹配区域;
步骤4.5:计算雷达回波图像的匹配区域和地图的匹配区域之间的Hausdorff距离,选择相似度最高的匹配点进行匹配。
5.根据权利要求4所述的一种基于导航雷达的水面目标检测跟踪方法,其特征在于所述步骤4.5的具体步骤为:
假设雷达回波图像的匹配区域和地图的匹配区域中像素点分别构成集合A和B:
A={a1,a2,…,ap}B={b1,b2,…,bq}
其中,ap表示集合A中第p个像素点,bq表示集合B中第q个像素点;
A、B之间的Hausdorff距离定义为:
H(A,B)=max(h(A,B),h(B,A))
其中,i=1,2...p,j=1,2...q,h(B,A)表示B到A的Hausdorff,h(A,B)表示A到B的Hausdorff。
6.根据权利要求5所述的一种基于导航雷达的水面目标检测跟踪方法,其特征在于:所述步骤5中利用二元素KM匹配算法对连续两帧中属于同一目标的回波进行匹配的具体为:
步骤5.1:假设前一帧回波具体位置坐标为(x1,x2,x3,,xn),对应的回波面积为(s1,s2,s3,,sn),后一帧回波具体位置坐标为(y1,y2,y3,,yn),对应的回波面积为(t1,t2,t3,,tn),分别求出前后两帧回波具体位置的欧式距离之和的最小值sum1和回波面积的欧式距离之和的最小值sum2:
步骤5.2:根据sum1和sum2,并利用KM算法进行匹配,得到匹配结果。
7.根据权利要求6所述的一种基于导航雷达的水面目标检测跟踪方法,其特征在于:所述进行EMD算法分解,得到IMF的具体步骤为:
步骤7.2.1:首先获取目标距无人艇的距离、航向或航速信息的信号序列,表示为:
其中,r为信号余量,IMFk(t)为第k个本征模态分量,K为本征模态分量总数;
之后获取s(t)所有的极大值和极小值,极大值和极小值分别进行三次样条拟合函数拟合得到s(t)的上、下包络曲线,并得到上、下包络曲线的均值m(t);
步骤7.2.2:计算分量判断/>是否为IMF,如果是IMF,则将IMF记为Ii(t),并执行步骤7.2.3,如果不是IMF,则令/>并执行步骤7.2.1,直至得到IMF:
判断是否为IMF的标准为满足两个条件:
(1)信号中的零点个数与极值点个数差值不大于1;
(2)信号任意点的上下包络均值为0;
步骤7.2.3:Ii(t)为第i个IMF分量,求取残余量r(t):
步骤7.2.4:当余量r(t)为常量或者单调函数时,停止分解。
8.根据权利要求1所述的一种基于导航雷达的水面目标检测跟踪方法,其特征在于所述步骤4.3中通过canny算子提取雷达回波图像和地图的轮廓的具体步骤为:
利用canny算子分别提取雷达回波图像轮廓和地图的轮廓,将根据轮廓面积的均值对提取轮廓进行筛选,大于均值的轮廓进行保留,小于轮廓的均值剔除。
9.根据权利要求1所述的一种基于导航雷达的水面目标检测跟踪方法,其特征在于所述步骤1中滤波处理包括孤立噪声点滤波和回波阈值滤波。
10.根据权利要求1所述的一种基于导航雷达的水面目标检测跟踪方法,其特征在于所述图像修正采用图像滑窗修正法。
CN202310681707.2A 2023-06-09 2023-06-09 一种基于导航雷达的水面目标检测跟踪方法 Pending CN117031424A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310681707.2A CN117031424A (zh) 2023-06-09 2023-06-09 一种基于导航雷达的水面目标检测跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310681707.2A CN117031424A (zh) 2023-06-09 2023-06-09 一种基于导航雷达的水面目标检测跟踪方法

Publications (1)

Publication Number Publication Date
CN117031424A true CN117031424A (zh) 2023-11-10

Family

ID=88637915

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310681707.2A Pending CN117031424A (zh) 2023-06-09 2023-06-09 一种基于导航雷达的水面目标检测跟踪方法

Country Status (1)

Country Link
CN (1) CN117031424A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117554949A (zh) * 2024-01-08 2024-02-13 中国电子科技集团公司第十五研究所 一种联动式目标接力跟踪方法和系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117554949A (zh) * 2024-01-08 2024-02-13 中国电子科技集团公司第十五研究所 一种联动式目标接力跟踪方法和系统
CN117554949B (zh) * 2024-01-08 2024-03-29 中国电子科技集团公司第十五研究所 一种联动式目标接力跟踪方法和系统

Similar Documents

Publication Publication Date Title
CN111797716B (zh) 一种基于Siamese网络的单目标跟踪方法
CN108229342B (zh) 一种海面舰船目标自动检测方法
CN110598690A (zh) 一种端到端光学字符检测识别方法与系统
CN104715474B (zh) 基于标记分水岭算法的高分辨率合成孔径雷达图像线性建筑物检测方法
CN103984945A (zh) 一种光学遥感影像船只检测方法
CN117031424A (zh) 一种基于导航雷达的水面目标检测跟踪方法
Lin et al. Construction of fisheye lens inverse perspective mapping model and its applications of obstacle detection
CN111881801B (zh) 基于不变检测策略的新增建设用地遥感监测方法及设备
CN116310607A (zh) 一种基于聚类分割原理的无人船三维点云处理方法
CN114764801A (zh) 基于多视觉显著特征的弱小舰船目标融合检测方法及装置
CN110174109B (zh) 一种基于海空协同的无人船多元联合导航方法
FAN et al. Robust lane detection and tracking based on machine vision
CN114264297B (zh) Uwb和视觉slam融合算法的定位建图方法及系统
CN113450402B (zh) 用于蔬菜大棚巡检机器人的导航中心线提取方法
Petković et al. An overview on horizon detection methods in maritime video surveillance
CN110472451A (zh) 一种基于单目相机的面向agv定位的人工地标及解算方法
CN113837924A (zh) 一种基于无人艇感知系统的水岸线检测方法
CN110853000B (zh) 一种车辙的检测方法
CN117075112A (zh) 一种方位角航迹匹配的无人艇雷达光电融合方法
CN114217641B (zh) 一种非结构环境下无人机送变电设备巡检方法及系统
CN107256399B (zh) 一种基于Gamma分布超像素方法和基于超像素TMF的SAR图像海岸线检测方法
CN114879180A (zh) 一种无人艇载多元多尺度雷达实时融合的无缝态势感知方法
CN109471106B (zh) 结合聚类分析和边界跟踪法的sar海洋内波条纹识别方法
CN109614952B (zh) 一种基于瀑布图的目标信号检测识别方法
CN112816956A (zh) 一种获取雷达目标信息的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination