CN113534146B - 一种雷达视频图像目标自动检测方法与系统 - Google Patents
一种雷达视频图像目标自动检测方法与系统 Download PDFInfo
- Publication number
- CN113534146B CN113534146B CN202110845414.4A CN202110845414A CN113534146B CN 113534146 B CN113534146 B CN 113534146B CN 202110845414 A CN202110845414 A CN 202110845414A CN 113534146 B CN113534146 B CN 113534146B
- Authority
- CN
- China
- Prior art keywords
- radar
- video image
- sample
- training
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 141
- 230000001629 suppression Effects 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims description 105
- 238000000034 method Methods 0.000 claims description 42
- 238000012360 testing method Methods 0.000 claims description 21
- 238000005457 optimization Methods 0.000 claims description 13
- 238000010276 construction Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 238000002372 labelling Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 24
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000003121 nonmonotonic effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9021—SAR image post-processing techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Networks & Wireless Communication (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明涉及一种雷达视频图像目标自动检测方法和系统。该雷达视频图像目标自动检测方法在实时获取雷达回波数据之后,采用包括CSPDarknet53、SPP、PANet和幂函数非极大值抑制层的训练好的雷达视频图像目标检测网络模型,就可以实现雷达视频图像目标自动检测,进而能够提高雷达在复杂环境下自适应目标检测能力,在增加适用性的同时提高检测效率。并且,采用包括CSPDarknet53、SPP、PANet和幂函数非极大值抑制层的训练好的雷达视频图像目标检测网络模型,还能够解决现有技术中存在的在杂波背景下检测结果虚警率偏高、泛化能力不强,难以正确区分杂波和目标回波点等问题。
Description
技术领域
本发明涉及目标检测领域,特别是涉及一种雷达视频图像目标自动检测方法与系统。
背景技术
雷达探测环境复杂、探测对象多样,面临着复杂环境下信息处理难题。自适应目标检测技术是关键制约因素,也是世界性难题。具体来说,有以下两个难点:一是,环境复杂多变,杂波特征描述难度很大。二是,目标繁杂多样,目标特性复杂。复杂背景下目标探测的需求要求雷达探测技术不断提高,探测距离、探测精度、目标精细化描述能力、信息处理的智能化水平等越来越高。雷达目标探测能力的提升,需根据探测环境的变化,精准地实现杂波抑制、目标特性匹配及特征描述,才能有效提升目标的检测能力。传统基于杂波模型的统计检测方法,需要假设背景的分布类型和分布特性等信息。但在复杂的实际环境应用过程中,各种方法与实际工作背景和目标特性匹配不精准,通用性不强。如果数据与处理方法假设的模型不符,处理方法将面临性能下降的问题。
近年来,以深度学习为代表的人工智能方法在图像识别等计算机视觉领域的巨大成功极大促进了其在各个领域的应用。深度学习通过构建深度卷积神经网络(CNN)在海量数据样本中逐层抽象挖掘有用信息,极大减轻了对模型假设的依赖。通过将雷达信号转变为二维图像,利用CNN即可得到更加充分的特征信息。目前基于深度学习的SAR图像(高分辨图像)检测方法应用最广泛,然而,大多数雷达为扫描体制窄带雷达,形成的距离-方位图像不是高分辨图像,尚未有针对深度学习目标检测方面的研究,亟需设计一种适用于复杂背景下的雷达视频图像目标检测方法和系统。
发明内容
本发明的目的是提供一种能够提高雷达在复杂环境下自适应目标检测能力的雷达视频图像目标自动检测方法与系统,以增加适用性。
为实现上述目的,本发明提供了如下方案:
一种雷达视频图像目标自动检测方法,包括:
获取训练好的雷达视频图像目标检测网络模型;所述雷达视频图像目标检测网络模型包括CSPDarknet53、SPP、PANet和幂函数非极大值抑制层;
实时获取雷达回波数据,并将实时获取的所述雷达回波数据转换为雷达视频图像;
以所述雷达视频图像为输入,采用所述训练好的所述雷达视频图像目标检测网络模型得到目标检测结果。
优选地,所述雷达视频图像目标检测网络模型的训练过程包括:
获取雷达历史回波数据,并将所述雷达历史回波数据转换为雷达历史视频图像;
基于所述雷达历史视频图像构建训练数据集;
获取雷达视频图像目标检测网络模型;
采用所述训练数据集对所述雷达视频图像目标检测网络模型进行迭代优化训练,得到训练好的所述雷达视频图像目标检测网络模型。
优选地,所述基于所述雷达历史视频图像构建训练数据集,具体包括:
基于雷达目标航迹信息或AIS消息获取目标位置;
基于所述目标位置截取所述雷达历史视频图像,将截取后的所述雷达历史视频图像构成样本数据集;
采用留出法或自助法将样本数据集划分为训练样本集和测试集。
优选地,所述采用留出法或自助法将样本数据集划分为训练样本集和测试集,具体包括:
将所述样本数据集中的m1*p个样本作为训练样本集的正样本,将m2*p个样本作为训练样本集的负样本,将m-m1*p-m2*p个样本作为测试集中的样本;其中,m1为所述样本数据集中正样本的个数,p为预设的训练样本集与样本数据集集间的比例关系,m2为所述样本数据集中负样本的个数,m为所述样本数据集中的样本总个数;或,
每次从所述样本数据集中取一个样本作为训练样本集中的元素,然后把该样本放回所述训练样本集后,再从所述样本数据集中取一个样本作为训练样本集中的元素,重复取样n次后,得到训练样本集;将所述样本数据集中除所述训练样本集中样本之外的样本作为测试集样本。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供的雷达视频图像目标自动检测方法,在实时获取雷达回波数据之后,采用包括CSPDarknet53、SPP、PANet和幂函数非极大值抑制层的训练好的雷达视频图像目标检测网络模型,就可以实现雷达视频图像目标自动检测,进而能够提高雷达在复杂环境下自适应目标检测能力,在增加适用性的同时提高检测效率。并且,采用包括CSPDarknet53、SPP、PANet和幂函数非极大值抑制层的训练好的雷达视频图像目标检测网络模型,能够解决现有技术中存在的在杂波背景下检测结果虚警率偏高、泛化能力不强,难以正确区分杂波和目标回波点等问题。
对应于上述提供的雷达视频图像目标自动检测方法本发明还提供了以下实施系统:
一种雷达视频图像目标自动检测系统,包括:
目标检测网络模型获取模块,用于获取训练好的雷达视频图像目标检测网络模型;所述雷达视频图像目标检测网络模型包括CSPDarknet53、SPP、PANet和幂函数非极大值抑制层;
雷达回波数据实时获取模块,用于实时获取雷达回波数据,并将实时获取的所述雷达回波数据转换为雷达视频图像;
目标检测模块,用于以所述雷达视频图像为输入,采用所述训练好的所述雷达视频图像目标检测网络模型得到目标检测结果。
优选地,还包括目标检测网络模型训练模块;所述目标检测网络模型训练模块包括:
历史回波数据获取子模块,用于获取雷达历史回波数据,并将所述雷达历史回波数据转换为雷达历史视频图像;
训练样本集构建子模块,用于基于所述雷达历史视频图像构建训练数据集;
目标检测网络模型获取子模块,用于获取雷达视频图像目标检测网络模型;
优化训练子模块,用于采用所述训练数据集对所述雷达视频图像目标检测网络模型进行迭代优化训练,得到训练好的所述雷达视频图像目标检测网络模型。
优选地,所述训练样本集构建子模块包括:
目标位置获取单元,用于基于雷达目标航迹信息或AIS消息获取目标位置;
样本数据集构建单元,用于基于所述目标位置截取所述雷达历史视频图像,将截取后的所述雷达历史视频图像构成样本数据集;
样本集划分单元,用于采用留出法或自助法将样本数据集划分为训练样本集和测试集。
优选地,所述样本集划分单元包括:
第一样本集划分子单元,用于将所述样本数据集中的m1*p个样本作为训练样本集的正样本,将m2*p个样本作为训练样本集的负样本,将m-m1*p-m2*p个样本作为测试集中的样本;其中,m1为所述样本数据集中正样本的个数,p为预设的训练样本集与样本数据集集间的比例关系,m2为所述样本数据集中负样本的个数,m为所述样本数据集中的样本总个数;或,
第二样本集划分子单元,用于每次从所述样本数据集中取一个样本作为训练样本集中的元素,然后把该样本放回所述训练样本集后,再从所述样本数据集中取一个样本作为训练样本集中的元素,重复取样n次后,得到训练样本集;将所述样本数据集中除所述训练样本集中样本之外的样本作为测试集样本。
因本发明提供的雷达视频图像目标自动检测系统达到的技术效果与上述提供的目标检测方法达到的技术效果相同,故在此不再进行赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的雷达视频图像目标自动检测方法的流程图;
图2为本发明提供的雷达视频图像目标检测网络模型的结构示意图;
图3为本发明实施例提供的普通网络结构图;
图4为本发明实施例提供的CSPNet网络结构图;
图5为本发明提供的雷达视频图像目标自动检测系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种能够提高雷达在复杂环境下自适应目标检测能力的雷达视频图像目标自动检测方法与系统,以增加适用性。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供的雷达视频图像目标自动检测方法,包括:
步骤100:获取训练好的雷达视频图像目标检测网络模型。雷达视频图像目标检测网络模型(Radar-Yolonet)包括:CSPDarknet53、SPP、PANet和幂函数非极大值抑制层,如图2所示,图2中标注的具体数值仅为示例,不作为本发明的具体限定。
步骤101:实时获取雷达回波数据,并将实时获取的雷达回波数据转换为雷达视频图像。
步骤102:以雷达视频图像为输入,采用训练好的雷达视频图像目标检测网络模型得到目标检测结果。
在本发明中,进一步为提高检测效率、提高检测精度,所采用的雷达视频图像目标检测网络模型的训练过程包括:
步骤1:获取雷达历史回波数据,并将雷达历史回波数据转换为雷达历史视频图像。
步骤2:基于雷达历史视频图像构建训练数据集。
步骤3:获取雷达视频图像目标检测网络模型。
步骤4:采用训练数据集对雷达视频图像目标检测网络模型进行迭代优化训练,得到训练好的雷达视频图像目标检测网络模型。
其中,步骤2训练数据集的具体构建过程为:
从雷达目标航迹信息或者AIS消息获取目标位置,基于目标位置截取一定区域内的雷达中频回波数据和P显图像数据,用于构建数据集。
截取输出中频数据有三个维度:距离范围,方位角度范围,回波信号强度。加上样本轴,目标中频回波信号数据集是形状为(样本,距离,方位,信号强度)的4D张量。
图像通常有三个维度:高度、宽度和颜色深度。加上样本轴,需要处理的目标PPI图像数据集是形状为(样本,高度,宽度,颜色通道)的4D张量。
然后进行人工识别分类和标签添加,构建得到复杂多样的雷达训练数据集。
进一步,为避免训练过拟合和训练样本集、测试集、验证集数据重叠,通常在划分数据集的时候依据数据量大小选择采取以下两种方法:一是留出法,即将训练数据集D划分为训练样本集S和测试集T两个互斥的集合。在划分的时候保证数据分布均衡,采用分层采样的方式来对数据进行。具体方法为设训练数据集D中有m1个正样本,有m2个负样本,而S占D的比例为p,那么T占D的比例即为1-p,可以通过在m1个正样本中采m1*p个样本作为训练样本集中的正样本,通过在m2个负样本中采m2*p个样本作为训练样本集中的负样本,其余的作为测试集中的样本。二是自助法,即每次从数据集D中取一个样本作为训练样本集中的元素,然后把该样本放回,重复该操作m次,以此得到大小为m的训练样本集,其中有的样本重复出现,有的样本未出现过,将那些没有出现过的样本作为测试集备定。
并且,为尽量避免若干个目标因距离过近引起标注不准确的问题,即一个锚框内包含多个目标,本发明在标注此类目标时将图片放大,扩展图片局部像素,尽可能保证一个锚框内只有一个目标。
下面假设输入雷达视频图像目标检测网络模型主干特征提取网络的雷达视频图像为416*416*3的图片,那么具体处理优化过程为:
先进行一次卷积标准化加激活函数,并获得处理后的特征层,该特征层的尺寸是416*416*32。
Mish=x·tanh(ln(1+ex))
式中,tanh为双曲正切函数,
激活函数在训练、检测过程中可以提高网络泛化能力,适应复杂且非线性的输入函数。Mish函数相较于YOLO v3使用的LeakyReLU函数性能具有较大改进,主要体现在其非单调、无上界、有下界等特点。LeakyReLU函数差分为0,Mish函数为非单调函数,能保持差分为负值以此稳定输出的梯度流,反馈并更新各感受神经元。相较于LeakyReLU函数,Mish函数计算能力更强,能够容纳更多权值计算。而后通过5次Resbolck body残差网络对特征层进行压缩处理,主要用到CSPNet结构。如图4所示,为普通网络结构,图5为CSPNet结构。
多个运算层的堆叠实现对输入信息的处理和运算,通过上一层输出作为下一层输入而逐步实现对输入信息的分级表述是深度学习网络基本思想。普通网络即是大量残差块的堆叠,CSPNet网络在堆叠过程中,左一支路会存在非常大的残差边,在右一网络残差堆叠提取特征层后与左一支路进行输出连接。并获得三个有效特征层,其大小分别为52*52*256、26*26*512和13*13*1024。
13*13*1024的有效特征层进行完3次卷积后输入SPP网络,利用不同大小的池化核对输入的特征层进行最大池化,池化核大小分别为5*5、9*9、13*13,并将池化后的结果进行输出。SPP网络的输出进行卷积加上采样和26*26*512特征层卷积后的输出进行堆叠和5次卷积,设输出为A。A与52*52*256特征层卷积后的输出进行堆叠和5次卷积,设输出为B。B进行下采样并与A进行堆叠和5次卷积,设输出为C。C进行下采样后与SPP网络输出进行堆叠和5次卷积,设结果为D。B、C、D为Radar-Yolonet head输出,Radar-Yolonet head实质上即是Radar-Yolonet网络的预测结果,是特征层处理后得到bounding box的基础。预测结果以bounding box形式表现,对应一个置信度,置信度可以反映该box包含的一个物体的确信程度及bounding box的准确程度。每个bounding box包含预测框的(x,y,w,h)以及置信度,(x,y)代表预测框中心相对于边界的位置,(w,h)代表预测框相对于原图像的宽和高的比例,置信度是bounding box与ground truth的IoU,训练过程中结合ground truth进行bounding box预测位置的调整。
将三个Radar-Yolonet head预测出的多个bounding box继续输入至幂函数非极大值抑制层(PowerNon-Maximum Suppression,P-NMS)进行最终目标检测框的筛选。P-NMS能够改善多目标的区域漏检的问题,提高对雷达多目标的检测效果,P-NMS是基于NMS算法改进而来,NMS的核心思想是去除和最优候选框重叠度较大的所有候选框,
然而,实际情况下在对多目标检测时,多个目标的候选框可能存在重叠的情况,而NMS算法将所有重叠度高于一定阈值的候选框抑制掉,可能会造成个别目标的漏检。基于此缺陷,本发明设计了一种基于幂函数的NMS方法P-NMS,适用于候选框有一定的重叠度的多目标的检测,其公式如下所示,
其中,si为第i个候选框的得分,M为当前得分最高框,bi为待处理框,Nt为检测的阈值,IOU为预测框与标注框之间的交集与并集之比。
输入训练数据集对模型进行迭代优化训练,得到最优的网络参数。卷积神经网络训练的目的调整权值系数优化卷积神经网络,进一步提高检测的精确度后获得最优的权值参数。用损失函数来表示输出值与真实值的误差,包括分类损失和回归损失,目标函数是求得损失函数的最小值,从而使得目标检测模型最优化,即通过梯度下降法对参数进行不断的迭代优化,直到损失函数最小。
基于上述过程得到优化训练后的雷达视频图像目标检测网络模型(即Radar-Yolonet目标检测模型)。将实时生成的回波数据图像输入到Radar-Yolonet目标检测模型中,对目标进行检测。
结合深度学习目标检测和雷达目标检测对于检测结果的评价情况,采用召回率、精确度、虚警率、检测速率FPS四个指标评价模型和检测结果,结果见表1。
表1评价结果表
分别选取了虚警率为10-4、10-3、10-2的CA-CFAR检测结果与Radar-Yolonet、FasterR-CNN算法进行比较,对比结果如表2所示。
表2对比结果表
Radar-Yolonet取消了提取特征图再通过特征图判定目标类别这一过程,而是通过特征提取网络直接给出预测框坐标、目标类别和对应的置信度,在轻量化网络结构的同时,在检测精度和检测速度都有很好的表现。在网络结构上强化了感受野和注意力分配结构,通过反复利用卷积后提取的特征图,即进行多次上下采样和残差堆叠,进一步强化了网络训练效率。
此外,对应于上述提供的雷达视频图像目标自动检测方法本发明还提供了一种雷达视频图像目标自动检测系统。如图5所示,该雷达视频图像目标自动检测系统包括:目标检测网络模型获取模块1、雷达回波数据实时获取模块2和目标检测模块3。
其中,目标检测网络模型获取模块1用于获取训练好的雷达视频图像目标检测网络模型。雷达视频图像目标检测网络模型包括CSPDarknet53、SPP、PANet和幂函数非极大值抑制层。
雷达回波数据实时获取模块2用于实时获取雷达回波数据,并将实时获取的雷达回波数据转换为雷达视频图像。
目标检测模块3用于以雷达视频图像为输入,采用训练好的雷达视频图像目标检测网络模型得到目标检测结果。
进一步,上述提供的雷达视频图像目标自动检测系统还包括目标检测网络模型训练模块。目标检测网络模型训练模块包括:历史回波数据获取子模块、训练样本集构建子模块、目标检测网络模型获取子模块和优化训练子模块。
历史回波数据获取子模块用于获取雷达历史回波数据,并将雷达历史回波数据转换为雷达历史视频图像。
训练样本集构建子模块用于基于雷达历史视频图像构建训练数据集。
目标检测网络模型获取子模块用于获取雷达视频图像目标检测网络模型。
优化训练子模块用于采用训练数据集对雷达视频图像目标检测网络模型进行迭代优化训练,得到训练好的雷达视频图像目标检测网络模型。
进一步,上述训练样本集构建子模块包括:目标位置获取单元、样本数据集构建单元和样本集划分单元。
目标位置获取单元用于基于雷达目标航迹信息或AIS消息获取目标位置。
样本数据集构建单元用于基于所述目标位置截取雷达历史视频图像,将截取后的雷达历史视频图像构成样本数据集。
样本集划分单元用于采用留出法或自助法将样本数据集划分为训练样本集和测试集。
其中,上述采用的样本集划分单元包括:第一样本集划分子单元或第二样本集划分子单元。
第一样本集划分子单元用于将样本数据集中的m1*p个样本作为训练样本集的正样本,将m2*p个样本作为训练样本集的负样本,将m-m1*p-m2*p个样本作为测试集中的样本。其中,m1为样本数据集中正样本的个数,p为预设的训练样本集与样本数据集集间的比例关系,m2为样本数据集中负样本的个数,m为样本数据集中的样本总个数。或,
第二样本集划分子单元用于每次从样本数据集中取一个样本作为训练样本集中的元素,然后把该样本放回训练样本集后,再从样本数据集中取一个样本作为训练样本集中的元素,重复取样n次后,得到训练样本集。将样本数据集中除训练样本集中样本之外的样本作为测试集样本。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种雷达视频图像目标自动检测方法,其特征在于,包括:
获取训练好的雷达视频图像目标检测网络模型;所述雷达视频图像目标检测网络模型包括CSPDarknet53、SPP、PANet和幂函数非极大值抑制层;其中,幂函数非极大值抑制层的处理公式为:
其中,si为第i个候选框的得分,M为当前得分最高框,bi为待处理框,Nt为检测的阈值,IOU为预测框与标注框之间的交集与并集之比;
实时获取雷达回波数据,并将实时获取的所述雷达回波数据转换为雷达视频图像;
以所述雷达视频图像为输入,采用所述训练好的所述雷达视频图像目标检测网络模型得到目标检测结果。
2.根据权利要求1所述的雷达视频图像目标自动检测方法,其特征在于,所述雷达视频图像目标检测网络模型的训练过程包括:
获取雷达历史回波数据,并将所述雷达历史回波数据转换为雷达历史视频图像;
基于所述雷达历史视频图像构建训练数据集;
获取雷达视频图像目标检测网络模型;
采用所述训练数据集对所述雷达视频图像目标检测网络模型进行迭代优化训练,得到训练好的所述雷达视频图像目标检测网络模型。
3.根据权利要求2所述的雷达视频图像目标自动检测方法,其特征在于,所述基于所述雷达历史视频图像构建训练数据集,具体包括:
基于雷达目标航迹信息或AIS消息获取目标位置;
基于所述目标位置截取所述雷达历史视频图像,将截取后的所述雷达历史视频图像构成样本数据集;
采用留出法或自助法将样本数据集划分为训练样本集和测试集。
4.根据权利要求3所述的雷达视频图像目标自动检测方法,其特征在于,所述采用留出法或自助法将样本数据集划分为训练样本集和测试集,具体包括:
将所述样本数据集中的m1*p个样本作为训练样本集的正样本,将m2*p个样本作为训练样本集的负样本,将m-m1*p-m2*p个样本作为测试集中的样本;其中,m1为所述样本数据集中正样本的个数,p为预设的训练样本集与样本数据集集间的比例关系,m2为所述样本数据集中负样本的个数,m为所述样本数据集中的样本总个数;或,
每次从所述样本数据集中取一个样本作为训练样本集中的元素,然后把该样本放回所述训练样本集后,再从所述样本数据集中取一个样本作为训练样本集中的元素,重复取样n次后,得到训练样本集;将所述样本数据集中除所述训练样本集中样本之外的样本作为测试集样本。
5.一种雷达视频图像目标自动检测系统,其特征在于,包括:
目标检测网络模型获取模块,用于获取训练好的雷达视频图像目标检测网络模型;所述雷达视频图像目标检测网络模型包括CSPDarknet53、SPP、PANet和幂函数非极大值抑制层;其中,幂函数非极大值抑制层的处理公式为:
其中,si为第i个候选框的得分,M为当前得分最高框,bi为待处理框,Nt为检测的阈值,IOU为预测框与标注框之间的交集与并集之比;
雷达回波数据实时获取模块,用于实时获取雷达回波数据,并将实时获取的所述雷达回波数据转换为雷达视频图像;
目标检测模块,用于以所述雷达视频图像为输入,采用所述训练好的所述雷达视频图像目标检测网络模型得到目标检测结果。
6.根据权利要求5所述的雷达视频图像目标自动检测系统,其特征在于,还包括目标检测网络模型训练模块;所述目标检测网络模型训练模块包括:
历史回波数据获取子模块,用于获取雷达历史回波数据,并将所述雷达历史回波数据转换为雷达历史视频图像;
训练样本集构建子模块,用于基于所述雷达历史视频图像构建训练数据集;
目标检测网络模型获取子模块,用于获取雷达视频图像目标检测网络模型;
优化训练子模块,用于采用所述训练数据集对所述雷达视频图像目标检测网络模型进行迭代优化训练,得到训练好的所述雷达视频图像目标检测网络模型。
7.根据权利要求6所述的雷达视频图像目标自动检测系统,其特征在于,所述训练样本集构建子模块包括:
目标位置获取单元,用于基于雷达目标航迹信息或AIS消息获取目标位置;
样本数据集构建单元,用于基于所述目标位置截取所述雷达历史视频图像,将截取后的所述雷达历史视频图像构成样本数据集;
样本集划分单元,用于采用留出法或自助法将样本数据集划分为训练样本集和测试集。
8.根据权利要求3所述的雷达视频图像目标自动检测方法,其特征在于,所述样本集划分单元包括:
第一样本集划分子单元,用于将所述样本数据集中的m1*p个样本作为训练样本集的正样本,将m2*p个样本作为训练样本集的负样本,将m-m1*p-m2*p个样本作为测试集中的样本;其中,m1为所述样本数据集中正样本的个数,p为预设的训练样本集与样本数据集集间的比例关系,m2为所述样本数据集中负样本的个数,m为所述样本数据集中的样本总个数;或,
第二样本集划分子单元,用于每次从所述样本数据集中取一个样本作为训练样本集中的元素,然后把该样本放回所述训练样本集后,再从所述样本数据集中取一个样本作为训练样本集中的元素,重复取样n次后,得到训练样本集;将所述样本数据集中除所述训练样本集中样本之外的样本作为测试集样本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110845414.4A CN113534146B (zh) | 2021-07-26 | 2021-07-26 | 一种雷达视频图像目标自动检测方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110845414.4A CN113534146B (zh) | 2021-07-26 | 2021-07-26 | 一种雷达视频图像目标自动检测方法与系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113534146A CN113534146A (zh) | 2021-10-22 |
CN113534146B true CN113534146B (zh) | 2023-12-01 |
Family
ID=78089055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110845414.4A Active CN113534146B (zh) | 2021-07-26 | 2021-07-26 | 一种雷达视频图像目标自动检测方法与系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113534146B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116389855A (zh) * | 2023-06-01 | 2023-07-04 | 旷智中科(北京)技术有限公司 | 基于ocr的视频标签方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807429A (zh) * | 2019-10-23 | 2020-02-18 | 西安科技大学 | 基于tiny-YOLOv3的施工安全检测方法及系统 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN111880157A (zh) * | 2020-08-06 | 2020-11-03 | 中国人民解放军海军航空大学 | 一种雷达图像中目标的检测方法及系统 |
CN113033604A (zh) * | 2021-02-03 | 2021-06-25 | 淮阴工学院 | 一种基于SF-YOLOv4网络模型的车辆检测方法、系统及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537151A (zh) * | 2018-03-27 | 2018-09-14 | 上海小蚁科技有限公司 | 一种非极大值抑制运算装置及系统 |
-
2021
- 2021-07-26 CN CN202110845414.4A patent/CN113534146B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN110807429A (zh) * | 2019-10-23 | 2020-02-18 | 西安科技大学 | 基于tiny-YOLOv3的施工安全检测方法及系统 |
CN111880157A (zh) * | 2020-08-06 | 2020-11-03 | 中国人民解放军海军航空大学 | 一种雷达图像中目标的检测方法及系统 |
CN113033604A (zh) * | 2021-02-03 | 2021-06-25 | 淮阴工学院 | 一种基于SF-YOLOv4网络模型的车辆检测方法、系统及存储介质 |
Non-Patent Citations (2)
Title |
---|
Detection of concealed cracks from ground penetrating radar images based on deep learning algorithm;Shuwei Li 等;《Construction and Building Materials》;第1-14页 * |
基于INet的雷达图像杂波抑制和目标检测方法;牟效乾 等;《雷达学报》;9(第4期);第640-653页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113534146A (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110210463B (zh) | 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法 | |
CN110322453B (zh) | 基于位置注意力和辅助网络的3d点云语义分割方法 | |
CN112529015A (zh) | 一种基于几何解缠的三维点云处理方法、装置及设备 | |
CN111898432A (zh) | 一种基于改进YOLOv3算法的行人检测系统及方法 | |
CN114693661A (zh) | 一种基于深度学习的快速分拣方法 | |
CN109558803B (zh) | 基于卷积神经网络与np准则的sar目标鉴别方法 | |
CN112926486A (zh) | 一种舰船小目标的改进RFBnet目标检测算法 | |
CN115937659A (zh) | 基于Mask-RCNN的室内复杂环境下多目标检测方法 | |
CN111738114A (zh) | 基于无锚点精确采样遥感图像车辆目标检测方法 | |
CN113534146B (zh) | 一种雷达视频图像目标自动检测方法与系统 | |
CN116740528A (zh) | 一种基于阴影特征的侧扫声呐图像目标检测方法及系统 | |
CN114067126A (zh) | 一种红外图像目标检测方法 | |
CN116580322A (zh) | 一种地面背景下无人机红外小目标检测方法 | |
CN111695560A (zh) | 基于卷积神经网络对农作物病虫害主动定位聚焦的方法 | |
CN113932712A (zh) | 一种基于深度相机和关键点的瓜果类蔬菜尺寸测量方法 | |
CN116934734A (zh) | 基于图像的零件缺陷多路并行检测方法、装置及相关介质 | |
CN115170662A (zh) | 基于yolov3和卷积神经网络的多目标定位方法 | |
CN112396648B (zh) | 一种可定位目标物质心的目标识别方法和系统 | |
CN114255390B (zh) | 一种雷达目标检测模型的构建方法 | |
CN118570455B (zh) | 一种干扰分割与目标检测协同的抗干扰识别方法 | |
CN117372680B (zh) | 一种基于双目相机与激光雷达融合的目标检测方法 | |
CN118172242B (zh) | 一种无人机水面影像拼接方法、介质及系统 | |
CN117523428B (zh) | 基于飞行器平台的地面目标检测方法和装置 | |
CN111860144B (zh) | 一种基于MDR-Net的雷达目标识别系统及方法 | |
CN117746304B (zh) | 基于计算机视觉的冰箱食材识别定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |