CN112541481A - 一种基于深度学习的对海探测雷达目标检测方法 - Google Patents

一种基于深度学习的对海探测雷达目标检测方法 Download PDF

Info

Publication number
CN112541481A
CN112541481A CN202011561859.1A CN202011561859A CN112541481A CN 112541481 A CN112541481 A CN 112541481A CN 202011561859 A CN202011561859 A CN 202011561859A CN 112541481 A CN112541481 A CN 112541481A
Authority
CN
China
Prior art keywords
target
detection
image
training
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011561859.1A
Other languages
English (en)
Inventor
闫贺
陈超
刘惠欣
黄佳
徐星
侯倩茹
李睿安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202011561859.1A priority Critical patent/CN112541481A/zh
Publication of CN112541481A publication Critical patent/CN112541481A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于深度学习的对海探测雷达目标检测方法,包括如下步骤:对雷达接收的回波信号进行预处理,将回波数据转换为脉冲‑距离二维图像;根据方位向脉冲尺寸分割回波图像,并完成训练集和测试集的划分;使用Resnet50作为主干特征提取器,初始化锚框大小,构建完整的FasterRCNN卷积神经网络,设置参数开始训练;训练过程中使用验证集每隔一个Epoch验证网络是否欠拟合或者过拟合;将训练得到的检测器用于目标检测,并使用非极大值抑制NMS算法消除可能存在重叠的检测框,计算目标识别准确率、查全率和虚警率,判断是否满足检测要求,若不满足则给定新的初始化参数值重新训练。本发明具有实现简单、检测精度高、适用场景广泛的特点。

Description

一种基于深度学习的对海探测雷达目标检测方法
技术领域
本发明涉及雷达技术领域,尤其是一种基于深度学习的对海探测雷达目标检测方法。
背景技术
海洋大约占据着整个地球表面积的71%,拥有丰富的生物资源和矿产资源,为了防范领海入侵与非法海上作业,加强对本国海域的管理就显得十分重要。海洋监管的重要环节之一就是对海面的船舶进行监测,传统的雷达目标检测方法主要是通过时域、频域、变换域的处理,通过改善SCR来实现目标的可靠检测。
然而传统雷达目标检测方法是基于回波统计模型假设的,当背景包含海杂波和其他干扰物时,该方法存在目标识别准确率低、虚警率高的局限,只有当背景为均匀瑞利杂波时,检测性能才会较好,此外当多个假目标存在于参考单元内,假目标的功率将会抬高检测器的判决门限,降低检测概率,从而导致对真实目标的漏检。因此,传统雷达目标检测方法的抗杂波能力和环境适应能力不强,且检测速度慢,步骤较为繁琐,检测性能有待提高。
发明内容
本发明所要解决的技术问题在于,提供一种基于深度学习的对海探测雷达目标检测方法,具有实现简单、检测精度高、适用场景广泛的特点。
为解决上述技术问题,本发明提供一种基于深度学习的对海探测雷达目标检测方法,包括如下步骤:
(1)对雷达接收的回波信号进行预处理,将回波数据转换为脉冲-距离二维图像;
(2)根据方位向脉冲尺寸分割回波图像,使合作目标不跨越距离单元且图像的纵横比接近,并完成训练集和测试集的划分;
(3)使用Resnet50作为主干特征提取器,初始化锚框大小,构建完整的FasterRCNN卷积神经网络,设置参数开始训练;
(4)训练过程中使用验证集每隔一个Epoch验证网络是否欠拟合或者过拟合;
(5)将训练得到的检测器用于目标检测,并使用非极大值抑制NMS算法消除可能存在重叠的检测框,计算目标识别准确率、查全率和虚警率,判断是否满足检测要求,若不满足则给定新的初始化参数值重新训练。
优选的,步骤(1)中,对对海探测雷达接收到回波信号进行距离向脉冲压缩,得到脉冲-距离二维雷达图像。
优选的,步骤(2)中,训练集和测试集的划分具体为:对于脉冲-距离二维回波数据图像,根据脉冲尺寸对回波图像进行分割,并且在目标不跨越距离单元且图像的纵横比接近的条件下分割振幅图像;由于是合作目标,故根据GPS提供的位置信息确定目标在振幅图像上的坐标,并使用LabelImg标注软件进行标注,目标框的位置坐标为 (xL,yL,xR,yR),其中xL,yL为目标框的左上角横、纵坐标,xR,yR为目标框的右下角横、纵坐标;将原始的数据进行数据增强,通过改变图像的长宽比例和对比度、不同程度的缩放以及水平翻转,得到新的位置坐标
Figure BDA0002859586230000021
Figure BDA0002859586230000022
为数据增强后目标框的左上角横、纵坐标,
Figure BDA0002859586230000023
为数据增强后目标框的右下角横、纵坐标;最后将数据集以8:1:1的比例划分训练集、验证集和测试集。
优选的,步骤(3)中,使用Resnet50作为主干特征提取器,表示残差网络的深度为50层。相比于VGG16拥有更深的网络层数,主要由多个残差模块构成,可以避免传统的主干特征提取网络随着深度增加而导致梯度消失的问题。
优选的,步骤(3)中,利用K-means聚类算法计算数据集中目标长宽的比例,初始化锚框的大小,将原始的3种尺度大小(1282,2562,5122)、比例为1:1,1:2,2:1,一共可以组合成9个的锚框重置为8个大小为(55,44),(30,25),(31,53),(37,35),(34,87), (28,37),(25,29),(25,21)的锚框。
优选的,步骤(3)中,计算RPN网络的损失函数为:
Figure BDA0002859586230000024
其中,Ncls代表批训练数据的数量,Nreg是指锚框的数量,λ为平衡权重,Pi表示锚框预测为目标的概率,如果锚框被预测为正样本,则标签Pi*的值为1,负样本则标签为0;ti={tx,ty,tw,th}表示预测的检测框的位置,
Figure BDA0002859586230000025
是groundtruth的坐标向量,
Figure BDA0002859586230000026
是对数损失函数,计算公式为:
Figure BDA0002859586230000027
Figure BDA0002859586230000028
是回归损失,用smoothL1(x)函数计算损失值,公式如下,其中
Figure BDA0002859586230000029
Figure BDA0002859586230000031
优选的,步骤(4)中,设置40个Epoch,每个Epoch迭代次数为2000,初始学习率为0.001,在60000次迭代后学习率降为0.0001,通过验证集每隔一个Epoch验证网络是否欠拟合或者过拟合。
优选的,步骤(5)中,定义了识别准确率、查全率和虚警率对检测结果进行评价;识别准确率定义为:
Figure BDA0002859586230000032
Ntd表示真实目标被预测正确的数目,Nfd表示虚假目标被预测为正确目标的数目,虚警率FA=1-P,查全率R定义为:
Figure BDA0002859586230000033
Ngt表示所有groundtruth的数量。
本发明的有益效果为:本发明利用残差网络提取原始海面雷达图像的高维特征,保证了网络的深度又避免了梯度消失的问题;引入K-means聚类算法初始化锚框,调整了原始算法中锚框的个数和大小,更好的符合当前数据集的特点,提高了检测器的效率和准确性,同时加快了训练过程中网络的收敛速度;加入了NMS(非极大值抑制)使得最终的检测结果更加准确,本发明具有实现简单、检测精度高、适用场景广泛的特点。
附图说明
图1为本发明的方法流程示意图。
图2为本发明雷达回波信号预处理后的二维图像。
图3为本发明切割后的回波图像。
图4为本发明数据集包围框的面积与长宽比示意图。
图5为本发明K-means聚类锚框数与平均IoU(交并比)的关系示意图。
图6为本发明FasterRCNN的基本网络框架示意图。
图7为本发明基于深度学习的目标检测器的检测结果示意图。
具体实施方式
如图1所示,一种基于深度学习的对海探测雷达目标检测方法,包括如下步骤:
步骤1:对雷达接收的回波信号进行预处理,将回波数据转换为脉冲-距离二维图像;
步骤2:根据方位向脉冲尺寸分割回波图像,使合作目标不跨越距离单元且图像的纵横比接近,并完成训练集和测试集的划分;
步骤3:使用Resnet50作为主干特征提取器,初始化锚框大小,然后构建完整的FasterRCNN卷积神经网络,设置参数开始训练;
步骤4:训练过程中使用验证集每隔一个Epoch验证网络是否欠拟合或者过拟合;
步骤5:将训练得到的检测器用于目标检测,并使用NMS(非极大值抑制)算法消除可能存在重叠的检测框,计算目标识别准确率、查全率和虚警率,判断是否满足检测要求,若不满足则给定新的初始化参数值重新训练。
本实施例利用实测的对海探测雷达数据进行验证和分析。实验所用软件和硬件配置如表1所示:
表1实验环境
Figure BDA0002859586230000041
上述步骤1采用如下优选方案实现:
首先对对海探测雷达接收到回波信号进行距离向脉冲压缩,得到脉冲-距离二维雷达图像,如图2所示。
在本实施例中,上述步骤2采用如下优选方案实现:
对于脉冲-距离二维回波数据图像,根据脉冲尺寸对回波图像进行分割,并且在目标不跨越距离单元且图像的纵横比接近的条件下分割振幅图像,如图3所示。由于是合作目标,故根据GPS提供的位置信息确定目标在振幅图像上的坐标,并使用LabelImg 标注软件进行标注,目标框的位置坐标为(xL,yL,xR,yR),其中xL,yL为目标框的左上角横、纵坐标,xR,yR为目标框的右下角横、纵坐标。
将原始的数据进行数据增强,通过改变图像的长宽比例和对比度、不同程度的缩放以及水平翻转,得到新的位置坐标
Figure BDA0002859586230000051
Figure BDA0002859586230000052
为数据增强后目标框的左上角横、纵坐标,
Figure BDA0002859586230000053
为数据增强后目标框的右下角横、纵坐标。最后将数据集以8:1:1 的比例划分训练集、验证集和测试集。
在本实施例中,上述步骤3采用如下优选方案实现:
使用残差网络Resnet50作为主干特征提取器,网络的深度为50层,相比于VGG16拥有更深的网络层数,整个特征提取网络主要由多个残差模块构成,可以避免传统的主干特征提取网络随着深度增加而导致梯度消失的问题。
利用K-means聚类算法计算数据集中目标长宽的比例,确定锚框的大小。锚框是深度学习目标检测器的重要参数,锚框的形状、比例和数量会影响检测器的效率和准确性。FasterRCNN的RPN网络中的默认锚框大小为1282、2562、5122,宽高比为1:1、1:2、2:1,一共组合成9个锚框。图4显示了数据集中所有ground truth的实际情况,大部分ground truth都具有相似的大小和形状,但是,由于这些对象是散布的,所以手动选择锚框是非常困难的,使用聚类算法可以将相似的框划分在一起,每个划分就表示一个簇。使用的距离度量公式为:
d(box,boxInCluster)=1-IoU(box,boxInCluster)
式中,boxInCluster表示聚类中心(Xn,Yn,Wn,Hn),n∈{1,2,…,N},N是聚类的簇数; box表示ground truth的坐标(xi,yi,wi,hi),i∈{1,2,…,k},k是样本总数; IoU(box,boxInCluster)表示groundtruth和聚类中心的IoU(交并比)。使用IoU距离度量会将长宽比和大小相似的框聚集在一起,更适合数据集的锚框估计。但随之而来的又一个问题就是确定聚类的簇数即锚框的数量,通常使用经验分析的办法,本发明提出了一种遍历的思想,设置不同的簇数N,分别计算每个簇数取值下的ground truth与聚类中心的平均IoU,结果显示在图5。平均IoU值大于0.5就可以确保锚框与数据集中的包围框良好重叠,增加锚框的数量可以改善平均IoU的度量值,但是使用更多的锚框也会增加计算成本甚至导致过拟合,从而导致检测器性能下降。由于锚框的位置不确定,只利用宽和高做计算,根据实际情况采用K-means聚类得到的8个锚框为(55,44),(30,25),(31,53),(37,35),(34,87),(28,37),(25,29),(25,21),符合目标的特点。
构建Faster-RCNN网络,如图6所示。
训练过程计算RPN网络的损失,损失函数为:
Figure BDA0002859586230000061
其中,Ncls代表批训练数据的数量,Nreg是指锚框的数量,λ为平衡权重,Pi表示锚框被预测为目标的概率,如果锚框被预测为正样本,则标签Pi*的值为1,负样本则标签为0;ti={tx,ty,tw,th}表示预测的检测框的位置,
Figure BDA0002859586230000062
是groundtruth的坐标向量。
Figure BDA0002859586230000063
是对数损失函数,计算公式为:
Figure BDA0002859586230000064
Figure BDA0002859586230000065
是回归损失,用smoothL1(x)函数计算损失值,公式如下,其中
Figure BDA0002859586230000066
Figure BDA0002859586230000067
在本实施例中,上述步骤4采用如下优选方案实现:
设置40个Epoch,每个Epoch迭代次数为2000,初始学习率为0.001,在60000次迭代后学习率降为0.0001。通过验证集每隔一个Epoch验证网络是否欠拟合或者过拟合。
在本实施例中,上述步骤5采用如下优选方案实现:
使用了NMS算法消除可能存在重叠的检测框,检测结果如图7所示。用识别准确率、查全率和虚警率对检测结果进行评价:真实目标一共有9个,FasterRCNN目标检测器正确检测出了9个目标,漏检目标0个,不存在虚警目标,所以识别准确率为100%,查全率为100%,虚警率为0。

Claims (8)

1.一种基于深度学习的对海探测雷达目标检测方法,其特征在于,包括如下步骤:
(1)对雷达接收的回波信号进行预处理,将回波数据转换为脉冲-距离二维图像;
(2)根据方位向脉冲尺寸分割回波图像,使合作目标不跨越距离单元且图像的纵横比接近,并完成训练集和测试集的划分;
(3)使用Resnet50作为主干特征提取器,初始化锚框大小,构建完整的FasterRCNN卷积神经网络,设置参数开始训练;
(4)训练过程中使用验证集每隔一个Epoch验证网络是否欠拟合或者过拟合;
(5)将训练得到的检测器用于目标检测,并使用非极大值抑制NMS算法消除可能存在重叠的检测框,计算目标识别准确率、查全率和虚警率,判断是否满足检测要求,若不满足则给定新的初始化参数值重新训练。
2.如权利要求1所述的基于深度学习的对海探测雷达目标检测方法,其特征在于,步骤(1)中,对对海探测雷达接收到回波信号进行距离向脉冲压缩,得到脉冲-距离二维雷达图像。
3.如权利要求1所述的基于深度学习的对海探测雷达目标检测方法,其特征在于,步骤(2)中,训练集和测试集的划分具体为:对于脉冲-距离二维回波数据图像,根据脉冲尺寸对回波图像进行分割,并且在目标不跨越距离单元且图像的纵横比接近的条件下分割振幅图像;由于是合作目标,故根据GPS提供的位置信息确定目标在振幅图像上的坐标,并使用LabelImg标注软件进行标注,目标框的位置坐标为(xL,yL,xR,yR),其中xL,yL为目标框的左上角横、纵坐标,xR,yR为目标框的右下角横、纵坐标;将原始的数据进行数据增强,通过改变图像的长宽比例和对比度、不同程度的缩放以及水平翻转,得到新的位置坐标
Figure FDA0002859586220000011
Figure FDA0002859586220000012
为数据增强后目标框的左上角横、纵坐标,
Figure FDA0002859586220000013
为数据增强后目标框的右下角横、纵坐标;最后将数据集以8:1:1的比例划分训练集、验证集和测试集。
4.如权利要求1所述的基于深度学习的对海探测雷达目标检测方法,其特征在于,步骤(3)中,使用Resnet50作为主干特征提取器,表示残差网络的深度为50层。
5.如权利要求1所述的基于深度学习的对海探测雷达目标检测方法,其特征在于,步骤(3)中,利用K-means聚类算法计算数据集中目标长宽的比例,初始化锚框的大小,将原始的3种尺度大小(1282,2562,5122)、比例为1:1,1:2,2:1,一共可以组合成9个的锚框重置为8个大小为(55,44),(30,25),(31,53),(37,35),(34,87),(28,37),(25,29),(25,21)的锚框。
6.如权利要求1所述的基于深度学习的对海探测雷达目标检测方法,其特征在于,步骤(3)中,计算RPN网络的损失函数为:
Figure FDA0002859586220000021
其中,Ncls代表批训练数据的数量,Nreg是指锚框的数量,λ为平衡权重,Pi表示锚框预测为目标的概率,如果锚框被预测为正样本,则标签
Figure FDA0002859586220000022
的值为1,负样本则标签为0;ti={tx,ty,tw,th}表示预测的检测框的位置,
Figure FDA0002859586220000023
是groundtruth的坐标向量,
Figure FDA0002859586220000024
是对数损失函数,计算公式为:
Figure FDA0002859586220000025
Figure FDA0002859586220000026
是回归损失,用smoothL1(x)函数计算损失值,公式如下,其中
Figure FDA0002859586220000027
Figure FDA0002859586220000028
7.如权利要求1所述的基于深度学习的对海探测雷达目标检测方法,其特征在于,步骤(4)中,设置40个Epoch,每个Epoch迭代次数为2000,初始学习率为0.001,在60000次迭代后学习率降为0.0001,通过验证集每隔一个Epoch验证网络是否欠拟合或者过拟合。
8.如权利要求1所述的基于深度学习的对海探测雷达目标检测方法,其特征在于,步骤(5)中,定义了识别准确率、查全率和虚警率对检测结果进行评价;
识别准确率定义为:
Figure FDA0002859586220000029
Ntd表示真实目标被预测正确的数目,Nfd表示虚假目标被预测为正确目标的数目,虚警率FA=1-P,查全率R定义为:
Figure FDA0002859586220000031
Ngt表示所有groundtruth的数量。
CN202011561859.1A 2020-12-25 2020-12-25 一种基于深度学习的对海探测雷达目标检测方法 Pending CN112541481A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011561859.1A CN112541481A (zh) 2020-12-25 2020-12-25 一种基于深度学习的对海探测雷达目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011561859.1A CN112541481A (zh) 2020-12-25 2020-12-25 一种基于深度学习的对海探测雷达目标检测方法

Publications (1)

Publication Number Publication Date
CN112541481A true CN112541481A (zh) 2021-03-23

Family

ID=75017422

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011561859.1A Pending CN112541481A (zh) 2020-12-25 2020-12-25 一种基于深度学习的对海探测雷达目标检测方法

Country Status (1)

Country Link
CN (1) CN112541481A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096122A (zh) * 2021-05-06 2021-07-09 中国科学院地质与地球物理研究所 流星检测方法、装置及电子设备
CN113283326A (zh) * 2021-05-17 2021-08-20 南京航空航天大学 基于仿真目标亮线特征的视频sar目标智能检测方法
CN113592799A (zh) * 2021-07-22 2021-11-02 象山电力实业有限公司 一种电力海缆的防护方法与系统
CN113625244A (zh) * 2021-08-11 2021-11-09 青岛本原微电子有限公司 一种基于lstm的多源域的高重频雷达目标检测方法
CN113805151A (zh) * 2021-08-17 2021-12-17 青岛本原微电子有限公司 基于注意力机制的中重频雷达目标检测方法
CN113808219A (zh) * 2021-09-17 2021-12-17 西安电子科技大学 基于深度学习的雷达辅助相机标定方法
CN113960601A (zh) * 2021-11-29 2022-01-21 南京国睿防务系统有限公司 一种视频sar仿真运动目标参数估计方法
CN116188488A (zh) * 2023-01-10 2023-05-30 广东省第二人民医院 基于灰度梯度的b超图像病灶区域分割方法及装置
CN116469014A (zh) * 2023-01-10 2023-07-21 南京航空航天大学 基于优化Mask R-CNN的小样本卫星雷达图像帆板识别和分割方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229404A (zh) * 2018-01-09 2018-06-29 东南大学 一种基于深度学习的雷达回波信号目标识别方法
CN110135267A (zh) * 2019-04-17 2019-08-16 电子科技大学 一种大场景sar图像细微目标检测方法
CN111144234A (zh) * 2019-12-10 2020-05-12 南京航空航天大学 一种基于深度学习的视频sar目标检测方法
CN112068085A (zh) * 2020-10-16 2020-12-11 中国电波传播研究所(中国电子科技集团公司第二十二研究所) 一种基于深度学习的雷达海杂波原始数据快速预处理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229404A (zh) * 2018-01-09 2018-06-29 东南大学 一种基于深度学习的雷达回波信号目标识别方法
CN110135267A (zh) * 2019-04-17 2019-08-16 电子科技大学 一种大场景sar图像细微目标检测方法
CN111144234A (zh) * 2019-12-10 2020-05-12 南京航空航天大学 一种基于深度学习的视频sar目标检测方法
CN112068085A (zh) * 2020-10-16 2020-12-11 中国电波传播研究所(中国电子科技集团公司第二十二研究所) 一种基于深度学习的雷达海杂波原始数据快速预处理方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096122A (zh) * 2021-05-06 2021-07-09 中国科学院地质与地球物理研究所 流星检测方法、装置及电子设备
CN113283326B (zh) * 2021-05-17 2024-04-19 南京航空航天大学 基于仿真目标亮线特征的视频sar目标智能检测方法
CN113283326A (zh) * 2021-05-17 2021-08-20 南京航空航天大学 基于仿真目标亮线特征的视频sar目标智能检测方法
CN113592799A (zh) * 2021-07-22 2021-11-02 象山电力实业有限公司 一种电力海缆的防护方法与系统
CN113625244A (zh) * 2021-08-11 2021-11-09 青岛本原微电子有限公司 一种基于lstm的多源域的高重频雷达目标检测方法
CN113625244B (zh) * 2021-08-11 2024-06-25 青岛本原微电子有限公司 一种基于lstm的多源域的高重频雷达目标检测方法
CN113805151A (zh) * 2021-08-17 2021-12-17 青岛本原微电子有限公司 基于注意力机制的中重频雷达目标检测方法
CN113805151B (zh) * 2021-08-17 2024-09-10 青岛本原微电子有限公司 基于注意力机制的中重频雷达目标检测方法
CN113808219B (zh) * 2021-09-17 2024-05-14 西安电子科技大学 基于深度学习的雷达辅助相机标定方法
CN113808219A (zh) * 2021-09-17 2021-12-17 西安电子科技大学 基于深度学习的雷达辅助相机标定方法
CN113960601A (zh) * 2021-11-29 2022-01-21 南京国睿防务系统有限公司 一种视频sar仿真运动目标参数估计方法
CN113960601B (zh) * 2021-11-29 2024-08-09 南京国睿防务系统有限公司 一种视频sar仿真运动目标参数估计方法
CN116188488B (zh) * 2023-01-10 2024-01-16 广东省第二人民医院(广东省卫生应急医院) 基于灰度梯度的b超图像病灶区域分割方法及装置
CN116469014A (zh) * 2023-01-10 2023-07-21 南京航空航天大学 基于优化Mask R-CNN的小样本卫星雷达图像帆板识别和分割方法
CN116469014B (zh) * 2023-01-10 2024-04-30 南京航空航天大学 基于优化Mask R-CNN的小样本卫星雷达图像帆板识别和分割方法
CN116188488A (zh) * 2023-01-10 2023-05-30 广东省第二人民医院 基于灰度梯度的b超图像病灶区域分割方法及装置

Similar Documents

Publication Publication Date Title
CN112541481A (zh) 一种基于深度学习的对海探测雷达目标检测方法
CN111681197B (zh) 一种基于Siamese网络结构的遥感图像无监督变化检测方法
CN110796048B (zh) 一种基于深度神经网络的船舰目标实时检测方法
CN109871902B (zh) 一种基于超分辨率对抗生成级联网络的sar小样本识别方法
CN111079739B (zh) 一种多尺度注意力特征检测方法
CN111582089A (zh) 基于卫星红外与可见光图像的海上目标信息融合方法
WO2018000252A1 (zh) 高分辨遥感海洋图像的海背景建模与抑制的方法及系统
CN109726649B (zh) 遥感影像云检测方法、系统及电子设备
CN111707998B (zh) 一种基于连通区域特征的海面漂浮小目标检测方法
CN113052180A (zh) 融合语义流场的编解码网络港口影像分割方法
CN114612769A (zh) 一种融入局部结构信息的集成感知红外成像舰船检测方法
CN112560634A (zh) 基于现场图像的电力线路绝缘子快速检测定位方法及系统
CN111368653B (zh) 一种基于r-d图与深度神经网络的低空小目标检测方法
CN113420594A (zh) 基于改进Faster R-CNN的SAR图像舰船检测方法
CN114240940B (zh) 一种基于遥感影像的云及云阴影检测方法和装置
CN114565824B (zh) 基于全卷积网络的单阶段旋转舰船检测方法
CN111950357A (zh) 一种基于多特征yolov3的船用水面垃圾快速识别方法
CN108983194B (zh) 一种基于地面监视雷达系统的目标提取及凝聚方法
CN113283326B (zh) 基于仿真目标亮线特征的视频sar目标智能检测方法
Wu et al. Moving target shadow detection method based on improved ViBe in VideoSAR images
Sun et al. A Wave Texture Difference Method for Rainfall Detection Using X‐Band Marine Radar
CN115937977A (zh) 一种基于多维特征融合的少样本人体动作识别方法
Chen et al. Oil spill detection based on a superpixel segmentation method for SAR image
CN115205683A (zh) 一种红外小目标检测方法
CN113534146A (zh) 一种雷达视频图像目标自动检测方法与系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination