CN113030958B - 一种基于深度迁移学习的雷达信号分选方法 - Google Patents

一种基于深度迁移学习的雷达信号分选方法 Download PDF

Info

Publication number
CN113030958B
CN113030958B CN202110359057.0A CN202110359057A CN113030958B CN 113030958 B CN113030958 B CN 113030958B CN 202110359057 A CN202110359057 A CN 202110359057A CN 113030958 B CN113030958 B CN 113030958B
Authority
CN
China
Prior art keywords
radar
pulse
image
network
pictures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110359057.0A
Other languages
English (en)
Other versions
CN113030958A (zh
Inventor
万良田
王金晶
柳蓉
孙璐
张艺桥
冯志涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN202110359057.0A priority Critical patent/CN113030958B/zh
Publication of CN113030958A publication Critical patent/CN113030958A/zh
Application granted granted Critical
Publication of CN113030958B publication Critical patent/CN113030958B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于雷达信号处理技术领域,提供了一种基于深度迁移学习的雷达信号分选方法,该方法是基于载频和脉宽参数,通过将接收到不同区域的雷达脉冲序列转化为图片进行雷达辐射源的分选,采用基于Faster RCNN网络的目标检测方法,先对其他区域的图片进行训练,得到模型的权重参数,然后将该模型迁移到当前区域。本发明提高了检测的准确度,对于重叠的雷达辐射源,依然能够准确的检测出来。

Description

一种基于深度迁移学习的雷达信号分选方法
技术领域
本发明属于雷达信号领域,尤其涉及到一种基于深度迁移学习的雷达信号分选方法。
背景技术
在现代高科技战争中,电子战已经融入到陆、海、空领域,并且成为最重要的作战手段,雷达侦察是电子对抗技术的重要组成部分,精准和高效的雷达侦察技术是进行电子干扰和防御的基础。只有有效的获取和识别到敌方信息,我方才能准确判断出敌方的战略意图,进而针对敌方目标采取有效的干扰措施,因此,在现代信息化战争时代,雷达侦察技术的强弱决定了战争主动权的归属。雷达信号分选是雷达侦察的关键步骤,高效可靠的分选技术是侦察系统信息处理分析的前提和保障。
传统的雷达信号分选、识别方法主要基于载频(RF)、脉宽(PW)、到达时间(TOA)、到达角(DOA)、脉冲幅度(PA)和脉冲重复间隔(PRI)等参数构成的特征矢量。当信号样式为常规雷达辐射源,脉冲信号密度不高时,该方法能取到一定的效果。随着信息技术的快速发展,作战电磁环境变得日益复杂,在同一时刻同一频段的各种辐射源信号交叠严重、分布形式复杂,雷达信号的分选分析越来越困难。同时,电子反侦察技术不断发展,雷达参数多变,体制复杂化也给雷达信号分选系统带来极大的挑战,信号分选中的虚警、漏警等问题直接关系到了侦察系统的可用性和有效性。
传统的信号识别方法中,特征提取、特征选择环节一般靠人工经验设计、计算复杂,而深度迁移学习是一种能用来自动学习数据重要深层特征的方法,同时其模型的层次结构和参数可调,可以拟合复杂的线性关系,具有很强的综合信息能力,并且鲁棒性和容错性强,使用起来方便容易,因此可以把深度迁移学习应用于雷达信号分选。
发明内容
本发明针对现有研究的一些不足之处,提出了基于深度迁移学习的雷达信号分选方法,该方法使用基于FasterRCNN网络目标检测的方法根据脉冲流参数PW和RF对接收脉冲序列进行分选,将不同辐射源所属的脉冲分离开来,该方法能够尽可能准确的识别出不同的雷达辐射源。
本发明的技术方案:
一种基于深度迁移学习的雷达信号分选方法,该方法包括以下步骤:
S1:利用无源探测系统侦察了A、B、C、D四个不同区域的雷达脉冲信号,包括载频(RF)、脉宽(PW)、到达时间(TOA)、脉冲重复间隔(PRI),生成一定数量的干扰脉冲用于网络训练。
雷达源脉冲信号在原始图上为矩形区块,根据矩形区块的宽高比例及大小作为区分雷达源的依据(高即区块纵轴RF变化范围,宽即区块横轴PW变化范围),区块宽高比例及大小不同,所对应的雷达源不同。将宽高比例限定在1:1-1:4之间,从这个比例区间均匀选择出40个比例,设定区块高(RF)的变化范围为1~3GHz,从该范围中随机出1个具体值,将该具体值分配给某一宽高比例(宽高比例小的分配较大的具体值,宽高比例大的分配较小的具体值)。
S2:利用PW、RF信息绘制二维脉冲点原始图。
雷达源脉冲的PW范围为2~12us,RF范围为1~18GHz,每个区域有10个雷达源,每张脉冲点原始图都是从10个雷达源中随机有放回的抽取6~10次,获得随机个数的雷达源,从选中的雷达源中随机产生5000个脉冲点,其中包含4500个雷达脉冲,500个干扰脉冲(用于网络训练),每个区域生成5000张图像,共计20000张图像。
S3:把原始图转换成256*256大小的灰度图像。
利用载频和脉宽生成的图像为RGB彩色图像,把图像通过网格划分方式划分成256*256个网格,通过计算每个网格中包含的脉冲点数目,把每个网格脉冲点数目/最大脉冲点数目作为转换后训练图像的像素值,从而得到用于训练的256*256大小的灰度图像。
S4:把数据集制作成Pascal VOC数据集格式。
利用步骤1和2生成雷达脉冲序列和标记边界框,根据脉冲参数绘制出了图片,把边界框的坐标信息保存在xml文件中,使用Faster RCNN网络,需要将数据集制作成PascalVOC数据集格式,把图片放在JPEGImages文件夹,把xml文件放在Annotations文件夹中。
S5:使用Faster RCNN网络对B、C、D三个区域的图片进行检测,生成模型的权重信息。
501)将图像输入ResNet50网络得到相应的特征图;
502)利用RPN网络结构生成候选框,将RPN生成的候选框投影到特征图上获得相应的特征矩阵;
503)将每个特征矩阵通过ROI pooling层缩放到7*7大小的特征图,接着将特征图展平通过一系列全连接层,最后得到预测概率和边界框回归参数。
S6:使用上一步骤中的模型信息,对A区域中的图片进行检测。
在上一步骤中使用Faster RCNN网络对B、C、D三个区域中的图片进行了检测,得到了模型,把该模型的参数用于检测A区域中的图片,得到最佳的网络模型。
与现有技术相比,本发明的有益效果:
1、本发明将神经网络应用于雷达信号分选,将载频和脉宽信息转化为图片,采用Faster RCNN网络对图片进行检测,即使是重叠的雷达辐射源,依旧能够检测出来,大大提高了检测的效率和准确度。
2、本发明中使用的数据集,是把RGB图像转换成灰度图像,并且大小是固定的256*256,不需要对图片进行裁剪等操作,减少了对图片的预处理过程,加快了网络的训练过程。
3、本发明利用无源探测系统侦察了多个不同的区域,利用其他区域接收的数据来训练模型,将训练好的模型迁移到当前区域,提高了当前区域检测的准确度。
附图说明
图1为本发明方法流程示意图;
图2为Faster RCNN网络训练流程图;
图3为载频、脉宽的二维散点图;
图4为载频、脉宽的灰度图;
图5为雷达辐射源分选结果图。
具体实施方式
下面结合附图和技术方案,进一步说明本发明的具体实施方式。
本发明设计一种基于深度迁移学习的雷达信号分选方法,如图1所示,该方法包括以下步骤:
步骤一:生成不同区域的雷达脉冲信号。
根据无源探测系统在不同侦察区域获得的脉冲信息,主要利用脉冲的RF(载频)、PW(脉宽)两个维度信息,假设侦察了A、B、C、D四个不同的区域,每个区域中有10个雷达源,由于雷达源脉冲在原始图上呈现效果为矩形区块,所以根据区块宽高比例及大小作为区分雷达源的依据(高即区块纵轴RF变化范围,宽即区块横轴PW变化范围)。区块宽高比例及大小不同,所对应的雷达源不同。总共模拟了40个不同的雷达源,将这些雷达源平均分配到4个区域中,采用两种分配方式:
1、随机四等分,将40个不同的宽高比例随机分成4组,
2、顺序四等分,将40个不同的宽高比例顺序排列,之后分成4组。
所有雷达源仿真脉冲的PW范围为2~12us,RF范围为1~18GHz,将区块的宽高比例(PW:RF)限定在1:1-1:4之间,从这个比例区间均匀选择出40个比例,将这40个宽高比例按照步骤一中两种分配方式之一进行分配。
设定区块高(RF)的变化范围为1~3GHz,从该范围中随机出1个具体值,将该具体值分配给某一宽高比例(宽高比例小的分配较大的具体值,宽高比例大的分配较小的具体值),共进行40次。经过上述步骤可以确定下每个雷达源的区块宽高比例以及具体大小是多少,得到当前区域中的雷达参数信息。
步骤二:利用PW、RF参数绘制二维散点图。
通过步骤一得到每个区域的PW、RF信息,利用每个区域中的10个雷达源生成5000张图像,四个区域一共20000张图像。每张脉冲点原始图从10个雷达源中随机有放回抽取6~10次,获得若干雷达源。从已选中的雷达源中随机产生出4500个雷达脉冲,加上随机出的500个干扰脉冲,共计5000个脉冲点,根据脉冲序列坐标点和脉冲参数,生成标记边界框,根据脉冲序列的PW、RF坐标绘制二维散点图,图像如图3所示。
步骤三:把原始图转换成256*256大小的图片
将脉冲点原始图通过网格划分方式划分成256*256个网格,计算每个网格中包含脉冲点数目,每个网格脉冲点数目/最大脉冲点数目作为转换后训练图像的像素值,进而得到用于训练的256*256像素图像,图像如图4所示。
步骤四:把生成的20000张图片制作成Pascal VOC数据集格式。
Pascal VOC数据集包含三个文件夹,Annotations、ImageSets、JPEGImagesAnnotations文件夹存放的是xml格式的标签文件,每个xml文件对应于JPEGImages文件夹中的一张图片,文件中包含了文件的名称、图片的来源,图片的尺寸和bounding-box(包含左下角和右上角xy的坐标)。
ImageSets中主要是Main文件夹,包含了train.txt、val.txt和trainval.txt,train中存放的是训练使用的数据,val中存放的是验证结果使用的数据,trainval对train和val中的数据进行了合并,train和val没有交集,训练数据和验证数据不能有重复,在选取训练数据的时候是随机产生的。
JPEGImages文件夹中存放了所有的图片,包括训练图片和测试图片,这些图片的大小都是256*256。
步骤五:使用Faster RCNN网络对B、C、D三个区域的图片进行检测,网络的流程图如图2所示。
以B、C、D三个区域的图片为训练集,输入图片,以ResNet50为backbone并且加入了FPN网络,对图片进行特征提取,ResNet在网络中加入了直连通道,通过直接将输入信息绕道传到输出,保护信息的完整性,整个网络只需学习输入、输出差别的那一部分,简化了学习目标和难度。FPN网络融合了不同尺度的特征进行检测,既加入底层卷积特征的位置信息对检测小目标很有用,又融合高层卷积特征的语义信息。
网络经过backbone之后得到5个预测特征层,然后进入RPN网络部分生成一系列的anchor建议框,对其进行剪裁过滤后通过Softmax判断anchors属于目标还是背景,并对不同anchor box采用与其对应的回归模型进行候选框大小微调,形成较精确的候选框proposal,将候选框的坐标映射到最后一层特征图上,对特征图上的候选框通过Roipooling得到标准大小的一组特征,对Roi特征进行再次分类和回归。
RPN网络是Faster RCNN网络的核心,主要用来生成区域候选框,首先生成基础的anchor,基础anchor的数目=长宽比的数目*anchor的缩放比例数目,这里设置了3中长宽比(1:1,1:2,2:1),3中缩放尺度(8,16,32),然后根据基础anchor,对特征图上的每一个像素,都会以它为中心生成9中不同尺度的边界候选框(所有生成的anchor都是相对于原图而言的),最后进行anchor的筛选,由于锚点经常重叠,因此建议最终也会在同一个目标上重叠,为了解决重复建议的问题,使用了非极大值抑制(NMS)方法,NMS按照分数排序的建议列表并对已排序的列表进行迭代,丢弃那些IoU值大于某个预定义阈值的建议,并提出一个具有更高分数的建议。
使用训练集对神经网络进行模型训练,计算训练集和测试集的损失函数,损失函数为分类损失和回归损失的总和,其表达式如下:
分类损失使用交叉熵损失函数计算,回归损失使用Smooth L1 Loss计算,当为正样本时为1,当为负样本时为0,ti是一个向量,表示在RPN训练阶段,anchor相对于gt(Ground Truth,即目标的真实框)预测的偏移量,/>表示anchor相对于gt实际的偏移量,Ncls表示一个mini-batch中的样本数量256,Nreg表示正负样本的总数。
步骤六:使用步骤五生成的模型参数,对区域A中的图片进行训练。
在步骤五中已经使用Faster RCNN网络对B、C、D三个区域中的图片进行了检测,得到了模型的参数,使用该模型的参数对A区域中的图片进行训练,得到最佳的网络模型,从而可以准确的检测出图片中雷达辐射源的位置,最终的分选结果如图5所示。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的工作人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (1)

1.一种基于深度迁移学习的雷达信号分选方法,其特征在于,包括以下步骤:
S1:利用无源探测系统侦察A、B、C、D四个不同区域的雷达源脉冲信号,包括载频、脉宽、到达时间、脉冲重复间隔,生成干扰脉冲用于网络训练;
雷达源脉冲信号在原始图上为矩形区块,根据矩形区块的宽高比例及大小作为区分雷达源的依据,高即区块纵轴RF变化范围,宽即区块横轴PW变化范围;区块宽高比例及大小不同,所对应的雷达源不同;将宽高比例限定在1:1-1:4之间,从这个比例区间均匀选择出40个比例,设定区块高的变化范围为1~3GHz,从该范围中随机选出1个具体值,将该具体值分配给所述均匀选择出40个比例之一,其中宽高比例小的分配较大的随机选出的具体值,宽高比例大的分配较小的随机选出的具体值;
S2:利用PW、RF信息绘制二维脉冲点原始图
雷达源脉冲的PW范围为2~12us,RF范围为1~18GHz,每个区域有10个雷达源,每张脉冲点原始图都是从10个雷达源中随机有放回的抽取6~10次,获得随机个数的雷达源,从选中的雷达源中随机产生5000个脉冲点,其中包含4500个雷达脉冲,500个用于网络训练的干扰脉冲,每个区域生成5000张图像,共计20000张图像;
S3:把原始图转换成256*256大小的灰度图像
利用载频和脉宽生成的图像为RGB彩色图像,把图像通过网格划分方式划分成256*256个网格,通过计算每个网格中包含的脉冲点数目,把每个网格脉冲点数目/最大脉冲点数目作为转换后训练图像的像素值,从而得到用于训练的256*256大小的灰度图像;
S4:把数据集制作成Pascal VOC数据集格式
利用步骤1和2生成雷达脉冲序列和标记边界框,根据脉冲参数绘制出图片,把边界框的坐标信息保存在xml文件中,使用Faster RCNN网络,需要将数据集制作成Pascal VOC数据集格式,把图片放在JPEGImages文件夹,把xml文件放在Annotations文件夹中;
S5:使用Faster RCNN网络对B、C、D三个区域的图片进行检测,生成模型的权重信息;
501)将图像输入ResNet50网络得到相应的特征图;
502)利用RPN网络结构生成候选框,将RPN生成的候选框投影到特征图上获得相应的特征矩阵;
503)将每个特征矩阵通过ROI pooling层缩放到7*7大小的特征图,接着将特征图展平通过多个全连接层,最后得到预测概率和边界框回归参数;
S6:使用上一步骤中的模型信息,对A区域中的图片进行检测;
在上一步骤中使用Faster RCNN网络对B、C、D三个区域中的图片进行了检测,得到模型,把该模型的参数用于检测A区域中的图片,得到最佳的网络模型。
CN202110359057.0A 2021-04-02 2021-04-02 一种基于深度迁移学习的雷达信号分选方法 Active CN113030958B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110359057.0A CN113030958B (zh) 2021-04-02 2021-04-02 一种基于深度迁移学习的雷达信号分选方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110359057.0A CN113030958B (zh) 2021-04-02 2021-04-02 一种基于深度迁移学习的雷达信号分选方法

Publications (2)

Publication Number Publication Date
CN113030958A CN113030958A (zh) 2021-06-25
CN113030958B true CN113030958B (zh) 2023-12-22

Family

ID=76453480

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110359057.0A Active CN113030958B (zh) 2021-04-02 2021-04-02 一种基于深度迁移学习的雷达信号分选方法

Country Status (1)

Country Link
CN (1) CN113030958B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109116312A (zh) * 2018-07-20 2019-01-01 电子科技大学 基于qmfb与卷积神经网络的雷达信号分类方法
CN109613485A (zh) * 2018-12-03 2019-04-12 中国人民解放军空军工程大学 一种基于支持向量聚类和灰关联度的雷达信号分选方法
CN110109060A (zh) * 2019-03-27 2019-08-09 西安电子科技大学 一种基于深度学习网络的雷达辐射源信号分选方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109116312A (zh) * 2018-07-20 2019-01-01 电子科技大学 基于qmfb与卷积神经网络的雷达信号分类方法
CN109613485A (zh) * 2018-12-03 2019-04-12 中国人民解放军空军工程大学 一种基于支持向量聚类和灰关联度的雷达信号分选方法
CN110109060A (zh) * 2019-03-27 2019-08-09 西安电子科技大学 一种基于深度学习网络的雷达辐射源信号分选方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WAVEGLOW: A FLOW-BASED GENERATIVE NETWORK FOR SPEECH SYNTHESIS;Ryan Prenger 等;arXiv:1811.00002v1;全文 *
基于神经网络与时域校验的信号分选方法;刘峻臣 等;雷达科学与技术(第1期);全文 *

Also Published As

Publication number Publication date
CN113030958A (zh) 2021-06-25

Similar Documents

Publication Publication Date Title
CN101980248B (zh) 基于改进视觉注意力模型的自然场景目标检测方法
CN106778835B (zh) 融合场景信息和深度特征的遥感图像机场目标识别方法
CN108830188A (zh) 基于深度学习的车辆检测方法
CN109816024A (zh) 一种基于多尺度特征融合与dcnn的实时车标检测方法
CN104484681B (zh) 基于空间信息和集成学习的高光谱遥感影像分类方法
CN108319949A (zh) 一种高分辨率遥感图像中多朝向舰船目标检测与识别方法
CN112132014B (zh) 基于非督导金字塔相似性学习的目标重识别方法及系统
CN104008399B (zh) 一种仪表检测中基于支持向量机的仪表指针抖动的识别方法
CN111753985A (zh) 基于神经元覆盖率的图像深度学习模型测试方法与装置
CN110263660A (zh) 一种自适应场景变化的交通目标检测识别方法
CN106156744A (zh) 基于cfar检测与深度学习的sar目标检测方法
CN109919934A (zh) 一种基于多源域深度迁移学习的液晶面板缺陷检测方法
CN106778687A (zh) 基于局部评估和全局优化的注视点检测方法
CN107833213A (zh) 一种基于伪真值自适应法的弱监督物体检测方法
CN110647802A (zh) 基于深度学习的遥感影像舰船目标检测方法
CN113435459B (zh) 基于机器学习的岩石组分识别方法、装置、设备及介质
CN107507170A (zh) 一种基于多尺度图像信息融合的机场跑道裂缝检测方法
CN108875805A (zh) 基于深度学习的利用检测识别一体化提高检测精度的方法
CN112348758B (zh) 一种光学遥感图像数据增强方法及目标识别方法
CN104182985A (zh) 遥感图像变化检测方法
CN109785366A (zh) 一种针对遮挡的相关滤波目标跟踪方法
CN109543585A (zh) 基于卷积神经网络的水下光学目标检测与识别方法
CN108776777A (zh) 一种基于Faster RCNN的遥感影像对象间空间关系的识别方法
CN112084860A (zh) 目标对象检测、火力发电厂检测方法和装置
CN115908930A (zh) 一种基于改进cfwpso-svm的前视声呐图像识别分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant