CN116758261B - 基于生成对抗网络的宽带前视成像雷达目标识别方法 - Google Patents
基于生成对抗网络的宽带前视成像雷达目标识别方法 Download PDFInfo
- Publication number
- CN116758261B CN116758261B CN202310761844.7A CN202310761844A CN116758261B CN 116758261 B CN116758261 B CN 116758261B CN 202310761844 A CN202310761844 A CN 202310761844A CN 116758261 B CN116758261 B CN 116758261B
- Authority
- CN
- China
- Prior art keywords
- view image
- image
- network
- representing
- target recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000012549 training Methods 0.000 claims abstract description 45
- 238000010586 diagram Methods 0.000 claims description 32
- 230000036544 posture Effects 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 17
- 238000003491 array Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 7
- 238000013135 deep learning Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 7
- 238000012360 testing method Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及雷达成像与目标识别技术领域,特别涉及一种基于生成对抗网络的宽带前视成像雷达目标识别方法,其中,方法包括:建立配对的前视图像数据集;搭建基于生成对抗网络的图像增强网络,利用前视图像数据集对图像增强网络进行训练并获得图像增强模型,将前视图像输入图像增强模型,获得增强后的前视图像;搭建目标识别网络,利用前视图像、增强后的前视图像和类别信息对目标识别网络进行训练并获得目标识别模型,并将前视图像和增强后的前视图像结合,并输入到目标识别模型,获得任一前视图像的类别信息。由此,解决相关技术中通过传统的图像增强方法无法对信息缺失的前视图像进行有效增强,适用性较低,降低了目标识别的准确性的问题。
Description
技术领域
本申请涉及雷达成像与目标识别技术领域,特别涉及一种基于生成对抗网络的宽带前视成像雷达目标识别方法。
背景技术
前视成像与合成孔径成像技术形成互补,可以解决合成孔径技术只能工作在侧视和前斜视模式的问题,然而前视成像中,雷达运动方向与雷达视线方向一致,无法通过运动进行孔径合成,方位分辨力不足,宽带前视成像雷达利用宽带的距离高分辨特性,将散射点在距离维度分辨开,进而将方位分辨问题转化为方位估计问题,是一种获取前视高分辨成像的有益尝试。
相关技术中,利用宽带的距离高分辨,将方位分辨问题转化为方位估计问题,获得前视高分辨成像,然而,前视成像需要对一些复杂目标成像,比如飞机、舰船、坦克等,对于复杂目标,无可避免存在一个距离单元有多个散射点且无法分辨的情况,现有前视成像方法对这些散射点进行估计会存在较大的测角误差,致使前视图像质量差;另外,前视成像一般对目标进行单角度观测,当目标存在遮挡时,会严重降低前视成像的性能,当前视图像质量较差时,目标识别特征不足,从而影响目标识别的准确度。
将生成对抗网络引入到前视图像增强任务中,已有研究在场景识别、道路提取等任务取得了不错的效果,但很少将图像增强用于雷达前视成像目标识别任务中,主要有两个原因,一是前视图像获取难度大,前视图像质量差;二是前视图像的数据集有限,由于复杂目标具有一定的几何结构特征,针对前视图像质量差的问题,考虑到复杂目标都具有一定几何结构特征的先验,对前视图像进行增强,丰富目标识别特征具有十分重要的现实意义。
相关技术中,针对前视图像质量差的问题,可以通过对前视图像进行图像增强,传统的图像增强方法,如直方图增强、自适应滤波器增强等,还可以基于变分自编码器采用一种非对抗性的方法训练模型进行深度学习的图像增强。
然而,相关技术中通过传统的图像增强方法无法对信息缺失严重的前视图像进行有效增强,适用性较低,且深度学习的图像增强方法生成的图像比较模糊,降低了目标识别的准确性,亟待解决。
发明内容
本申请提供一种基于生成对抗网络的宽带前视成像雷达目标识别方法,以解决相关技术中通过传统的图像增强方法无法对信息缺失严重的前视图像进行有效增强,适用性较低,且深度学习的图像增强方法生成的图像比较模糊,降低了目标识别的准确性的问题。
本申请第一方面实施例提供一种基于生成对抗网络的宽带前视成像雷达目标识别方法,应用于模型训练阶段,包括以下步骤:建立配对的前视图像数据集,所述前视图像数据集包括前视图像和目标的轮廓图;搭建基于生成对抗网络的图像增强网络,利用所述前视图像数据集对所述图像增强网络进行训练,获得训练好的图像增强模型,将所述前视图像输入所述训练好的图像增强模型,获得增强后的前视图像;搭建目标识别网络,利用所述前视图像、所述增强后的前视图像和类别信息对所述目标识别网络进行训练,获得训练好的目标识别模型,并将所述前视图像和所述增强后的前视图像进行结合,以将结合后的图像输入到所述训练好的目标识别模型,获得任一前视图像的类别信息。
可选地,在本申请的一个实施例中,所述建立配对的前视图像数据集,包括:获取多种目标不同姿态的轮廓图,以得到不同目标不同姿态的所述轮廓图;获取所述不同目标不同姿态的回波数据,并基于所述回波数据得到所述前视图像;对所述前视图像进行数据增强,以对所述前视图像中每个散射点添加位置误差和姿态误差,并与所述轮廓图进行配对,生成所述配对的前视图像数据集。
可选地,在本申请的一个实施例中,所述回波数据的表达式为:
其中,y(n,m)表示采集的第n个天线第m个频点的回波信号,P表示复杂目标中散射点的个数,γp、Rp和θp分别表示y(n,m)中第p个散射点的幅度、距离和方位,w(m,n)表示复高斯噪声,j表示虚数单位,fc+(m-1)Δf表示第m个观测频点,Δf表示频率间隔,fc表示初始频率,c表示光速,d表示阵列之间的间隔。
可选地,在本申请的一个实施例中,所述搭建基于生成对抗网络的图像增强网络,利用所述前视图像数据集对所述图像增强网络进行训练,获得训练好的图像增强模型,包括:搭建基于所述生成对抗网络的图像增强网络,所述生成对抗网络的图像增强网络包括生成器和判别器;以所述前视图像作为输入,以所述轮廓图作为监督,对所述图像增强网络进行训练,得到所述训练好的图像增强模型。
可选地,在本申请的一个实施例中,所述搭建目标识别网络,利用所述前视图像、所述增强后的前视图像和类别信息对所述目标识别网络进行训练,获得训练好的目标识别模型,包括:搭建所述目标识别网络,并以所述前视图像和所述增强后的前视图像进行结合,将结合结果作为输入,以所述类别信息为标签,对所述目标识别网络进行训练,获得所述训练好的目标识别模型。
本申请第二方面实施例提供一种基于生成对抗网络的宽带前视成像雷达目标识别方法,应用于模型应用阶段,包括以下步骤:获取任一前视图像;将所述任一前视图像输入至训练好的图像增强模型,输出所述任一前视图像的增强后的前视图像;将所述任一前视图像和所述增强后的前视图像进行结合,并将结合结果输入至训练好的目标识别模型,输出所述任一前视图像的类别信息。
本申请第三方面实施例提供一种基于生成对抗网络的宽带前视成像雷达目标识别装置,应用于模型训练阶段,包括:建立模块,用于建立配对的前视图像数据集,所述前视图像数据集包括前视图像和目标的轮廓图;第一获取模块,用于搭建基于生成对抗网络的图像增强网络,利用所述前视图像数据集对所述图像增强网络进行训练,获得训练好的图像增强模型,将所述前视图像输入所述训练好的图像增强模型,获得增强后的前视图像;第二获取模块,用于搭建目标识别网络,利用所述前视图像、所述增强后的前视图像和类别信息对所述目标识别网络进行训练,获得训练好的目标识别模型,并将所述前视图像和所述增强后的前视图像进行结合,以将结合后的图像输入到所述训练好的目标识别模型,获得任一前视图像的类别信息。
可选地,在本申请的一个实施例中,所述建立模块包括:第一获取单元,用于获取多种目标不同姿态的轮廓图,以得到不同目标不同姿态的所述轮廓图;第二获取单元,用于获取所述不同目标不同姿态的回波数据,并基于所述回波数据得到所述前视图像;第一生成单元,用于对所述前视图像进行数据增强,以对所述前视图像中每个散射点添加位置误差和姿态误差,并与所述轮廓图进行配对,生成所述配对的前视图像数据集。
可选地,在本申请的一个实施例中,所述回波数据的表达式为:
其中,y(n,m)表示采集的第n个天线第m个频点的回波信号,P表示复杂目标中散射点的个数,γp、Rp和θp分别表示y(n,m)中第p个散射点的幅度、距离和方位,w(m,n)表示复高斯噪声,j表示虚数单位,fc+(m-1)Δf表示第m个观测频点,Δf表示频率间隔,fc表示初始频率,c表示光速,d表示阵列之间的间隔。
可选地,在本申请的一个实施例中,所述第一获取模块包括:第二生成单元,用于搭建基于所述生成对抗网络的图像增强网络,所述生成对抗网络的图像增强网络包括生成器和判别器;第三获取单元,用于以所述前视图像作为输入,以所述轮廓图作为监督,对所述图像增强网络进行训练,得到所述训练好的图像增强模型。
可选地,在本申请的一个实施例中,所述第二获取模块包括:第四获取单元,用于搭建所述目标识别网络,并以所述前视图像和所述增强后的前视图像进行结合,将结合结果作为输入,以所述类别信息为标签,对所述目标识别网络进行训练,获得所述训练好的目标识别模型。
本申请第四方面实施例提供一种基于生成对抗网络的宽带前视成像雷达目标识别装置,应用于模型应用阶段,包括:第三获取模块,用于获取任一前视图像;第一处理模块,用于将所述任一前视图像输入至训练好的图像增强模型,输出所述任一前视图像的增强后的前视图像;第二处理模块,用于将所述任一前视图像和所述增强后的前视图像进行结合,并将结合结果输入至训练好的目标识别模型,输出所述任一前视图像的类别信息。
本申请第五方面实施例提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如上述实施例所述的基于生成对抗网络的宽带前视成像雷达目标识别方法。
本申请第六方面实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储计算机程序,该程序被处理器执行时实现如上的基于生成对抗网络的宽带前视成像雷达目标识别方法。
本申请实施例可以建立配对的前视图像数据集,搭建基于生成对抗网络的图像增强网络,利用前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型并输入前视图像,以获得增强后的前视图像,搭建目标识别网络,利用前视图像、增强后的前视图像和类别信息对目标识别网络进行训练并获得目标识别模型,将前视图像和增强后的前视图像进行结合,以将结合后的图像输入到目标识别模型,获得任一前视图像的类别信息,从而有效的提升了前视图像的质量,提高了目标识别的准确性。由此,解决了相关技术中通过传统的图像增强方法无法对信息缺失严重的前视图像进行有效增强,适用性较低,且深度学习的图像增强方法生成的图像比较模糊,降低了目标识别的准确性的问题。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本申请实施例提供的一种基于生成对抗网络的宽带前视成像雷达目标识别方法的流程图;
图2为本申请一个具体实施例的配对的前视图像数据集的示意图;
图3为本申请一个具体实施例的复杂目标的轮廓示意图;
图4为本申请一个具体实施例的图像增强网络的示意图;
图5为本申请一个具体实施例的生成器模型的示意图;
图6为本申请一个具体实施例的判别器模型的示意图;
图7为本申请一个具体实施例的目标识别网络的示意图;
图8为本申请一个具体实施例的ResNet34网络模型的示意图;
图9为根据本申请实施例提供的另一种基于生成对抗网络的宽带前视成像雷达目标识别方法的流程图;
图10为本申请一个具体实施例的基于生成对抗网络的宽带前视成像雷达目标识别的原理示意图;
图11为根据本申请实施例提供的一种基于生成对抗网络的宽带前视成像雷达目标识别装置的结构示意图;
图12为根据本申请实施例提供的另一种基于生成对抗网络的宽带前视成像雷达目标识别装置的结构示意图;
图13为根据本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的基于生成对抗网络的宽带前视成像雷达目标识别方法。针对上述背景技术中心提到的相关技术中通过传统的图像增强方法无法对信息缺失严重的前视图像进行有效增强,适用性较低,且深度学习的图像增强方法生成的图像比较模糊,降低了目标识别的准确性的问题,本申请提供了一种基于生成对抗网络的宽带前视成像雷达目标识别方法,在该方法中,可以建立配对的前视图像数据集,搭建基于生成对抗网络的图像增强网络,利用前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型并输入前视图像,以获得增强后的前视图像,搭建目标识别网络,利用前视图像、增强后的前视图像和类别信息对目标识别网络进行训练并获得目标识别模型,将前视图像和增强后的前视图像进行结合,以将结合后的图像输入到目标识别模型,获得任一前视图像的类别信息,从而有效的提升了前视图像的质量,提高了目标识别的准确性。由此,解决了相关技术中通过传统的图像增强方法无法对信息缺失严重的前视图像进行有效增强,适用性较低,且深度学习的图像增强方法生成的图像比较模糊,降低了目标识别的准确性的问题。
由于前视成像应用中孔径有限,方位分辨力不足,致使前视图像质量差,目标识别准确度低,前视雷达获取高分辨成像非常困难,使用宽带信号是获取前视高分辨成像的有益尝试,本申请引入复杂目标的几何结构特征,利用生成对抗网络对前视图像进行图像增强,获得了增强后的前视图像,增加了目标识别的特征,保证了宽带前视成像雷达目标识别的可实现性,因此,为便于描述,本申请以适用于宽带前视成像雷达目标识别为例进行阐述。
具体而言,图1为本申请实施例所提供的一种基于生成对抗网络的宽带前视成像雷达目标识别方法的流程示意图。
如图1所示,该基于生成对抗网络的宽带前视成像雷达目标识别方法,应用于模型训练阶段,包括以下步骤:
在步骤S101中,建立配对的前视图像数据集,前视图像数据集包括前视图像和目标的轮廓图。
可以理解的是,本申请实施例可以建立下述步骤中的配对的前视图像数据集,其中,前视图像数据集可以包括前视图像和目标的轮廓图,从而有效的提升了目标识别的可执行性。
其中,在本申请的一个实施例中,建立配对的前视图像数据集,包括:获取多种目标不同姿态的轮廓图,以得到不同目标不同姿态的轮廓图;获取不同目标不同姿态的回波数据,并基于回波数据得到前视图像;对前视图像进行数据增强,以对前视图像中每个散射点添加位置误差和姿态误差,并与轮廓图进行配对,生成配对的前视图像数据集。
举例而言,如图2所示,为本申请一个具体实施例的配对的前视图像数据集,首先,本申请实施例可以获取7种飞机目标不同姿态时的轮廓图,将飞机调整到一个合适的姿态,然后对目标附近的一定区域进行分割,将5m×5m的包含目标的区域分割为224×224的小块,最后进行像素转换产生轮廓图像,从而获得7种飞机不同姿态时目标的轮廓图,如图3所示,为7种飞机在某一姿态时的轮廓图,每张图片的大小为224×224,表示5m×5m的观测范围。
接着,本申请实施例可以利用电磁仿真软件CST获取不同目标在不同姿态时的回波数据,首先以一个目标某个姿态为例说明回波数据的获取方式,采用一发多收的观测模式,设置发射天线的角度为θr,接收阵列天线的数量N为10,接收天线的角度为θr:Δθ:θr+(N-1)Δθ,其中,Δθ=0.05°,雷达初始频率fc为8GHz,雷达信号带宽B为10GHz,观测频点数M为2001,则频率间隔Δf为5MHz,因此,最大不模糊距离为Rmax=c/2Δf=30m。
假设复杂目标和雷达相对位置关系满足远场条件,目标包含P个理想散射点,对于第p个散射点,发射天线到第n个接收天线之间的往返延时表示为:
其中,Rp,θp分别表示第p个散射点的距离和角度,c表示光速,d表示阵列之间的间隔,n表示第n个接收天线。
由于在CST仿真中,天线间隔为Δθ,假设散射点位于目标质心附近,雷达到目标质心的真实距离与最大不模糊距离之间的关系为:
其中,ρ表示一个较大的整数,则天线之间的间距可以近似为其中,Δθ表示天线间隔。
则第n个接收天线第m个频点观测到的回波信号表示为
其中,y(n,m)表示采集的第n个天线第m个频点的回波信号,τn,p表示发射天线到第n个接收天线之间的往返延时,P表示复杂目标中散射点的个数,γp、Rp和θp分别表示y(n,m)中第p个散射点的幅度、距离和方位,w(m,n)表示复高斯噪声,j表示虚数单位,fc+(m-1)Δf表示第m个观测频点,Δf表示频率间隔,fc表示初始频率,c表示光速,d表示阵列之间的间隔。
进一步的,本申请实施例可以改变目标类型和目标姿态,通过电磁仿真软件获取每个目标每个姿态的回波数据,根据回波数据可以获得目标中各个散射点的位置信息,从而得到前视图像。
具体而言,本申请实施例可以通过脉冲压缩、频谱方法或者稀疏恢复方法获得距离信息,然后估计每个距离分辨单元散射点的角度获得角度信息,从而获得二维成像结果。
首先,本申请实施例可以利用任意一根接收天线的信号估计散射点的时间延时τn,p,并从时间延时的估计结果中获得散射点的距离Rp,以第n个天线为例,回波信号进一步整理为:
其中,hn,p=2πΔfτn,p和分别表示第p个散射点相对于第n个天线的时间延时参数和复散射系数。
进一步地,运用表示第n个天线的接收信号,并通过传统的ESPRIT(Estimation of Signal Parameters using Rotational InvarianceTechniques,利用旋转不变技术估计信号参数)算法从信号yn中获得估计结果然后通过时间延时参数的估计值,得到相应的时间延时和距离估计,即:
当选择第一根接收天线时,距离的估计结果表示为其中第一根天线的延时/>与距离成正比。
接着,对包含散射点的距离单元进行角度估计,回波信号重新整理为:
其中,wm表示噪声向量,假设第p个距离单元包含K个散射点,sp表示维度为K×1的幅度向量,θp=[θp,1,θp,2,...,θp,K],Am,p(θp)=[am,p(θp,1),am,p(θp,2),...,am,p(θp,K)],am,p(θp,k)表示第p个距离单元中第k个散射点在第m个观测频点时的导引矢量,可以表示为:
其中,d表示阵元之间的间距,λm=c/(fc+(m-1)Δf)表示第m个观测频点的波长。
本申请实施例可以根据ym,m=1,2,...,M估计角度信息θp,k,一般情况下一个距离单元只有一个散射点,这类角度估计问题有很多传统方法解决,由于RELAX算法具有较好的估计性能,因此可以通过RELAX算法对P个距离单元的信号进行单独和相同处理,得到每个距离单元中散射点的角度估计将距离估计结果和角度估计结果展示在5m×5m的区域内,分割成224×224的小块,并进行像素转换得到包含少数稀疏点的前视图像。
最后,本申请实施例可以对前视图像进行数据增强,扩大数据集,获得更多的前视图像,然后将每一张前视图像与目标的轮廓图进行配对,获得配对的前视图像数据集。
具体而言,由于CST仿真的回波数据有限,获得的前视图像有限,对于每个飞机每个姿态的前视图像,需要对图像进行一系列的变化进一步扩大数据集,也称为数据增强,首先,对原始前视图像中每个散射点的位置添加标准差为0.03m、0.05m、0.08m的扰动,各产生5张前视图像,从而将数据集扩大为原来的16倍,接着选取原始图像中的部分散射点并添加标准差为0.03m、0.05m、0.08m的扰动,各产生5张前视图像,进而将数据集扩大为原来的31倍,然后对原始图像中的散射点添加标准差为1°、2°、3°的旋转误差,也记作姿态误差,各产生5张前视图像,从而将数据集扩大为原来的46倍,最后将数据增强后的每一张前视图像都与目标的轮廓图进行配对,最终获得8142组配对的前视图像数据集。
在步骤S102中,搭建基于生成对抗网络的图像增强网络,利用前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型,将前视图像输入训练好的图像增强模型,获得增强后的前视图像。
可以理解的是,本申请实施例可以搭建下述步骤中基于生成对抗网络的图像增强网络,利用配对的前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型,将前视图像输入训练好的图像增强模型,获得增强后的前视图像,从而利用生成对抗网络对前视图像进行图像增强,以获得高质量的前视图像。
其中,在本申请的一个实施例中,搭建基于生成对抗网络的图像增强网络,利用前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型,包括:搭建基于生成对抗网络的图像增强网络,生成对抗网络的图像增强网络包括生成器和判别器;以前视图像作为输入,以轮廓图作为监督,对图像增强网络进行训练,得到训练好的图像增强模型。
作为一种可能实现的方式,本申请实施例可以搭建基于生成对抗网络的图像增强网络,接着,利用配对的前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型。
举例而言,如图4所示,为一种图像增强网络的示意图,基于生成对抗网络搭建的图像增强网络,GAN(Generative Adversarial Network,生成对抗网络)是一个通用模型,学习从随机噪声到期望图像的映射,在图像增强网络中,每张前视图像都对应着一个可以作为监督的飞机轮廓,为了充分利用前视图像和目标轮廓的图像对,提出了基于生成对抗网络的图像增强方法。
进一步地,图像增强网络包括G(Generator,生成器)和D(Discriminator,判别器),其中,生成器G被训练产生不能被对抗性训练的判别器D区分为“真实”图像的输出,判别器被训练成尽可能地检测出生成器的“虚假”图像,图像增强网络将前视图像X和目标的轮廓Y成对作为输入。
其中,生成器输入由稀疏点表示的前视图像,并输出一个增强后的前视图像,生成器使用U-Net网络,并在第i层和第I-i层之间添加跳连用于特征融合,其中,I为总层数,此外,生成器具有对称结构,用来生成与输入具有相同大小的图像,如图5所示,为生成器模型的示意图,其中,每个方框对应于一个多通道的特征图,通道的数量表示在方框的顶部,尺寸在方框的左下角,白色方框代表复制的特征图,箭头表示不同的卷积操作,U-Net网络输入的前视图像是一个大小为224×224×1的张量,下面的五个卷积层分别将特征维度扩展到64、128、256、512和512,同时,这五个卷积层将图像大小减少到112×112,56×56,28×28,14×14,和7×7,前四层卷积后的特征通过跳连用于后面的图像生成,在经过五次卷积操作后进行五次反卷积,经过第一次反卷积,图像由7×7×512变为14×14×512,然后结合复制的特征,图像大小变为14×14×1024,再经过后面的反卷积,最终输出的图像大小为224×224×1。
另外,判别器的结构为卷积神经网络,当输入前视图像和增强的前视图像时,卷积神经网络预测为假,而当输入前视图像和配对的目标轮廓时,预测为真,如图6所示,为判别器模型的结构图,判别器将前视图像和目标的轮廓图或生成的前视图像作为输入,使用3次卷积来获得图像中每个像素的真/假信息,通过同时训练生成器和判别器,生成的前视图像有望接近真实的目标轮廓。
进一步地,本申请实施例可以利用配对的前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型,首先,可以将配对的前视图像数据集分为训练集和测试集,比例分别为80%和20%,然后,将训练集图像输入到图像增强网络进行训练,在每次训练中,样本被分批送入网络,批量大小batchsize为18,图像增强网络的目标函数表示为:
LGAN(G,D)=EX,Y[logD(X,Y)]+EX[log(1-D(X,G(X)))],
其中,G表示生成器,D表示判别器,X表示前视图像,Y表示目标的轮廓。
此外,L1的损失与GAN的损失通过一个超参数λ结合起来,用来考虑整体和局部的图像增强效果,最后目标函数表示为:
其中,L1损失表示为LL1=EX,Y[||Y-G(X)||1],λ表示超参数。
接着,学习率初始化为0.0001,将训练轮数设置为200,在前50轮训练中学习率保持不变,在接下来的150轮训练中学习率线性递减至0,如果训练集上的损失最小或者产生了最好的图像,就选择此轮对应的模型参数,最后,保存在训练数据集上具有最佳性能的模型权重,用作推理模型以对图像进行增强,从而获得训练好的图像增强模型。
在步骤S103中,搭建目标识别网络,利用前视图像、增强后的前视图像和类别信息对目标识别网络进行训练,获得训练好的目标识别模型,并将前视图像和增强后的前视图像进行结合,以将结合后的图像输入到训练好的目标识别模型,获得任一前视图像的类别信息。
可以理解的是,本申请实施例可以搭建下述步骤中的目标识别网络,利用前视图像、增强后的前视图像和类别信息对目标识别网络进行训练,获得训练好的目标识别模型,并将前视图像和增强后的前视图像进行结合,以将结合后的图像输入到训练好的目标识别模型,获得任一前视图像的类别信息,从而有效的保证了宽带前视成像雷达目标识别的可实现性。
其中,在本申请的一个实施例中,搭建目标识别网络,利用前视图像、增强后的前视图像和类别信息对目标识别网络进行训练,获得训练好的目标识别模型,包括:搭建目标识别网络,并以前视图像和增强后的前视图像进行结合,将结合结果作为输入,以类别信息为标签,对目标识别网络进行训练,获得训练好的目标识别模型。
举例而言,本申请实施例可以获得目标识别网络的数据集,包括前视图像、增强后的前视图像以及类别信息,首先,本申请实施例可以搭建目标识别网络,如图7所示,为目标识别网络的示意图,通过将前视图像和增强后的前视图像输入目标识别网络,以提高目标识别的准确度,为了利用前视图像和增强后的前视图像识别不同类型的目标,可以选择ResNet网络来实现目标识别任务,其中,ResNet是一种目标分类任务的通用模型,分为两个关键模块,分别是特征提取模型和分类模块,目标识别网络可以以多通道的图像作为输入,并输出类别结果。
具体而言,特征提取模块将图像作为输入,并输出一个全局特征张量,特征提取模块是由若干残差块组成的,每个残差块由两个级联卷积层和一个跳连组成,残差块的输出是通过累积两者的输出值并通过ReLU(Rectified Linear Unit,线性整流函数)激活层获得,串联多个残差块可以实现更深的网络,达到更好的识别性能,分类模块输入一个全局特征张量,输出一个分类结果,实际上,分类模块为一个全连接层,全连接层将特征与适当的权重相结合,并计算出每个类别的置信度,本申请实施例选择ResNet34网络作为目标识别网络。
如图8所示,为ResNet34网络的结构示意图,图像首先经过卷积和池化,然后经过4个卷积模块,每个模块分别有3、4、6和3个残差块,每个残差块包含两个卷积和一个跳连,最后经过池化和全连接层,得到分类结果。
进一步地,本申请实施例可以利用目标识别网络的数据集对目标识别网络进行训练,并获得训练好的目标识别模型,首先,可以将前视图像和增强后的前视图像进行配对,并标注每组配对图像的类别,获得目标识别任务的数据集,将目标识别任务的数据集分为目标识别任务的训练集和目标识别任务的测试集,比例分别为80%和20%,然后将目标识别任务的训练集输入到目标识别网络进行训练,在每轮训练中,样本被分批送入网络,batchsize大小为32,这里选择交叉熵作为损失函数,选择自适应矩估计计算每个批次的下降方向,学习率初始化为0.001,并使用线性衰减法每两轮训练将学习率减少到原始学习率的一半,如果训练集上的损失在连续40轮训练内没有下降,则认为训练已经收敛,为了避免训练无法停止,最大训练轮数设定为200,最后,选择分类准确度作为衡量网络性能的指标,并保存在训练数据集上具有最佳性能的模型权重,从而得到训练好的目标识别模型。
综上,本申请实施例可以基于生成对抗网络的宽带前视成像雷达目标识别方法,引入复杂目标的几何结构特征,对前视图像进行图像增强,增强后的前视图像提高了目标识别的准确度。
根据本申请实施例提出的基于生成对抗网络的宽带前视成像雷达目标识别方法,可以建立配对的前视图像数据集,搭建基于生成对抗网络的图像增强网络,利用前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型并输入前视图像,以获得增强后的前视图像,搭建目标识别网络,利用前视图像、增强后的前视图像和类别信息对目标识别网络进行训练并获得目标识别模型,将前视图像和增强后的前视图像进行结合,以将结合后的图像输入到目标识别模型,获得任一前视图像的类别信息,从而有效的提升了前视图像的质量,提高了目标识别的准确性。由此,解决了相关技术中通过传统的图像增强方法无法对信息缺失严重的前视图像进行有效增强,适用性较低,且深度学习的图像增强方法生成的图像比较模糊,降低了目标识别的准确性的问题。
并且,如图9所示,图9为本申请实施例所提供的另一种基于生成对抗网络的宽带前视成像雷达目标识别方法的流程示意图。
如图9所示,该基于生成对抗网络的宽带前视成像雷达目标识别方法,应用于模型应用阶段,包括以下步骤:
在步骤S901中,获取任一前视图像;
可以理解的是,本申请实施例可以获取任一前视图像,例如,本申请实施例可以基于模型训练阶段获取任一前视图像,从而可以获取高质量的前视图像,并且增加目标识别的特征,保证了宽带前视成像雷达目标识别的可实现性。
在步骤S902中,将任一前视图像输入至训练好的图像增强模型,输出任一前视图像的增强后的前视图像。
可以理解的是,本申请实施例可以将上述步骤中的前视图像输入至训练好的图像增强模型,并输出前视图像的增强后的前视图像,有效的提升前视图像的质量。
在步骤S903中,将任一前视图像和增强后的前视图像进行结合,并将结合结果输入至训练好的目标识别模型,输出任一前视图像的类别信息。
可以理解的是,本申请实施例可以将任一前视图像和增强后的前视图像进行结合,并将结合结果输入至训练好的目标识别模型,即可以将目标识别任务的测试集输入至训练好的目标识别模型,并输出测试数据的的类别结果,从而提高了目标识别的准确度。
举例而言,如图10所示,为本申请一个具体实施例的基于生成对抗网络的宽带前视成像雷达目标识别的原理示意图。
首先,本申请实施例可以建立配对的前视图像数据集。
接着,本申请实施例可以搭建图像增强网络,利用配对的前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型。
其次,本申请实施例可以利用训练好的图像增强模型对前视图像进行增强,获得增强后的前视图像。
接着,本申请实施例可以准备目标识别网络的数据集,包括前视图像、增强后的前视图像以及类别信息。
再次,本申请实施例可以搭建目标识别网络,利用目标识别网络的数据集对目标识别网络进行训练,获得训练好的目标识别模型。
最后,本申请实施例可以利用训练好的目标识别模型对目标识别网络的数据集进行测试,获得目标的类别结果并统计分类准确度。
根据本申请实施例提出的基于生成对抗网络的宽带前视成像雷达目标识别方法,可以建立配对的前视图像数据集,搭建基于生成对抗网络的图像增强网络,利用前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型并输入前视图像,以获得增强后的前视图像,搭建目标识别网络,利用前视图像、增强后的前视图像和类别信息对目标识别网络进行训练并获得目标识别模型,将前视图像和增强后的前视图像进行结合,以将结合后的图像输入到目标识别模型,获得任一前视图像的类别信息,从而有效的提升了前视图像的质量,提高了目标识别的准确性。由此,解决了相关技术中通过传统的图像增强方法无法对信息缺失严重的前视图像进行有效增强,适用性较低,且深度学习的图像增强方法生成的图像比较模糊,降低了目标识别的准确性的问题。
其次参照附图描述根据本申请实施例提出的基于生成对抗网络的宽带前视成像雷达目标识别装置。
图11是本申请实施例的基于生成对抗网络的宽带前视成像雷达目标识别装置的方框示意图。
如图11所示,该基于生成对抗网络的宽带前视成像雷达目标识别装置10,应用于模型训练阶段,包括:建立模块100、第一获取模块200和第二获取模块300。
具体地,建立模块100,用于建立配对的前视图像数据集,前视图像数据集包括前视图像和目标的轮廓图。
第一获取模块200,用于搭建基于生成对抗网络的图像增强网络,利用前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型,将前视图像输入训练好的图像增强模型,获得增强后的前视图像。
第二获取模块300,用于搭建目标识别网络,利用前视图像、增强后的前视图像和类别信息对目标识别网络进行训练,获得训练好的目标识别模型,并将前视图像和增强后的前视图像进行结合,以将结合后的图像输入到训练好的目标识别模型,获得任一前视图像的类别信息。
可选地,在本申请的一个实施例中,建立模块100包括:第一获取单元、第二获取单元和第一生成单元。
其中,第一获取单元,用于获取多种目标不同姿态的轮廓图,以得到不同目标不同姿态的轮廓图。
第二获取单元,用于获取不同目标不同姿态的回波数据,并基于回波数据得到前视图像。
第一生成单元,用于对前视图像进行数据增强,以对前视图像中每个散射点添加位置误差和姿态误差,并与轮廓图进行配对,生成配对的前视图像数据集。
可选地,在本申请的一个实施例中,回波数据的表达式为:
其中,y(n,m)表示采集的第n个天线第m个频点的回波信号,P表示复杂目标中散射点的个数,γp、Rp和θp分别表示y(n,m)中第p个散射点的幅度、距离和方位,w(m,n)表示复高斯噪声,j表示虚数单位,fc+(m-1)Δf表示第m个观测频点,Δf表示频率间隔,fc表示初始频率,c表示光速,d表示阵列之间的间隔。
可选地,在本申请的一个实施例中,第一获取模块200包括:第二生成单元和第三获取单元。
其中,第二生成单元,用于搭建基于生成对抗网络的图像增强网络,生成对抗网络的图像增强网络包括生成器和判别器。
第三获取单元,用于以前视图像作为输入,以轮廓图作为监督,对图像增强网络进行训练,得到训练好的图像增强模型。
可选地,在本申请的一个实施例中,第二获取模块300包括:第四获取单元。
其中,第四获取单元,用于搭建目标识别网络,并以前视图像和增强后的前视图像进行结合,将结合结果作为输入,以类别信息为标签,对目标识别网络进行训练,获得训练好的目标识别模型。
需要说明的是,前述对基于生成对抗网络的宽带前视成像雷达目标识别方法实施例的解释说明也适用于该实施例的基于生成对抗网络的宽带前视成像雷达目标识别装置,此处不再赘述。
根据本申请实施例提出的基于生成对抗网络的宽带前视成像雷达目标识别装置,可以建立配对的前视图像数据集,搭建基于生成对抗网络的图像增强网络,利用前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型并输入前视图像,以获得增强后的前视图像,搭建目标识别网络,利用前视图像、增强后的前视图像和类别信息对目标识别网络进行训练并获得目标识别模型,将前视图像和增强后的前视图像进行结合,以将结合后的图像输入到目标识别模型,获得任一前视图像的类别信息,从而有效的提升了前视图像的质量,提高了目标识别的准确性。由此,解决了相关技术中通过传统的图像增强方法无法对信息缺失严重的前视图像进行有效增强,适用性较低,且深度学习的图像增强方法生成的图像比较模糊,降低了目标识别的准确性的问题。
并且,图12为本申请实施例提供的另一种基于生成对抗网络的宽带前视成像雷达目标识别装置的结构示意图。
如图12所示,该基于生成对抗网络的宽带前视成像雷达目标识别装置20,应用于模型应用阶段,包括:第三获取模块400、第一处理模块500和第二处理模块600。
具体地,第三获取模块400,用于获取任一前视图像。
第一处理模块500,用于将任一前视图像输入至训练好的图像增强模型,输出任一前视图像的增强后的前视图像。
第二处理模块600,用于将任一前视图像和增强后的前视图像进行结合,并将结合结果输入至训练好的目标识别模型,输出任一前视图像的类别信息。
需要说明的是,前述对基于生成对抗网络的宽带前视成像雷达目标识别方法实施例的解释说明也适用于该实施例的基于生成对抗网络的宽带前视成像雷达目标识别装置,此处不再赘述。
根据本申请实施例提出的基于生成对抗网络的宽带前视成像雷达目标识别装置,可以建立配对的前视图像数据集,搭建基于生成对抗网络的图像增强网络,利用前视图像数据集对图像增强网络进行训练,获得训练好的图像增强模型并输入前视图像,以获得增强后的前视图像,搭建目标识别网络,利用前视图像、增强后的前视图像和类别信息对目标识别网络进行训练并获得目标识别模型,将前视图像和增强后的前视图像进行结合,以将结合后的图像输入到目标识别模型,获得任一前视图像的类别信息,从而有效的提升了前视图像的质量,提高了目标识别的准确性。由此,解决了相关技术中通过传统的图像增强方法无法对信息缺失严重的前视图像进行有效增强,适用性较低,且深度学习的图像增强方法生成的图像比较模糊,降低了目标识别的准确性的问题。
图13为本申请实施例提供的电子设备的结构示意图。该电子设备可以包括:
存储器1301、处理器1302及存储在存储器1301上并可在处理器1302上运行的计算机程序。
处理器1302执行程序时实现上述实施例中提供的基于生成对抗网络的宽带前视成像雷达目标识别方法。
进一步地,电子设备还包括:
通信接口1303,用于存储器1301和处理器1302之间的通信。
存储器1301,用于存放可在处理器1302上运行的计算机程序。
存储器1301可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
如果存储器1301、处理器1302和通信接口1303独立实现,则通信接口1303、存储器1301和处理器1302可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(Industry Standard Architecture,简称为ISA)总线、外部设备互连(PeripheralComponent,简称为PCI)总线或扩展工业标准体系结构(Extended Industry StandardArchitecture,简称为EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图13中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选地,在具体实现上,如果存储器1301、处理器1302及通信接口1303,集成在一块芯片上实现,则存储器1301、处理器1302及通信接口1303可以通过内部接口完成相互间的通信。
处理器1302可能是一个中央处理器(Central Processing Unit,简称为CPU),或者是特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路。
本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上的基于生成对抗网络的宽带前视成像雷达目标识别方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或N个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“N个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或N个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或N个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,N个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (4)
1.一种基于生成对抗网络的宽带前视成像雷达目标识别方法,其特征在于,包括以下步骤:
建立配对的前视图像数据集,所述前视图像数据集包括前视图像和目标的轮廓图,其中,所述建立配对的前视图像数据集包括:获取多种目标不同姿态的轮廓图,以得到不同目标不同姿态的所述轮廓图,获取所述不同目标不同姿态的回波数据,并基于所述回波数据得到所述前视图像,对所述前视图像进行数据增强,以对所述前视图像中每个散射点添加位置误差和姿态误差,并与所述轮廓图进行配对,生成所述配对的前视图像数据集,其中,所述回波数据的表达式为:
,
其中,表示采集的第/>个天线第/>个频点的回波信号,/>表示复杂目标中散射点的个数,/>分别表示/>中第/>个散射点的幅度、距离和方位,/>表示复高斯噪声,j表示虚数单位,/>表示第/>个观测频点,/>表示频率间隔,/>表示初始频率,c表示光速,d表示阵列之间的间隔;
搭建基于生成对抗网络的图像增强网络,所述生成对抗网络的图像增强网络包括生成器和判别器,以所述前视图像数据集中的所述前视图像作为输入,以所述前视图像数据集中的所述轮廓图作为监督,对所述图像增强网络进行训练,得到训练好的图像增强模型,将所述前视图像输入所述训练好的图像增强模型,获得增强后的前视图像,其中,将的损失与GAN的损失结合,得到最终的图像增强网络的目标函数,利用所述最终的图像增强网络的目标函数表示所述生成对抗网络的图像增强网络,所述最终的图像增强网络的目标函数表示为:
,
其中,表示生成器,/>表示判别器,/>表示图像增强网络的目标函数,/>表示超参数;
所述表示为:
,
其中,表示生成器,/>表示判别器,/>表示前视图像,/>表示目标的轮廓,/>表示生成对抗网络GAN的损失;
所述损失表示为:
;以及
搭建目标识别网络,并以所述前视图像和所述增强后的前视图像进行结合,将结合结果作为输入,以类别信息为标签,对所述目标识别网络进行训练,获得训练好的目标识别模型,并获取任一前视图像,将所述任一前视图像输入至所述训练好的图像增强模型,输出所述任一前视图像的增强后的前视图像,将所述任一前视图像和所述增强后的前视图像进行结合,以将结合后的图像输入到所述训练好的目标识别模型,输出所述任一前视图像的类别信息。
2.一种基于生成对抗网络的宽带前视成像雷达目标识别装置,其特征在于,包括:
建立模块,用于建立配对的前视图像数据集,所述前视图像数据集包括前视图像和目标的轮廓图,其中,所述建立配对的前视图像数据集包括:获取多种目标不同姿态的轮廓图,以得到不同目标不同姿态的所述轮廓图,获取所述不同目标不同姿态的回波数据,并基于所述回波数据得到所述前视图像,对所述前视图像进行数据增强,以对所述前视图像中每个散射点添加位置误差和姿态误差,并与所述轮廓图进行配对,生成所述配对的前视图像数据集,其中,所述回波数据的表达式为:
,
其中,表示采集的第/>个天线第/>个频点的回波信号,/>表示复杂目标中散射点的个数,/>分别表示/>中第/>个散射点的幅度、距离和方位,/>表示复高斯噪声,j表示虚数单位,/>表示第/>个观测频点,/>表示频率间隔,/>表示初始频率,c表示光速,d表示阵列之间的间隔;
第一获取模块,用于搭建基于生成对抗网络的图像增强网络,所述生成对抗网络的图像增强网络包括生成器和判别器,以所述前视图像数据集中的所述前视图像作为输入,以所述前视图像数据集中的所述轮廓图作为监督,对所述图像增强网络进行训练,得到训练好的图像增强模型,将所述前视图像输入所述训练好的图像增强模型,获得增强后的前视图像,其中,将的损失与GAN的损失结合,得到最终的图像增强网络的目标函数,利用所述最终的图像增强网络的目标函数表示所述生成对抗网络的图像增强网络,所述最终的图像增强网络的目标函数表示为:
,
其中,表示生成器,/>表示判别器,/>表示图像增强网络的目标函数,/>表示超参数;
所述表示为:
,
其中,表示生成器,/>表示判别器,/>表示前视图像,/>表示目标的轮廓,/>表示生成对抗网络GAN的损失;
所述损失表示为:
;以及
第二获取模块,用于搭建目标识别网络,并以所述前视图像和所述增强后的前视图像进行结合,将结合结果作为输入,以类别信息为标签,对所述目标识别网络进行训练,获得训练好的目标识别模型,并获取任一前视图像,将所述任一前视图像输入至所述训练好的图像增强模型,输出所述任一前视图像的增强后的前视图像,将所述任一前视图像和所述增强后的前视图像进行结合,以将结合后的图像输入到所述训练好的目标识别模型,输出所述任一前视图像的类别信息。
3.一种电子设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如权利要求1所述的基于生成对抗网络的宽带前视成像雷达目标识别方法。
4.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行,以用于实现如权利要求1所述的基于生成对抗网络的宽带前视成像雷达目标识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310761844.7A CN116758261B (zh) | 2023-06-26 | 2023-06-26 | 基于生成对抗网络的宽带前视成像雷达目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310761844.7A CN116758261B (zh) | 2023-06-26 | 2023-06-26 | 基于生成对抗网络的宽带前视成像雷达目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116758261A CN116758261A (zh) | 2023-09-15 |
CN116758261B true CN116758261B (zh) | 2024-06-11 |
Family
ID=87956822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310761844.7A Active CN116758261B (zh) | 2023-06-26 | 2023-06-26 | 基于生成对抗网络的宽带前视成像雷达目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116758261B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179219A (zh) * | 2019-12-09 | 2020-05-19 | 中国科学院深圳先进技术研究院 | 一种基于生成对抗网络的copy-move伪造检测方法 |
CN113688941A (zh) * | 2021-09-09 | 2021-11-23 | 西北工业大学 | 基于生成对抗网络的小样本声呐图像分类识别优化方法 |
CN114359667A (zh) * | 2021-12-30 | 2022-04-15 | 西安交通大学 | 一种基于生成式对抗网络的强度相干识别方法及设备 |
CN114429156A (zh) * | 2022-01-21 | 2022-05-03 | 西安电子科技大学 | 雷达干扰多域特征对抗学习与检测识别方法 |
CN116091885A (zh) * | 2022-11-28 | 2023-05-09 | 长春工业大学 | 一种基于rau-gan的肺结节数据增强方法 |
CN116205820A (zh) * | 2023-03-28 | 2023-06-02 | 苏州科达科技股份有限公司 | 图像增强方法、目标识别方法、设备及介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11580646B2 (en) * | 2021-03-26 | 2023-02-14 | Nanjing University Of Posts And Telecommunications | Medical image segmentation method based on U-Net |
-
2023
- 2023-06-26 CN CN202310761844.7A patent/CN116758261B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179219A (zh) * | 2019-12-09 | 2020-05-19 | 中国科学院深圳先进技术研究院 | 一种基于生成对抗网络的copy-move伪造检测方法 |
CN113688941A (zh) * | 2021-09-09 | 2021-11-23 | 西北工业大学 | 基于生成对抗网络的小样本声呐图像分类识别优化方法 |
CN114359667A (zh) * | 2021-12-30 | 2022-04-15 | 西安交通大学 | 一种基于生成式对抗网络的强度相干识别方法及设备 |
CN114429156A (zh) * | 2022-01-21 | 2022-05-03 | 西安电子科技大学 | 雷达干扰多域特征对抗学习与检测识别方法 |
CN116091885A (zh) * | 2022-11-28 | 2023-05-09 | 长春工业大学 | 一种基于rau-gan的肺结节数据增强方法 |
CN116205820A (zh) * | 2023-03-28 | 2023-06-02 | 苏州科达科技股份有限公司 | 图像增强方法、目标识别方法、设备及介质 |
Non-Patent Citations (2)
Title |
---|
"基于生成对抗神经网络的雷达遥感数据增广方法";康旭;《系统仿真学报》;20220430;第1-8页 * |
"Sonar Image Translation Using Generative Adversarial Network for Underwater Object Recognition";Sung, Minsung;《2019 IEEE Underwater Technology》;20191231;第1-6页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116758261A (zh) | 2023-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Brodeski et al. | Deep radar detector | |
CN110472627B (zh) | 一种端到端的sar图像识别方法、装置及存储介质 | |
Ding et al. | Video SAR moving target indication using deep neural network | |
CN108765458B (zh) | 基于相关滤波的高海况无人艇海面目标尺度自适应跟踪方法 | |
CN111521989A (zh) | 用于雷达系统中的超分辨率的深度学习 | |
CN105487061B (zh) | 目标数据关联的多特征信息融合方法 | |
Armanious et al. | An adversarial super-resolution remedy for radar design trade-offs | |
CN109557533B (zh) | 一种基于模型的联合跟踪与识别方法 | |
CN113534065B (zh) | 一种雷达目标微动特征提取与智能分类方法及系统 | |
US20220214441A1 (en) | Methods and System for Compressing Radar Data | |
Nuhoglu et al. | Image segmentation for radar signal deinterleaving using deep learning | |
CN110728706A (zh) | 基于深度学习的sar图像精细配准方法 | |
JP2020507767A (ja) | 車両レーダシステム用の逆合成開口レーダ | |
CN114708257B (zh) | Sar运动舰船目标检测方法及装置 | |
Pengcheng et al. | Radar group target recognition based on HRRPs and weighted mean shift clustering | |
Zhou et al. | ISAR images generation via generative adversarial networks | |
CN112689773B (zh) | 雷达信号处理方法和雷达信号处理装置 | |
CN116758261B (zh) | 基于生成对抗网络的宽带前视成像雷达目标识别方法 | |
Kim et al. | Deep-learning based multi-object detection and tracking using range-angle map in automotive radar systems | |
Wang et al. | Collaborative compressive radar imaging with saliency priors | |
CN114445456B (zh) | 基于部分模型的数据驱动智能机动目标跟踪方法及装置 | |
Shreyamsha Kumar et al. | Target identification using harmonic wavelet based ISAR imaging | |
CN112183534A (zh) | 基于视频合成孔径雷达的动目标智能联合检测方法 | |
CN113640793A (zh) | 基于mrf的实孔径扫描雷达超分辨成像方法 | |
CN112147592A (zh) | 多视目标识别方法、装置、控制设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |