CN114609631A - 一种基于生成对抗网络的合成孔径雷达欠采样成像方法 - Google Patents
一种基于生成对抗网络的合成孔径雷达欠采样成像方法 Download PDFInfo
- Publication number
- CN114609631A CN114609631A CN202210227542.7A CN202210227542A CN114609631A CN 114609631 A CN114609631 A CN 114609631A CN 202210227542 A CN202210227542 A CN 202210227542A CN 114609631 A CN114609631 A CN 114609631A
- Authority
- CN
- China
- Prior art keywords
- network
- undersampling
- training
- sar
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims description 44
- 238000005070 sampling Methods 0.000 claims description 17
- 230000008602 contraction Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 abstract description 8
- 230000001629 suppression Effects 0.000 abstract description 3
- 238000004321 preservation Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 16
- 238000012360 testing method Methods 0.000 description 9
- 238000004088 simulation Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9004—SAR image acquisition techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于生成对抗网络的合成孔径雷达欠采样成像方法,应用于雷达技术领域,针对基于卷积神经网络(CNN)的SAR欠采样成像方法对复杂背景目标方位模糊抑制性能差、以及对原始图像细节保留不够完整和准确等问题,本发明将SAR信号处理与生成对抗网络(GAN)相结合,生成网络的代价函数Cost Function选取为L1‑范数,判别网络的代价函数Cost Function选取为二元交叉熵函数;GAN网络通过L1‑范数感知图像的低频信息,通过判别网络感知图像的高频信息;采用本发明的方法能够有效提高对复杂背景的SAR欠采样成像质量。
Description
技术领域
本发明属于雷达技术领域,特别涉及一种合成孔径雷达(简称:SAR)在欠采样下的成像技术。
背景技术
合成孔径雷达(Synthetic Aperture Radar,SAR)一般工作于机载及星载平台,它属于一种高分辨微波成像系统并且具有全天候、全天时工作的优点,它广泛应用于海上安全领域,比如船只检测和监视等。但是实际雷达系统自身PRF的有限性以及非理想的天线方向图会导致SAR成像方法中存在着不可避免的方位模糊问题,而在欠采样情况下该问题会更加凸显。
目前已公开发表的文献中,SAR欠采样成像方位模糊抑制方法中有代表性的方法主要有基于卷积神经网络(Convolutional Neural Networks,CNN)的方法(参考文献1:Liu.Z,Wu.N,X.Liao,“SAR Image Restoration From Spectrum Aliasing by DeepLearning”,IEEE Access,vol.99,pp.1-1,2020)。此方法虽然能提升成像结果的分辨率、在无复杂背景的场景下抑制方位模糊引起的虚影,但是上述方法存在一些问题,比如处理背景复杂场景时,方位模糊不能很好地抑制,同时复杂背景的细节保留不能达到很好的完整性和准确性。
发明内容
为解决基于卷积神经网络(CNN)的SAR欠采样成像方法对复杂背景目标方位模糊抑制性能差、以及对原始图像细节保留不够完整和准确等问题,本发明提出了一种基于生成对抗网络(Generative Adversarial Networks,简称:GAN)方法的SAR欠采样成像方法,在有效提高成像质量的基础上,对细节的保留更完整、准确。
本发明采用的技术方案为:一种基于生成对抗网络的合成孔径雷达欠采样成像方法,包括:
S1、生成训练数据集,训练数据集中包括若干数据对,每个数据对包括在S-SAR模式下对回波数据非均匀采样成像得到的欠采样图像与在S-SAR模式下对回波数据均匀采样成像得到的期望图像;
S2、对GAN网络进行训练,具体的:将训练数据集中的欠采样图像作为GAN网络中生成网络的输入,将训练数据集中的期望图像作为判别网络的输入,所述判别网络的输入还包括生成网络的输出;
S3、将待处理数据输入经步骤S2训练完成的GAN网络中的生成网络,生成网络的输出即为最终处理完成的成像结果。这里的待处理数据为在S-SAR模式下对回波数据非均匀采样成像得到的欠采样图像。
GAN网络中的生成网络采用U型神经网络,所述U型神经网络的收缩路径上每一层增加一个残差跳跃连接,用于将收缩路径上每一层最后一个卷积输出与其前一个卷积输出拼接。
GAN网络中的判别网络采用马尔科夫判别器。
在训练时,生成网络的代价函数选取为L1-范数,表达式为:
LL1=E[||x-G(z)||]
其中,LL1表示生成网络代价函数,x是训练集中期望图像,z是训练集中欠采样图像,G(z)是z输入生成网络后的训练结果。
在训练时,判别网络的代价函数选取为二元交叉熵函数,其表达式为
LBCE=-[x·logG(z)+(1-x)·log(1-G(z))].
其中,LBCE指的是判别网络代价函数。
GAN网络的目标函数表达式为
G*=arg minG maxD V(D,G)+λLL1(G)
其中,G*表示目标函数,LL1(G)表示生成网络的L1损失。
本发明的有益效果:本发明方法的关键在于生成合适的训练数据集进行网络训练,实现SAR欠采样成像;本发明的优点在于将SAR信号处理与生成对抗网络(GAN)相结合,提高对复杂背景的SAR欠采样成像质量。与基于卷积神经网络(CNN)的SAR欠采样成像方法相比,本发明的方法不仅能够有效去除SAR欠采样成像中的方位模糊,而且还可以更完整和更准确地保留原始场景的细节,提高成像质量。
附图说明
图1为本发明的方案流程图;
图2为GAN网络整体结构;
图3为生成网络结构;
图4为判别网络结构;
图5为本发明实施例提供的复杂背景下Unet和GAN欠采样成像对比。
具体实施方式
为便于本领域技术人员理解本发明的技术内容,首先给出以下技术术语的定义:
定义1、GAN网络
GAN网络结构如图2所示,包括生成网络、判别网络。
GAN网络数学模型为
其中,x是训练集中无模糊图像数据,z是训练集中有模糊图像数据,G表示生成网络,D表示判别网络,G(z)是z输入生成网络后的训练结果,D(x)是x输入判别网络后的输出结果,D(G(z))是G(z)输入判别网络后的输出结果。判别网络会为真实图像赋予标签“1”,对生成图像赋予标签“0”。而生成网络则试图让判别网络将生成图像“误判”为“1”。生成对抗网络通过这样的极大极小(Max-Min)博弈来交替地分别优化生成网络G和判别网络D,直到两者达到纳什均衡点。
本发明主要采用仿真实验的方法进行验证该方案的可行性,所有步骤、结论都在MATLAB R2018b上验证正确。如图1所示具体实施步骤如下:
步骤1、初始化参数
初始化后续步骤所需的雷达参数,包括:生成欠采样图像对应的脉冲重复频率(PRF,pulse repetition frequency),记作PRFsub;正常采样下的脉冲重复频率,记作PRFnormal;雷达的方位调频率,记作Ka;雷达系统发射的脉冲波长,记作λ;雷达系统发射的脉冲时宽,记作Tr;雷达系统发射的信号带宽,记作B;雷达系统的距离采样率,记作Fr;雷达的合成孔径时间,记作Tsar;雷达平台运动的有效速度,记作Vr;雷达平台的初始位置坐标,记作P0;场景参考点坐标,记作Pcenter;雷达系统的距离向采样点数,记作Nr;雷达系统的方位向采样点数,记作Na;光速记作c;
本实施例中涉及到的参数取值如表1所示:
表1仿真参数列表
雷达参数 | 符号 | 值 | 单位 |
发射脉冲时宽 | T<sub>r</sub> | 41.75 | μs |
距离采样率 | F<sub>r</sub> | 32.317 | MHz |
雷达有效速度 | V<sub>r</sub> | 7062 | m/s |
雷达工作波长 | λ | 0.057 | m |
方位调频率 | K<sub>a</sub> | 1733 | Hz/s |
合成孔径时间 | T<sub>sar</sub> | 6.5956 | ms |
正常采样方位采样率 | PRF<sub>normal</sub> | 1256.98 | Hz |
欠采样方位采样率 | PRF<sub>sub</sub> | 75 | Hz |
距离向采样时间间隔 | ΔT | 0.031 | μs |
方位向采样时间间隔 | ΔA | 0.080 | μs |
中心频率 | f<sub>0</sub> | 5300 | MHz |
多普勒中心频率 | f<sub>DOP</sub> | -6900 | Hz |
步骤2、生成训练数据
以PRFnormal及其它所需参数构成雷达参数集para_setnormal,以PRFsub及其它所需参数构成雷达参数集para_setsub。得到的两组雷达参数para_setnormal和para_setsub之间仅有PRF不同,我们需要处理的测试数据所用参数为para_setsub。训练数据集选取200组,其中每组由一对数据组成,分别是由基于para_setnormal和para_setsub仿真后生成的雷达回波再经ωKA算法成像得到的数据矩阵;
本实施例中依据表1中提供的雷达参数生成训练和测试数据集,多个训练数据集的设置如下:
训练数据集由1024*256的陆地场景、1024*256海洋场景区域各随机截取的100个512*256的训练对组成。每个训练对包括在S-SAR模式下对回波数据非均匀采样成像得到的欠采样图像z,以及在SAR模式下对回波数据均匀采样成像得到的期望图像x。本领域的技术人员应知这里S-SAR具体为Sub-SAR,表示欠采样模式的SAR成像。
测试数据集的设置如下:
测试数据集由512*256的半海洋半陆地场景在S-SAR模式下对回波数据非均匀采样成像得到的欠采样图像组成。
步骤3、训练GAN网络
生成对抗网络由生成网络和判别网络组成。生成网络采用U型神经网络,为了更好保留原始图像的背景信息,在现有已知的U型网络基础上,对U型网络的收缩路径上的每一层增加一个残差跳跃连接,如图3所示,具体的在U型网络收缩路径每一层最后一个卷积处增加一个残差跳跃连接,用于将前一个卷积的输出与最后一个卷积的输出进行拼接,图3中的m表示最后一个卷积的前一个卷积的输出;
为了提高判别网络对图像高频信息的敏感度,如图4所示,选取马尔科夫判别器作为判别网络;马尔科夫判别器为本领域的现有已知技术,本发明此处对于马尔科夫判别器的结构不做详细说明。
设置所需的网络训练参数并选取合适的代价函数。将步骤2得到的训练数据集para_setsub输入生成网络,将训练数据集para_setnormal输入判别网络,并进行训练;
训练过程中,生成网络的代价函数Cost Function选取为L1-范数,判别网络的代价函数Cost Function选取为二元交叉熵函数。
损失函数表达式为
Lcost=LBCE+LL1
其中,LL1指的是生成网络代价函数,其表达式为
LL1=E[||x-G(z)||],
LBCE指的是判别网络代价函数,其表达式为
LBCE=-[x·log G(z)+(1-x)·log(1-G(z))].
GAN网络的目标函数表达式为
G*=arg minG maxDV(D,G)+λLL1(G)
其中,LL1(G)表示生成网络的L1损失,系数λ取为100。
GAN网络通过L1-范数感知图像的低频信息,通过判别网络感知图像的高频信息。整个GAN网络的训练参数设置如表2所示。将步骤2得到的训练数据集para_setsub输入生成网络,将训练数据集para_setnormal输入判别网络,进行训练后得到训练好的生成网络和判别网络;
表2 GAN网络的训练参数设置列表
步骤4、将测试数据输入训练好的生成网络得到最终的结果
将测试数据输入由步骤3训练得到的生成网络中,生成网络的输出即为所需要的结果。
经过上述步骤处理,基于GAN网络的SAR成像方位模糊去除工作得以完成。通过测试数据验证上述方法的有效性和普遍性。
表3为在带有复杂背景的场景中,本发明背景技术中所提到的Unet网络和GAN网络SAR欠采样成像结果。
表3 GAN网络和Unet性能对比
Method | rMSE(dB) | ATR(dB) |
Original | 6.9800 | -13.5750 |
U-net | 5.6191 | -15.9267 |
GAN | -0.3369 | -28.0318 |
图5为复杂背景的场景中Unet网络和GAN网络的去模糊性能以及重建性能的对比,从左到右依次为欠采样成像、正常采样成像、Unet处理结果、GAN网络处理结果。
从表3和图5中可以得出,相比于背景技术中的Unet网络,将欠采样图作为测试数据输入训练好的GAN生成网络后,该网络可以更好地提升复杂背景中目标的成像性能,使其接近于正常采样情况,而且也有效去除了方位模糊。测试结果说明,与Unet网络相比,本发明的GAN网络对rMSE和ATR有较大提升。因此,本发明提出的方法能够有效去除SAR成像中的方位模糊,同时对原始场景中的复杂背景细节保留地更完整和准确。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
Claims (6)
1.一种基于生成对抗网络的合成孔径雷达欠采样成像方法,其特征在于,包括:
S1、生成训练数据集,训练数据集中包括若干数据对,每个数据对包括在S-SAR模式下对回波数据非均匀采样成像得到的欠采样图像与在SAR模式下对回波数据均匀采样成像得到的期望图像;
S2、对GAN网络进行训练,具体的:将训练数据集中的欠采样图像作为GAN网络中生成网络的输入,将训练数据集中的期望图像作为判别网络的输入,所述判别网络的输入还包括生成网络的输出;
S3、将待处理数据输入经步骤S2训练完成的GAN网络中的生成网络,生成网络的输出即为最终处理完成的成像结果。
2.根据权利要求1所述的一种基于生成对抗网络的合成孔径雷达欠采样成像方法,其特征在于,GAN网络中的生成网络采用U型神经网络,所述U型神经网络的收缩路径上每一层增加一个残差跳跃连接,用于将收缩路径上每一层最后一个卷积输出与其前一个卷积输出拼接。
3.根据权利要求2所述的一种基于生成对抗网络的合成孔径雷达欠采样成像方法,其特征在于,GAN网络中的判别网络采用马尔科夫判别器。
4.根据权利要求2所述的一种基于生成对抗网络的合成孔径雷达欠采样成像方法,其特征在于,在训练时,生成网络的代价函数选取为L1-范数,表达式为:
LL1=E[||x-G(z)||]
其中,LL1表示生成网络代价函数,x是训练集中期望图像,z是训练集中欠采样图像,G(z)是z输入生成网络后的训练结果。
5.根据权利要求4所述的一种基于生成对抗网络的合成孔径雷达欠采样成像方法,其特征在于,在训练时,判别网络的代价函数选取为二元交叉熵函数,其表达式为
LBCE=-[x·logG(z)+(1-x)·log(1-G(z))].
其中,LBCE指的是判别网络代价函数。
6.根据权利要求4所述的一种基于生成对抗网络的合成孔径雷达欠采样成像方法,其特征在于,GAN网络的目标函数表达式为
G*=argminGmaxDV(D,G)+λLL1(G)
其中,G*表示目标函数,LL1(G)表示生成网络的L1损失。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210227542.7A CN114609631B (zh) | 2022-03-08 | 2022-03-08 | 一种基于生成对抗网络的合成孔径雷达欠采样成像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210227542.7A CN114609631B (zh) | 2022-03-08 | 2022-03-08 | 一种基于生成对抗网络的合成孔径雷达欠采样成像方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114609631A true CN114609631A (zh) | 2022-06-10 |
CN114609631B CN114609631B (zh) | 2023-12-22 |
Family
ID=81861105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210227542.7A Active CN114609631B (zh) | 2022-03-08 | 2022-03-08 | 一种基于生成对抗网络的合成孔径雷达欠采样成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114609631B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180177461A1 (en) * | 2016-12-22 | 2018-06-28 | The Johns Hopkins University | Machine learning approach to beamforming |
CN108492258A (zh) * | 2018-01-17 | 2018-09-04 | 天津大学 | 一种基于生成对抗网络的雷达图像去噪方法 |
CN109669184A (zh) * | 2019-02-25 | 2019-04-23 | 电子科技大学 | 一种基于全卷积网络的合成孔径雷达方位模糊消除方法 |
CN109886273A (zh) * | 2019-02-26 | 2019-06-14 | 四川大学华西医院 | 一种cmr图像分割分类系统 |
CN110223259A (zh) * | 2019-06-14 | 2019-09-10 | 华北电力大学(保定) | 一种基于生成式对抗网络的道路交通模糊图像增强方法 |
CN111028306A (zh) * | 2019-11-06 | 2020-04-17 | 杭州电子科技大学 | 基于AR2 U-Net神经网络的快速磁共振成像方法 |
CN111077523A (zh) * | 2019-12-13 | 2020-04-28 | 南京航空航天大学 | 一种基于生成对抗网络的逆合成孔径雷达成像方法 |
CN111398955A (zh) * | 2020-03-13 | 2020-07-10 | 中国科学院电子学研究所苏州研究院 | 一种基于生成对抗神经网络的sar图像去旁瓣方法 |
CN111640128A (zh) * | 2020-05-29 | 2020-09-08 | 哈尔滨理工大学 | 一种基于U-Net网络的细胞图像分割方法 |
CN111833352A (zh) * | 2020-06-28 | 2020-10-27 | 杭州电子科技大学 | 一种基于八度卷积改进U-net网络的图像分割方法 |
CN111999731A (zh) * | 2020-08-26 | 2020-11-27 | 合肥工业大学 | 一种基于感知生成对抗网络的电磁逆散射成像方法 |
CN112801900A (zh) * | 2021-01-21 | 2021-05-14 | 北京航空航天大学 | 一种基于双向循环卷积生成对抗网络的视频模糊去除方法 |
-
2022
- 2022-03-08 CN CN202210227542.7A patent/CN114609631B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180177461A1 (en) * | 2016-12-22 | 2018-06-28 | The Johns Hopkins University | Machine learning approach to beamforming |
CN108492258A (zh) * | 2018-01-17 | 2018-09-04 | 天津大学 | 一种基于生成对抗网络的雷达图像去噪方法 |
CN109669184A (zh) * | 2019-02-25 | 2019-04-23 | 电子科技大学 | 一种基于全卷积网络的合成孔径雷达方位模糊消除方法 |
CN109886273A (zh) * | 2019-02-26 | 2019-06-14 | 四川大学华西医院 | 一种cmr图像分割分类系统 |
CN110223259A (zh) * | 2019-06-14 | 2019-09-10 | 华北电力大学(保定) | 一种基于生成式对抗网络的道路交通模糊图像增强方法 |
CN111028306A (zh) * | 2019-11-06 | 2020-04-17 | 杭州电子科技大学 | 基于AR2 U-Net神经网络的快速磁共振成像方法 |
CN111077523A (zh) * | 2019-12-13 | 2020-04-28 | 南京航空航天大学 | 一种基于生成对抗网络的逆合成孔径雷达成像方法 |
CN111398955A (zh) * | 2020-03-13 | 2020-07-10 | 中国科学院电子学研究所苏州研究院 | 一种基于生成对抗神经网络的sar图像去旁瓣方法 |
CN111640128A (zh) * | 2020-05-29 | 2020-09-08 | 哈尔滨理工大学 | 一种基于U-Net网络的细胞图像分割方法 |
CN111833352A (zh) * | 2020-06-28 | 2020-10-27 | 杭州电子科技大学 | 一种基于八度卷积改进U-net网络的图像分割方法 |
CN111999731A (zh) * | 2020-08-26 | 2020-11-27 | 合肥工业大学 | 一种基于感知生成对抗网络的电磁逆散射成像方法 |
CN112801900A (zh) * | 2021-01-21 | 2021-05-14 | 北京航空航天大学 | 一种基于双向循环卷积生成对抗网络的视频模糊去除方法 |
Non-Patent Citations (4)
Title |
---|
OLAF RONNEBERGER 等: ""U-Net: Convolutional Networks for Biomedical Image Segmentation"", 《WWW HOME PAGE: HTTP://LMB.INFORMATIK.UNI-FREIBURG.DE/》, pages 1 - 8 * |
YAN ZOU 等: ""Super-resolution reconstruction of infrared images based on a convolutional neural network with skip connections"", 《OPTICS AND LASERS IN ENGINEERING》, pages 1 - 9 * |
孙劲光 等: ""属性一致的物体轮廓划分模型"", 《电子与信息学报》, vol. 43, no. 10, pages 1 - 8 * |
残云墨雪: ""U-net网络详解"", 《HTTPS://BLOG.CSDN.NET/MY201558503128/ARTICLE/DETAILS/103441541》, pages 1 - 2 * |
Also Published As
Publication number | Publication date |
---|---|
CN114609631B (zh) | 2023-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110275166B (zh) | 基于admm的快速稀疏孔径isar自聚焦与成像方法 | |
CN108051812B (zh) | 基于二维速度搜索的星载sar运动目标检测方法 | |
CN106353732B (zh) | 一种基于认知的机载雷达异构杂波抑制方法 | |
Chen et al. | Measurement matrix optimization for ISAR sparse imaging based on genetic algorithm | |
CN109669184B (zh) | 一种基于全卷积网络的合成孔径雷达方位模糊消除方法 | |
CN109709552B (zh) | 一种低信噪比isar成像运动补偿方法 | |
CN113655478B (zh) | 一种成像方法及装置 | |
CN110726992A (zh) | 基于结构稀疏和熵联合约束的sa-isar自聚焦法 | |
Bhatti et al. | Radar signals intrapulse modulation recognition using phase-based stft and bilstm | |
CN110879391A (zh) | 基于电磁仿真和弹载回波仿真的雷达图像数据集制作方法 | |
CN113406577B (zh) | 一种无人机载雷达主瓣干扰抑制方法、装置及存储介质 | |
CN108845318B (zh) | 基于Relax算法的星载高分宽幅成像方法 | |
CN112881986B (zh) | 基于优化深度模型的雷达切片存储转发式干扰抑制方法 | |
CN116520256B (zh) | 一种基于深度学习的机载预警雷达干扰识别方法和装置 | |
CN116908848B (zh) | 一种低过采Staggered SAR成像方法及系统 | |
CN114609631A (zh) | 一种基于生成对抗网络的合成孔径雷达欠采样成像方法 | |
CN115825953B (zh) | 一种基于随机频率编码信号的前视超分辨成像方法 | |
CN117590339A (zh) | 一种杂波干扰的抑制方法、系统、设备及介质 | |
CN116400303B (zh) | 一种脉内联合脉间时域编码抗isrj的波形设计方法 | |
CN115079175A (zh) | 一种基于SE-Unet的合成孔径雷达欠采样成像方法 | |
CN113359131A (zh) | 一种sar低截获射频隐身系统及其设计方法 | |
CN112835006A (zh) | 一种基于帧间积累的跟踪雷达海上小目标检测方法及系统 | |
Jiang et al. | Translational Motion Compensation Method for ISAR Imaging of Air Maneuvering Weak Targets Based on CV-GRUNet | |
CN113406578B (zh) | 分布式无人机载雷达目标检测方法、装置及存储介质 | |
CN110109097B (zh) | 一种扫描雷达前视成像方位超分辨方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |