CN114092520B - 基于生成对抗网络的地面运动目标重聚焦方法及系统 - Google Patents

基于生成对抗网络的地面运动目标重聚焦方法及系统 Download PDF

Info

Publication number
CN114092520B
CN114092520B CN202111398967.6A CN202111398967A CN114092520B CN 114092520 B CN114092520 B CN 114092520B CN 202111398967 A CN202111398967 A CN 202111398967A CN 114092520 B CN114092520 B CN 114092520B
Authority
CN
China
Prior art keywords
network
image
generating
moving target
layers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111398967.6A
Other languages
English (en)
Other versions
CN114092520A (zh
Inventor
钱江
唐文
叶鑫
王航伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Yangtze River Delta Research Institute of UESTC Huzhou
Original Assignee
University of Electronic Science and Technology of China
Yangtze River Delta Research Institute of UESTC Huzhou
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China, Yangtze River Delta Research Institute of UESTC Huzhou filed Critical University of Electronic Science and Technology of China
Priority to CN202111398967.6A priority Critical patent/CN114092520B/zh
Publication of CN114092520A publication Critical patent/CN114092520A/zh
Priority to US17/989,453 priority patent/US20230162373A1/en
Application granted granted Critical
Publication of CN114092520B publication Critical patent/CN114092520B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9029SAR image post-processing techniques specially adapted for moving target detection within a single SAR image or within multiple SAR images taken at the same time
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开一种本发明提供的基于生成对抗网络的地面运动目标重聚焦方法及系统,通过距离多普勒成像算法生成训练样本;在散焦的运动目标中心位置生成理想高斯点标签图像;然后利用生成对抗网络,产生与标签图像接近的生成图像;通过判别网络得到判断结果,并将判别结果返回给生成网络,直到生成网络的输出到达预设条件;利用训练后的网络模型中,得到动目标聚焦的输出图像。该方法与传统的SAR动目标成像算法相比,可以直接将多个散焦的运动目标同时处理为聚焦良好的目标。传统的SAR数据处理方法,消除噪声和目标聚焦都是需要分别进行。本方法通过网络训练可以实现在消除噪声的同时完成动目标的重聚焦,一次实现两种功能。

Description

基于生成对抗网络的地面运动目标重聚焦方法及系统
技术领域
本发明涉及运动目标聚焦技术领域,特别是一种基于生成对抗网络的地面运动目标重聚焦方法及系统。
背景技术
为了实现合成孔径雷达(Synthetic Aperture Radar,SAR)图像中地面运动目标的聚焦,传统做法是通过对目标的运动参数进行估计,通过估计得到的距离向速度来完成目标的距离徙动校正,估计得到的方位向速度来构造方位匹配滤波函数,完成动目标聚焦。
传统的动目标成像算法需要对每一个运动目标的参数都进行估计,然后再进行聚焦处理。当有多个运动目标且每个目标的速度不同时,需要分别处理这些目标,过程较繁琐。
发明内容
有鉴于此,本发明的目的在于提供一种基于生成对抗网络的地面运动目标重聚焦方法及系统,该方法利用生成对抗网络对SAR图像中散焦运动目标实现重聚焦。
为达到上述目的,本发明提供如下技术方案:
本发明提供的基于生成对抗网络的地面运动目标重聚焦方法,包括以下步骤:
通过距离多普勒成像算法生成二维散焦运动目标图像,用于作为训练样本;在散焦的运动目标中心位置生成理想高斯点,用于作为标签图像;
构建生成对抗网络,所述生成对抗网络包括生成网络和判别网络;
所述生成网络的训练样本为二维散焦运动目标图像,用于产生与标签图像接近的生成图像;
将生成图像和标签图像输入判别网络,并将判别结果返回给生成网络,直到生成网络的输出到达预设条件;
将需要测试样本图像输入到训练后的网络模型中,得到动目标聚焦的输出图像。
进一步,所述判别网络为多层卷积网络。
进一步,所述标签图像为无噪声的理想高斯点图像。
进一步,所述生成网络是基于残差结构的Unet网络,其中,残差结构包括卷积残差块和恒等残差块;所述卷积残差块块用于调节特征图的大小和通道数;所述恒等残差块块用于增加网络的深度。
进一步,所述卷积残差块块包括三层卷积层、三层批量标准化和三个激活函数;在第三个激活函数前,与经过一层卷积层和一层批量标准化的输入跳跃连接,该结构用于调节特征图的大小和通道数,加入跳跃连接结构防止网络过深而出现梯度消失或梯度爆炸的现象。
进一步,所述恒等残差块块包括两层卷积层、两层批量标准化和两个激活函数。在第二个激活函数前,与输入跳跃连接;该结构用于增加网络的深度,加入跳跃连接结构防止网络过深而出现梯度消失或梯度爆炸的现象。
进一步,所述生成网络包括降采样结构、上采样结构以及降采样结构中的特征图与上采样结构中的特征图的连接结构,其中,降采样结构中利用残差快实现降采样。
进一步,所述判别网络包括五层卷积层、三层批量标准化和四层relu激活函数,最后一层激活函数是用sigmoid函数输出。
本发明提供的基于生成对抗网络的地面运动目标重聚焦系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1-8中任一项所述的步骤。
本发明的有益效果在于:
本发明提供的基于生成对抗网络的地面运动目标重聚焦方法及系统,通过距离多普勒成像算法生成二维散焦运动目标图像,用于作为训练样本;在散焦的运动目标中心位置生成理想高斯点,用于作为标签图像;然后利用生成对抗网络,产生与标签图像接近的生成图像;通过判别网络得到判断结果,并将判别结果返回给生成网络,直到生成网络的输出到达预设条件;利用训练后的网络模型中,得到动目标聚焦的输出图像。
该方法与传统的SAR动目标成像算法相比,避免了对每个运动目标进行参数估计之后,还要对每个目标分别进行距离徙动校正和方位匹配滤波。且可以直接将多个散焦的运动目标同时处理为聚焦良好的目标。
传统的SAR数据处理方法,消除噪声和目标聚焦都是需要分别进行。本方法通过网络训练可以实现在消除噪声的同时完成动目标的重聚焦,一次实现两种功能。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
图1为生成对抗网络结构示意图。
图2为训练数据。
图3为恒等残差块结构示意图。
图4为卷积残差块结构示意图。
图5为生成网络结构示意图。
图6为判别网络结构示意图。
图7为高斯白噪声power=50dBW的样本训练结果。
图8为高斯白噪声power=60dBW的样本训练结果。
图9为高斯白噪声power=70dBW的样本训练结果。
图10为高斯白噪声power=80dBW的样本训练结果。
图11为网络测试结果。
图12为网络测试结果。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好的理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
如图1所示,本实施例提供的基于生成对抗网络的地面运动目标重聚焦方法,本方法利用生成对抗网络(GAN)来实现动目标的重聚焦,可以实现对多个有不同运动参数的目标一次性进行处理。实现无需参数估计,直接从SAR图像中散焦的运动目标得到聚焦良好的运动目标图像,具体包括以下步骤:
首先通过距离多普勒(Range Doppler,RD)成像算法仿真得到包含1-3个散焦运动目标的SAR图像,该图像作为GAN网络的训练样本。在散焦的运动目标中心生成理想高斯点,作为GAN网络的标签。
然后构建生成对抗网络,包括生成网络和判别网络。生成网络主要功能是根据输入样本图像,产生与标签接近的图像,并作为判别网络的输入。
判别网络是一个五层卷积网络,其主要功能是能够将生成网络的输出判别为“假”,标签判别为“真”,并将判别结果返回给生成网络,生成对抗网络的具体结构如图1所示,图中D表示判别模型,G表示生成模型。
生成对抗网络中的训练和测试数据生成具体步骤如下:
利用距离多普勒成像算法生成二维散焦的运动目标图像,作为生成对抗网络的输入样本。每个输入样本包含距离向和方位向速度都不同的1~3个运动目标。为了产生较明显的二维散焦的运动目标图像,主要仿真参数设计如表1所示。
表1仿真参数
在二维散焦目标的中心位置生成理想的高斯点,作为生成对抗网络的标签。将输入样本与标签都转为256*256的矩阵,如图2所示,图2中(a)训练样本,(b)训练标签,便于输入神经网络进行训练。
总共生成如图1所示的输入样本和标签2000对;2000个输入样本中分别加入强度为50、60、70和80dBW的高斯白噪声,最终得到8000个带高斯白噪声的散焦动目标图像,作为生成对抗网络的训练样本。无任何噪声的理想高斯点作为训练标签。测试数据的生成方法与训练样本生成方法一致,总共生成200个散焦的运动目标图像,每幅图像中加入强度为50~80dBW随机高斯白噪声,作为测试样本。
生成对抗网络训练过程具体如下:
生成网络是基于残差结构的Unet网络,其中,残差结构中的包括卷积残差块即Conv_block块和恒等残差块即Identity_block块两个块。卷积残差块主要用于调节特征图的大小和通道数。其具体结构如图3、图4和图5所示。
本实施例中的卷积残差块块包括三层卷积层(conv)、三层批量标准化(batch_norm)和三个激活函数(relu)。在第三个激活函数前,与经过一层卷积层和一层批量标准化的输入跳跃连接。该结构用于调节特征图的大小和通道数,加入跳跃连接结构防止网络过深而出现梯度消失或梯度爆炸的现象。
本实施例中的恒等残差块块包括两层卷积层、两层批量标准化和两个激活函数。在第二个激活函数前,与输入跳跃连接。该结构用于增加网络的深度,加入跳跃连接结构防止网络过深而出现梯度消失或梯度爆炸的现象。
本实施例中的生成网络包括降采样结构、上采样结构以及降采样结构中的特征图与上采样结构中的特征图的连接结构。其中降采样结构中利用卷积残差块和恒等残差块实现降采样。图5中的identity_block是图三的结构;conv_block是图四的结构。
本实施例提供的判别网络是一个五层卷积网络,最后一层采用Sigmoid函数输出网络的判别结果。其具体结构如图6所示。
本实施例中的判别网络包括五层卷积层、三层批量标准化和四层relu激活函数,最后一层激活函数是用sigmoid函数输出判别概率。
将训练样本和标签送入生成对抗网络,训练100轮次输出中间结果,当生成网络的输出满足要求时就可停止训练,并保存训练模型。最终训练完毕的网络具有消除噪声和目标聚焦功能。因此当生成网络的输出能够实现去除不同强度的背景噪声以及不同散焦程度的运动目标聚焦时,生成对抗网络训练就完成了。
网络的训练结果如图7、图8、图9和图10所示。
图7中图(a)是加入50dBW的高斯白噪声的训练图像,图(b)是网络的输出图像,网络的输出图像与标签图像图(c)非常相似,不同散焦程度的运动目标都能够通过网络实现聚焦,而且图像中的噪声也被抑制了。
图8中图(a)是加入60dBW的高斯白噪声的训练图像,图(b)是网络的输出图像,网络的输出图像与标签图像图(c)非常相似,不同散焦程度的运动目标都能够通过网络实现聚焦,而且图像中的噪声被抑制了。
图9中图(a)是加入70dBW的高斯白噪声的训练图像,图(b)是网络的输出图像,网络的输出图像与标签图像图(c)非常相似,不同散焦程度的运动目标都能够通过网络实现聚焦,而且图像中的噪声被抑制了。
图10中图(a)是加入80dBW的高斯白噪声的训练图像,图(b)是网络的输出图像,网络的输出图像与标签图像图(c)非常相似,不同散焦程度的运动目标都能够通过网络实现聚焦,而且图像中的噪声被抑制了。
本实施例提供的生成对抗网络测试过程中的网络测试样本与训练样本不同的是背景噪声,训练样本是确定的四个强度值的高斯白噪声,测试样本是50~80dBW的随机高斯白噪声。对训练过程中保存的模型进行测试,得到输出图像与测试标签作比较。
测试结果如图11和图12所示,图11中,(a)输入样本(b)网络输出(c)输入标签,图12中(a)输入样本(b)网络输出(c)输入标签,可以看出本网络对训练阶段没有遇到过的测试样本也能实现背景噪声的消除和动目标的聚焦。
生成对抗网络中的生成器生成的图像与理想聚焦的标签一同输入判别器,当判别网络判定输入的是一对真实图像时,判别网络的输出的概率为1,此时说明生成器的输出已经成功欺骗了判别器。如果判别网络判定不是一对真实图像时,判别网络的输入概率会较小。当判别网络输出概率较小时,生成器为了提高判别网络的输出概率会不断调整网络参数,以达到以假乱真的目的。生成对抗网络的损失函数分为两部分,一部分是生成器的输出与标签的均方误差,为了使生成器输出与标签尽可能接近,该部分损失值应该尽可能小。另一部分就是判别网络的输出概率,这部分值应该尽可能大。当两部分都达到最优时,说明生成器的输出与标签非常接近,此时背景噪声应该已经被消除,留下来目标的部分也应该完成聚焦。否则,网络还未达到最优,可以继续训练。
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。

Claims (3)

1.基于生成对抗网络的地面运动目标重聚焦方法,其特征在于:包括以下步骤:
通过距离多普勒成像算法生成二维散焦运动目标图像,用于作为训练样本;在散焦的运动目标中心位置生成理想高斯点,用于作为标签图像;
构建生成对抗网络,所述生成对抗网络包括生成网络和判别网络;
所述生成网络的训练样本为二维散焦运动目标图像,用于产生与标签图像接近的生成图像;
将生成图像和标签图像输入判别网络,并将判别结果返回给生成网络,直到生成网络的输出到达预设条件;
将需要测试样本图像输入到训练后的生成对抗网络的模型中,得到动目标聚焦的输出图像;
所述判别网络为多层卷积网络;
所述生成网络是基于残差结构的Unet网络,其中,残差结构包括卷积残差块和恒等残差块;所述卷积残差块用于调节特征图的大小和通道数;所述恒等残差块用于增加网络的深度;
所述卷积残差块的结构包括三层卷积层、三层批量标准化和三个激活函数;在第三个激活函数前,与经过一层卷积层和一层批量标准化的输入跳跃连接,该结构用于调节特征图的大小和通道数,加入跳跃连接结构防止网络过深而出现梯度消失或梯度爆炸的现象;
所述恒等残差块的结构包括两层卷积层、两层批量标准化和两个激活函数,在第二个激活函数前,与输入跳跃连接;该结构用于增加网络的深度,加入跳跃连接结构防止网络过深而出现梯度消失或梯度爆炸的现象;
所述生成网络包括降采样结构、上采样结构以及降采样结构中的特征图与上采样结构中的特征图的连接结构,其中,降采样结构中利用残差快实现降采样;
所述判别网络包括五层卷积层、三层批量标准化和四层relu激活函数,最后一层激活函数是用sigmoid函数输出。
2.如权利要求1所述的基于生成对抗网络的地面运动目标重聚焦方法,其特征在于:所述标签图像为无噪声的理想高斯点图像。
3.基于生成对抗网络的地面运动目标重聚焦系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1-2中任一项所述的步骤。
CN202111398967.6A 2021-11-19 2021-11-19 基于生成对抗网络的地面运动目标重聚焦方法及系统 Active CN114092520B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111398967.6A CN114092520B (zh) 2021-11-19 2021-11-19 基于生成对抗网络的地面运动目标重聚焦方法及系统
US17/989,453 US20230162373A1 (en) 2021-11-19 2022-11-17 Moving target focusing method and system based on generative adversarial network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111398967.6A CN114092520B (zh) 2021-11-19 2021-11-19 基于生成对抗网络的地面运动目标重聚焦方法及系统

Publications (2)

Publication Number Publication Date
CN114092520A CN114092520A (zh) 2022-02-25
CN114092520B true CN114092520B (zh) 2023-12-26

Family

ID=80303616

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111398967.6A Active CN114092520B (zh) 2021-11-19 2021-11-19 基于生成对抗网络的地面运动目标重聚焦方法及系统

Country Status (2)

Country Link
US (1) US20230162373A1 (zh)
CN (1) CN114092520B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108765319A (zh) * 2018-05-09 2018-11-06 大连理工大学 一种基于生成对抗网络的图像去噪方法
CN109727201A (zh) * 2017-10-30 2019-05-07 富士通株式会社 信息处理设备、图像处理方法以及存储介质
CN110363716A (zh) * 2019-06-25 2019-10-22 北京工业大学 一种基于条件生成对抗网络复合降质图像高质量重建方法
CN111398955A (zh) * 2020-03-13 2020-07-10 中国科学院电子学研究所苏州研究院 一种基于生成对抗神经网络的sar图像去旁瓣方法
CN113484906A (zh) * 2021-06-29 2021-10-08 中北大学 一种基于低频能谱数据驱动的高分辨率能量场重建方法
CN113592715A (zh) * 2021-08-05 2021-11-02 昆明理工大学 一种面向小样本图像集的超分辨率图像重构方法
CN113610732A (zh) * 2021-08-10 2021-11-05 大连理工大学 基于交互对抗学习的全聚焦图像生成方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0823034D0 (en) * 2008-12-18 2009-01-28 Qinetiq Ltd System and method for processing radar imagery

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109727201A (zh) * 2017-10-30 2019-05-07 富士通株式会社 信息处理设备、图像处理方法以及存储介质
CN108765319A (zh) * 2018-05-09 2018-11-06 大连理工大学 一种基于生成对抗网络的图像去噪方法
CN110363716A (zh) * 2019-06-25 2019-10-22 北京工业大学 一种基于条件生成对抗网络复合降质图像高质量重建方法
CN111398955A (zh) * 2020-03-13 2020-07-10 中国科学院电子学研究所苏州研究院 一种基于生成对抗神经网络的sar图像去旁瓣方法
CN113484906A (zh) * 2021-06-29 2021-10-08 中北大学 一种基于低频能谱数据驱动的高分辨率能量场重建方法
CN113592715A (zh) * 2021-08-05 2021-11-02 昆明理工大学 一种面向小样本图像集的超分辨率图像重构方法
CN113610732A (zh) * 2021-08-10 2021-11-05 大连理工大学 基于交互对抗学习的全聚焦图像生成方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Depth-of-focus extension in optical coherence tomography via multiple aperture synthesis;En Bo等;《Optica》;第4卷(第7期);701-706 *
Refocusing of SAR Ground Moving Target Based on Generative Adversarial Networks;Wen Tang等;《IGARSS 2022 - 2022 IEEE International Geoscience and Remote Sensing Symposium》;755-758 *
SAR自聚焦深度卷积神经网络研究;唐文;《中国优秀硕士学位论文全文数据库 (信息科技辑)》(第01期);I136-1664 *
基于自适应可分离卷积网络的光场轴向超分辨算法研究;刘欢;《中国优秀硕士学位论文全文数据库 (信息科技辑)》(第01期);I138-1081 *

Also Published As

Publication number Publication date
US20230162373A1 (en) 2023-05-25
CN114092520A (zh) 2022-02-25

Similar Documents

Publication Publication Date Title
Rashid et al. Skin lesion classification using GAN based data augmentation
US10824914B2 (en) Apparatus and method of data generation for object detection based on generative adversarial networks
Liu et al. Richer convolutional features for edge detection
CN110414414A (zh) 基于多层级特征深度融合的sar图像舰船目标鉴别方法
Gerg et al. Structural prior driven regularized deep learning for sonar image classification
Wang et al. MLFFNet: Multilevel feature fusion network for object detection in sonar images
CN114092520B (zh) 基于生成对抗网络的地面运动目标重聚焦方法及系统
KR102352242B1 (ko) 복소수 기반의 cnn을 이용하여 객체를 인식하기 위한 장치 및 방법
CN114419490A (zh) 一种基于注意力金字塔的sar船只目标检测方法
Yang et al. Foreground enhancement network for object detection in sonar images
US11257255B2 (en) Domain matching methods for transportable imaging applications
KR102208105B1 (ko) 이중 클러스터링 장치 및 방법
Rixon Fuchs et al. Deep learning based technique for enhanced sonar imaging
CN116953702A (zh) 基于演绎范式的旋转目标检测方法及装置
KR101708275B1 (ko) Svm기반 레이더 스캔형태 인식방법 및 장치
CN115346209A (zh) 机动车三维目标检测方法、装置及计算机可读存储介质
Zaji et al. Wheat spike counting using regression and localization approaches
Rusli et al. Contrast enhanced object recognition (CLAHE_YOLOv3) technique for clear and medium level turbidity lake underwater images
Song et al. Robust method of detecting moving objects in videos evolved by genetic programming
Busson et al. Seismic shot gather noise localization using a multi-scale feature-fusion-based neural network
CN117523550B (zh) 苹果病虫害检测方法、装置、电子设备和存储介质
CN113189557B (zh) 对海雷达目标检测精细化处理方法及装置
CN116168062B (zh) 一种3d目标跟踪方法及装置
CN117977356B (zh) 用于提高大孔径激光器光束质量的装置和方法
JP7466418B2 (ja) Isar画像データ学習装置、目標類別装置及びレーダ装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant