CN113205564A - 一种sar智能目标边缘重构方法 - Google Patents

一种sar智能目标边缘重构方法 Download PDF

Info

Publication number
CN113205564A
CN113205564A CN202110374200.3A CN202110374200A CN113205564A CN 113205564 A CN113205564 A CN 113205564A CN 202110374200 A CN202110374200 A CN 202110374200A CN 113205564 A CN113205564 A CN 113205564A
Authority
CN
China
Prior art keywords
sar
target
complex
model
denotes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110374200.3A
Other languages
English (en)
Other versions
CN113205564B (zh
Inventor
曾涛
丁泽刚
卫扬铠
王裕沛
王岩
刘常浩
张磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202110374200.3A priority Critical patent/CN113205564B/zh
Publication of CN113205564A publication Critical patent/CN113205564A/zh
Application granted granted Critical
Publication of CN113205564B publication Critical patent/CN113205564B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种SAR智能目标边缘重构方法,一、建立目标线性边缘的参数化散射模型,解析表达出雷达观测角度、雷达发射频率和目标线性边缘几何参数间的关系;二、利用参数化散射模型生成设定观测角度、发射频率下的训练数据;三、将传统U‑Net网络复数化得到改进型U‑Net网络;四、将步骤二中生成的训练数据输入改进型U‑Net网络中进行训练,将需要重构的SAR复图像输入改进型U‑Net网络训练模型即可重构出SAR目标的边缘散射信息;本发明能够解决传统SAR成像算法中的目标线性边缘不连续、计算复杂度高和参数难自适应等问题。

Description

一种SAR智能目标边缘重构方法
技术领域
本发明属于SAR图像处理的技术领域,具体涉及一种SAR智能目标边缘重构方法。
背景技术
合成孔径雷达(Synthetic Aperture Radar,SAR)作为一种利用微波进行感知的主动传感器,能够不受天气、光照等条件限制,对感兴趣目标进行全天候、全天时、远距离的持续观测,从而提供感兴趣区域的高分辨图像。复杂场景(特别是城区)SAR遥感成像,存在大量线目标,其微波散射信号方向性强,遮挡、多径效应影响严重。传统SAR匹配滤波类的成像算法,基于点目标模型进行成像处理,如后向投影算法(Back-Projection,BP)和距离多普勒成像算法(Range-Doppler-Algorithm,RDA)。这些传统的成像算法基于点散射体,未考虑分布目标在不同观察角下的各向异性散射特性,因此更倾向于描绘分布式目标的一些局部点散射特征,而不是线散射特征,导致传统的成像算法不能反演目标边缘的完整特性,造成图像中边缘不连续,无法完整描述目标的结构信息,使SAR遥感图像的视觉效果较同分辨率光学图像有很大差距,难以理解(如图1所示,其中图1(a)表示光学图像,图1(b)表示相对应的传统SAR图像)。为弥补传统点目标模型的不足,一些学者引入了参数化模型,如衰减指数模型、几何绕射理论(Geometrical Theory of Diffraction,GTD)、属性散射中心(Attributed Scattering Model,ASM)模型,用目标的长度、宽度等形状参数以及频率依赖性等参数描述目标的散射特性,并从目标的散射回波数据中反演目标相应参数。但是这些模型无法解决SAR成像中目标边缘不连续问题,也无法从理论上分析线面目标在SAR图像中丢失主要结构信息的原因。
传统稀疏成像往往需要手动设置正则化参数以及一些其他的优化参数。如何自适应地确定这些成像参数,仍然是一项艰巨的任务。幸运的是,近期兴盛的深度学习(deeplearning,DL)技术为回归型神经网络提供了最先进的性能,其已经在图像、语音、自然语言处理、计算机视觉等各个不同的领域展现出了优异的性能。在图像领域有许多不同的网络结构在实际应用场景中取得了不俗的效果,例如常用于图像分类识别的VGG网络、GoogLeNet、ResNet等,以及在医学图像分割领域表现优异的U-Net。而在SAR成像领域,虽然基于深度学习的方法已经用于多种任务,包括地形分类、目标探测、参数反演、图像去噪、SAR-光学数据融合。然而,这些算法忽略了相位的特殊性,简单地使用了基于深度学习的模型。同时需要指出的是,目前还没有应用于SAR目标线性边缘恢复的深度学习网络。
综上所述,目前缺少一种可恢复目标线性边缘的SAR智能参数化成像方法。
发明内容
有鉴于此,本发明提供了一种SAR智能目标边缘重构方法,能够解决传统SAR成像算法中的目标线性边缘不连续、计算复杂度高和参数难自适应等问题。
实现本发明的技术方案如下:
一种SAR智能目标边缘重构方法,包括以下步骤:
步骤一、建立目标线性边缘的参数化散射模型,解析表达出雷达观测角度、雷达发射频率和目标线性边缘几何参数间的关系;
步骤二、利用参数化散射模型生成设定观测角度、发射频率下的训练数据;
步骤三、将传统U-Net网络复数化得到改进型U-Net网络;
步骤四、将步骤二中生成的训练数据输入改进型U-Net网络中进行训练,得到改进型U-Net网络训练模型;将需要重构的SAR复图像输入改进型U-Net网络训练模型即可重构出SAR目标的边缘散射信息。
进一步地,步骤二中,根据实际需求进行观测角度、发射频率的设定,利用步骤一得到的参数化散射模型,通过噪声模拟和分布模拟生成训练数据。
进一步地,所述改进型U-Net网络包括以下改进:
将原网络中的实卷积修改为复卷积,将Relu激活函数进行复数化,建立了CRelu激活函数模型;对Upsample操作进行复数化,建立CUpsample操作模型;将Loss损失函数进行复数化,建立CLoss损失函数模型。
进一步地,将原网络中的实卷积修改为复卷积,具体为:
(jMI+MR)*(jKI+KR)=(MRKR-MIKI)+j(MRKI+MIKR) (11)
其中,jMI为复特征图的虚部,MR为复特征图的实部,jKI为复卷积核的虚部,KR为复卷积核的实部。
进一步地,将Relu激活函数进行复数化,具体为:
C ReLu(z)=ReLu(R(z))+Re Lu(I(z)) (12)
其中,CRelu(·)表示复数化激活函数,ReLu(·)表示Relu激活函数,z表示输入复信号,R(z)表示该信号的实部,I(z)表示该信号的虚部。
进一步地,对Upsample操作进行复数化得到CUpsample操作模型,具体为:
CUpsample(z)=Upsample(R(z))+Upsample(I(z)) (13)
其中,z表示输入复信号,R(z)表示该信号的实部,I(z)表示该信号的虚部。
进一步地,将Loss损失函数进行复数化得到CLoss损失函数模型,具体为:
CLoss(z)=Loss(R(z))+Loss(I(z)) (14)
其中,Loss(·)表示损失函数,z表示输入复信号,R(z)表示该信号的实部,I(z)表示该信号的虚部。
有益效果:
(1)本发明在传统点目标模型的基础上,建立了目标线性边缘的参数化散射模型,解决了传统点目标模型无法描述目标边缘各项异性散射特性的问题。
(2)本发明针对传统成像算法无法恢复目标连续边缘的问题,设计了改进U-Net神经网络架构,可以智能化、高效率的在SAR图像中重构目标边缘。
附图说明
图1光学图像与传统SAR成像结果对比图,其中,(a)为光学图像,(b)为传统SAR图像。
图2基于深度学习的SAR智能参数化成像方法流程框图。
图3目标线性边缘参数化模型。
图4目标线性边缘与成像示意图,其中,(a)为目标线性边缘示意图,(b)为SAR成像示意图。
图5不同角度采样下目标线性边缘成像示意图,其中,(a)为40°~80°采样成像结果,(b)为80°~110°采样成像结果。
图6数据生成模型示意图。
图7 U-Net网络结构示意图。
图8复卷积示意图。
图9实施例子中的成像结果示意图,其中,(a)为BP成像结果,(b)为真值图像,(c)为预测结果。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供了一种基于深度学习的SAR智能参数化成像方法。首先,基于积分参数化散射模型,建立目标线性边缘的参数化散射模型,解析表达出雷达观测角度、雷达发射频率和目标线性边缘几何参数间的关系;接着根据参数化模型生成特定观测角度、发射频率下的训练数据;随后基于传统U-Net网络,将其复数化得到改进型U-Net网络;将生成的训练数据输入改进U-Net中进行训练,得到效果良好的网络训练结果。
本发明旨在提供一种智能化、高效率的、可恢复目标线性边缘的SAR智能参数化成像方法,预期可应用于机载、星载SAR成像等领域,可大幅增强SAR图像质量,有助于提升SAR图像的可理解性。本发明采用少量参数来建立目标线性边缘的参数化散射模型,依据提出的智能参数化散射模型,有效表征了目标线性边缘的散射特性与雷达发射频率、观测角度之间的依赖性。除此之外,基于上述参数化模型和深度学习理论,提出基于深度学习的智能参数化成像方法。
本发明所提供的一种SAR智能目标边缘重构方法,流程图如图2所示,其具体步骤包括:
步骤一、建立目标线性边缘的参数化散射模型,解析表达出雷达观测角度、雷达发射频率和目标线性边缘几何参数间的关系。
传统SAR回波模型基于点目标模型,其假设场景回波由一系列理想点目标回波相干叠加而得。为了在离散空间域表述散射回波,传统SAR回波模型将场景区域按分辨率划分成2维网格,用网格格点上的散射系数值来近似表示场景中相应位置的散射系数,即
ρ(r)=∑σiδ(r-ri) (1)
其中,ri表示第i个网格点的位置,在2维平面上可以用直角坐标ri=(xi,yi)表示,σi为第i个网格点处的散射系数;δ(·)为狄拉克冲激函数。若发射信号为S0(f),则散射回波信号可表示为
Figure BDA0003010517710000061
其中,rk为第k个雷达位置。
上述基于离散点集的SAR回波生成方法存在以下问题:采用离散点集表示目标时,所计算的目标SAR回波与点的间隔有关。离散点越稀疏,回波计算结果误差越大;离散点越密集,计算结果越精确。为保证回波生成的正确性和稳定性,理论上要求点的间隔在半个波长量级或更小的尺度。对于电大尺寸的目标,这将导致计算效率低下,仿真耗时难以承受。
本发明采用基于积分的参数化散射模型,假设目标为连续分布的散射体,该目标对应于2维平面场景中的某一个区域,即为
Figure BDA0003010517710000062
对于具有特定几何形状的散射体,其分布区域用一组参数Θ来表示,那么目标区域可以写为S=S(Θ)。目标线性边缘可以用参数
Figure BDA0003010517710000063
来描述,其中(x,y)表示目标的中心位置,
Figure BDA0003010517710000064
表示目标法线倾斜角度,L表示目标的长度,其参数具体含义见图3。通过简单的几何关系,该目标线性边缘可以被解析的表示为
Figure BDA0003010517710000065
Figure BDA0003010517710000071
其中x∈[x1,x2],y∈[y1,y2]表示X坐标和Y坐标的范围,其中(x1,y1)和(x2,y2)分别为目标线性边缘的两个端点。针对光滑的线性边缘目标,假设其散射系数密度为沿着线性边缘分布的均匀函数,即在同一观测角度和频率下,目标线性边缘的散射系数不会发生变化。并且忽略电磁波极化的影响,目标线性边缘的散射回波可以简化为
Figure BDA0003010517710000072
通过计算式(4)中的积分,目标线性边缘的参数化散射模型为
Figure BDA0003010517710000073
其中R0(θ)为式(6)中所示的雷达到目标线性边缘中心点的斜距历程
R0(θ)=R0-cosφ(x0cosθ+y0sinθ) (6)
那么,式(5)表示目标线性边缘散射模型的距离向包络和方位向包络同为辛格函数分布。
对图4(a)所示的线性边缘目标,利用如图4(b)所示的两个观测角度对其进行观测并成像,可以得到如下结果:当雷达合成孔径角度方位为40°~48°时,其BP成像结果为图5(a)中所示的边缘的两个端点。而当合成孔径角度为80°~110°时,目标线性边缘的BP成像结果为图5(b)一条完整的线性边缘。结果表明,只要雷达观测角度包含线性边缘目标的法线方向,SAR成像结果就能给出完整的线性边缘;反之,若目标线性边缘的法线方向在雷达的观测方向范围之外,则SAR成像的结果一般表现为位于边缘处的几个孤立的散射点。由于条带SAR成像中雷达采样角度有限,雷达采集回波的过程大部分情况下只采集了目标方向图的旁瓣。只有当系统采集到目标主瓣信息时,SAR成像结果目标完整的边缘轮廓信息;而当SAR系统只采集到目标旁瓣信息时,成像结果表现为目标边缘的端点,表现出强烈的不连续性。
步骤二、根据参数化模型生成设定的观测角度、发射频率下的训练数据。对线性边缘目标参数按照工程设计进行设定,根据步骤一所提的参数化模型,通过噪声模拟,分布模拟等形式生成工程要求的具有鲁棒性特征的训练数据。
如图6所示,数据生成模型包含“两点一线”目标,根据上述智能参数化散射模型,设计线性边缘目标参数
Figure BDA0003010517710000081
如下。其中目标中心位置x,y设计为
x=x0+[-1,1];y=y0+[-1,1];x0=y0=0 (7)
x,y在[-1,1]范围内均匀分布,即在该范围内随机产生,可以增强网络的适应能力。目标长度L满足
L=L0+[-0,1,0.1];L0=0.3 (8)
即长度L在[0.2,0.4]之间随机产生。目标法线倾斜角度
Figure BDA0003010517710000082
设计为
Figure BDA0003010517710000083
即目标法线倾斜角度在[-90°,90°]内随机产生。两个点目标峰值幅度范围设为[1,10],线性边缘目标峰值幅度范围设为[1,10.5]。此外,考虑到实际SAR图像应用中含有大量噪声,需要在生成数据回波中加入噪声,如下式所示:
S=S0+W (10)
其中S0是目标回波数据,W是高斯白噪声,符合高斯分布W~CN(0,σ2),其中σ2是噪声方差。所加噪声的信噪比可以按需要变化,以仿真不同信噪比条件下的回波数据。按照如下步骤产生训练数据:1)根据步骤一中线性边缘目标的参数化散射模型式(5)生成回波,结合上述设计参数Θ以及式(10)产生线性边缘目标含有噪声的回波数据;2)根据BP成像得到128*128的图像,成像的x,y范围为[-1,1],然后将图像的实部
Figure BDA0003010517710000091
和虚部
Figure BDA0003010517710000092
作为训练数据集Sin分别输入网络;3)改变观测角度,使观测角度在线性边缘目标的法线方向,生成线性边缘和点目标。分别对线性边缘目标和点目标图像进行二值化,即小于门限取为0(背景),大于门限的线性边缘目标图像取1,点目标取2。生成数据作为对应的真值Sgt
Figure BDA0003010517710000093
作为网络的训练数据。
步骤三、基于传统U-Net网络,将其复数化得到改进型U-Net网络。
U-Net网络结构如图7所示,它的核心思想是一种编码—解码结构。左半部分称为编码(压缩)路径,通过卷积和池化操作实现特征图的获取。右半部分为解码(扩张)路径,通过卷积和上采样操作实现,将图像恢复为原始大小。U-Net能够通过跳跃连接结合底层信息和高层信息。底层信息也叫深层信息,其反应目标和它的环境之间关系的特征,有助于物体的类别判断。但传统U-Net中的卷积、激活函数、上采样操作均针对实数进行处理,难以应对SAR复数据的处理,并且SAR数据的关键特征正是在于复数据的相位之中,因此需要我们对传统的网络进行针对性改进。
本发明对网络的改进主要如下:
(1)网络中的实卷积修改为复卷积,如图8所示。在对特征图进行卷积操作时,如果将复特征图的虚部表示为jMI,复特征图的实部表示为MR,,则复特征图可以表示为jMI+MR;如果将复卷积核的虚部表示为jKI,复卷积核的实部表示为KR,,则复卷积核为jKI+KR,有
(jMI+MR)*(jKI+KR)=(MRKR-MIKI)+j(MRKI+MIKR) (11)
然后,将原U-Net网络中的卷积操作全部更改为上述式(11)中所示的复卷积操作。同时根据复数卷积操作得到复卷积结果。
(2)将Relu激活函数进行复数化,CRelu表示复数化激活函数:
C Re Lu(z)=Re Lu(R(z))+Re Lu(I(z)) (12)
(3)对上采样Upsample操作进行复数化,CUpsample表示复数化上采样:
CUpsample(z)=Upsample(R(z))+Upsample(I(z)) (13)
(4)将损失函数(Loss)复数化,CLoss表示复数化Loss:
CLoss(z)=Loss(R(z))+Loss(I(z)) (14)
此外,本发明还将传统网络中的损失函数进行针对性的修改,从交并比改为交叉熵,其刻画的是实际输出概率与期望输出概率的距离,表达式如下:
Figure BDA0003010517710000101
步骤四、将生成的训练数据输入改进U-Net中进行训练,得到效果良好的网络训练模型。将需要重构的SAR复图像输入U-Net网络模型即可重构出SAR目标的边缘散射信息。
将生成的仿真数据图像组成双通道复数据输入到网络中进行训练,网络输出为点目标和线性边缘目标的分类结果。所用数据量是1000组,每一组数据包含训练数据和真实值。训练数据和测试数据的批次大小设置为100,训练数据的数据量为4000批次,测试数据的数据量为1000批次,初始学习率LR=0.0001,随着网络的训练过程学习率会不断调整。网络性能的评价指标采用最佳的像素级类别预测精度,即通过比较预测结果和真值,计算预测正确的像素个数占总像素的比例。
实施例子
如图6所示,在场景中放置两个点目标,一个线目标。用线目标来简化表示目标的线性边缘,目标参数如下表1所示。考虑到实际SAR图像中含有噪声,设置峰值信噪比为常见SAR图像信噪比范围[20,40]dB。通过将经典的后向投影算法(backprojection,BP)算法应用于观测回波中,可以得到图9(a)所示的成像结果,与真值图像9(b)相比可以看到成像结果中目标的线性边缘消失,仅留下两个端点,无法分辨。雷达参数如下表2所示。
表1实施例子中目标参数
Figure BDA0003010517710000111
表2实施例子中雷达参数
雷达参数 数值 单位
波长 0.02 m
带宽 1.5 GHz
俯仰角 15 deg
方位角 [88,92] deg
观测距离 15 Km
接着依据步骤二产生1000组数据,每一组数据包含训练数据和真实值。将数据输入到改进的U-Net网络中,经过120轮次训练后网络收敛且得到质量较高的输出结果,如图9(c)所示为某一组预测结果。对比网络输出的预测结果和真值图像可以看出,网络能够恢复SAR图像中的目标线性边缘,准确完成线性边缘目标的智能参数化成像。相较于传统的BP成像算法,本发明技术获得了图像质量更高的SAR图像,能够准确恢复出传统算法中得到的目标线性边缘有助于提升SAR图像的可理解性。且本法所提技术在网络训练完成后运行耗时大大减小,能够满足高效率要求。
因此,本发明所提技术不仅能够提升SAR图像质量,有效恢复SAR图像中的目标线性边缘,而且运行速度极快,足以满足高效率要求。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种SAR智能目标边缘重构方法,其特征在于,包括以下步骤:
步骤一、建立目标线性边缘的参数化散射模型,解析表达出雷达观测角度、雷达发射频率和目标线性边缘几何参数间的关系;
步骤二、利用参数化散射模型生成设定观测角度、发射频率下的训练数据;
步骤三、将传统U-Net网络复数化得到改进型U-Net网络;
步骤四、将步骤二中生成的训练数据输入改进型U-Net网络中进行训练,得到改进型U-Net网络训练模型;将需要重构的SAR复图像输入改进型U-Net网络训练模型即可重构出SAR目标的边缘散射信息。
2.如权利要求1所述的一种SAR智能目标边缘重构方法,其特征在于,步骤二中,根据实际需求进行观测角度、发射频率的设定,利用步骤一得到的参数化散射模型,通过噪声模拟和分布模拟生成训练数据。
3.如权利要求1所述的一种SAR智能目标边缘重构方法,其特征在于,所述改进型U-Net网络包括以下改进:
将原网络中的实卷积修改为复卷积,将Relu激活函数进行复数化,建立了CRelu激活函数模型;对Upsample操作进行复数化,建立CUpsample操作模型;将Loss损失函数进行复数化,建立CLoss损失函数模型。
4.如权利要求3所述的一种SAR智能目标边缘重构方法,其特征在于,将原网络中的实卷积修改为复卷积,具体为:
(jMI+MR)*(jKI+KR)=(MRKR-MIKI)+j(MRKI+MIKR) (11)
其中,jMI为复特征图的虚部,MR为复特征图的实部,jKI为复卷积核的虚部,KR为复卷积核的实部。
5.如权利要求3所述的一种SAR智能目标边缘重构方法,其特征在于,将Relu激活函数进行复数化,具体为:
C Re Lu(z)=Re Lu(R(z))+Re Lu(I(z)) (12)
其中,CRelu(·)表示复数化激活函数,Re Lu(·)表示Relu激活函数,z表示输入复信号,R(z)表示该信号的实部,I(z)表示该信号的虚部。
6.如权利要求3所述的一种SAR智能目标边缘重构方法,其特征在于,对Upsample操作进行复数化得到CUpsample操作模型,具体为:
CUpsample(z)=Upsample(R(z))+Upsample(I(z)) (13)
其中,z表示输入复信号,R(z)表示该信号的实部,I(z)表示该信号的虚部。
7.如权利要求3所述的一种SAR智能目标边缘重构方法,其特征在于,将Loss损失函数进行复数化得到CLoss损失函数模型,具体为:
CLoss(z)=Loss(R(z))+Loss(I(z)) (14)
其中,Loss(·)表示损失函数,z表示输入复信号,R(z)表示该信号的实部,I(z)表示该信号的虚部。
CN202110374200.3A 2021-04-07 2021-04-07 一种sar智能目标边缘重构方法 Active CN113205564B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110374200.3A CN113205564B (zh) 2021-04-07 2021-04-07 一种sar智能目标边缘重构方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110374200.3A CN113205564B (zh) 2021-04-07 2021-04-07 一种sar智能目标边缘重构方法

Publications (2)

Publication Number Publication Date
CN113205564A true CN113205564A (zh) 2021-08-03
CN113205564B CN113205564B (zh) 2023-05-05

Family

ID=77026263

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110374200.3A Active CN113205564B (zh) 2021-04-07 2021-04-07 一种sar智能目标边缘重构方法

Country Status (1)

Country Link
CN (1) CN113205564B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114966693A (zh) * 2022-07-20 2022-08-30 南京信息工程大学 基于深度学习的机载舰船目标isar精细化成像方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108280412A (zh) * 2018-01-12 2018-07-13 西安电子科技大学 基于变结构cnn的高分辨sar图像目标检测方法
RU2698402C1 (ru) * 2018-08-30 2019-08-26 Самсунг Электроникс Ко., Лтд. Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты)
CN110210463A (zh) * 2019-07-03 2019-09-06 中国人民解放军海军航空大学 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法
CN110363151A (zh) * 2019-07-16 2019-10-22 中国人民解放军海军航空大学 基于双通道卷积神经网络虚警可控的雷达目标检测方法
CN110728324A (zh) * 2019-10-12 2020-01-24 西安电子科技大学 基于深度复值全卷积神经网络的极化sar图像分类方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108280412A (zh) * 2018-01-12 2018-07-13 西安电子科技大学 基于变结构cnn的高分辨sar图像目标检测方法
RU2698402C1 (ru) * 2018-08-30 2019-08-26 Самсунг Электроникс Ко., Лтд. Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты)
CN110210463A (zh) * 2019-07-03 2019-09-06 中国人民解放军海军航空大学 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法
CN110363151A (zh) * 2019-07-16 2019-10-22 中国人民解放军海军航空大学 基于双通道卷积神经网络虚警可控的雷达目标检测方法
CN110728324A (zh) * 2019-10-12 2020-01-24 西安电子科技大学 基于深度复值全卷积神经网络的极化sar图像分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
TAO ZENG: "Road Network Extraction From Low-Contrast SAR Images", 《IEEE GEOSCIENCE AND REMOTE SENSING LETTERS》 *
卫扬铠等: "典型线面目标合成孔径雷达参数化成像", 《雷达学报》 *
杜兰等: "基于卷积神经网络的SAR图像目标检测算法", 《电子与信息学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114966693A (zh) * 2022-07-20 2022-08-30 南京信息工程大学 基于深度学习的机载舰船目标isar精细化成像方法
CN114966693B (zh) * 2022-07-20 2022-11-04 南京信息工程大学 基于深度学习的机载舰船目标isar精细化成像方法

Also Published As

Publication number Publication date
CN113205564B (zh) 2023-05-05

Similar Documents

Publication Publication Date Title
CN111142105B (zh) 复杂运动目标isar成像方法
Ma et al. What catch your attention in SAR images: Saliency detection based on soft-superpixel lacunarity cue
CN101685158B (zh) 基于隐马尔科夫树模型的sar图像去噪方法
CN111239697A (zh) 低秩矩阵分解的多维域联合sar宽带干扰抑制方法
CN102402685A (zh) 基于Gabor特征的三马尔可夫场SAR图像分割方法
CN101483777B (zh) 基于自适应多尺度Bandelet包的SAR图像去噪压缩方法
CN110346798B (zh) 一种双基合成孔径雷达波数域高效成像处理方法
CN110414509A (zh) 基于海陆分割和特征金字塔网络的港口停靠舰船检测方法
CN113376597A (zh) 基于数字高程地图和gpu的复杂地形电磁散射快速仿真方法
CN103514600B (zh) 一种基于稀疏表示的红外目标快速鲁棒跟踪方法
CN101482969A (zh) 基于同质点计算的sar图像去斑方法
CN103177428B (zh) 基于非下采样方向波变换与融合的sar图像去噪方法
CN103412306B (zh) 基于多站多波段带宽融合的超宽带相参处理方法
CN113205564B (zh) 一种sar智能目标边缘重构方法
CN112989940B (zh) 基于高分三号卫星sar影像的筏式养殖区提取方法
CN113608218A (zh) 一种基于后向投影原理的频域干涉相位稀疏重构方法
Yang et al. GAN-based radar spectrogram augmentation via diversity injection strategy
CN114067217A (zh) 基于非下采样分解转换器的sar图像目标识别方法
CN112285709B (zh) 基于深度学习的大气臭氧遥感激光雷达数据融合方法
CN113050083A (zh) 一种基于点云的超宽带雷达人体姿态重构方法
CN103426145A (zh) 一种基于多分辨分析的合成孔径声纳相干斑噪声抑制方法
CN105116410B (zh) 基于线性模型匹配的干涉相位图自适应滤波算法
CN107607927B (zh) 一种条纹激光回波信息提取方法
CN103345739B (zh) 一种基于纹理的高分辨率遥感影像建筑区指数计算方法
CN102509268B (zh) 基于免疫克隆选择的非下采样轮廓波域图像去噪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant