CN114545405B - 一种基于神经网络的实波束扫描雷达角超分辨方法 - Google Patents

一种基于神经网络的实波束扫描雷达角超分辨方法 Download PDF

Info

Publication number
CN114545405B
CN114545405B CN202210173222.8A CN202210173222A CN114545405B CN 114545405 B CN114545405 B CN 114545405B CN 202210173222 A CN202210173222 A CN 202210173222A CN 114545405 B CN114545405 B CN 114545405B
Authority
CN
China
Prior art keywords
image
real
encoding
decoding
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210173222.8A
Other languages
English (en)
Other versions
CN114545405A (zh
Inventor
李文超
李�杰
彭洋洋
杨建宇
黄钰林
武俊杰
李中余
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202210173222.8A priority Critical patent/CN114545405B/zh
Publication of CN114545405A publication Critical patent/CN114545405A/zh
Application granted granted Critical
Publication of CN114545405B publication Critical patent/CN114545405B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/62Sense-of-movement determination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Electromagnetism (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开一种基于神经网络的实波束扫描雷达角超分辨方法,应用于雷达成像领域,针对现有技术中存在的分辨率较差的问题;本发明通过编码‑解码网络框架和多尺度输入方式结合,构造神经网络;利用场景图像与实波束雷达图像之间的均方误差构建损失函数,将超分辨问题转换成损失函数的优化问题,并利用构造的实波束扫描雷达数据集训练网络各层的权重与偏置值,最终得到实波束图像‑超分辨图像的映射关系;然后,将待处理的实波束图像输入网络即可得到超分辨结果。相比于传统方法,该方法能够实现不同层次特征的自适应融合,获取更高质量的超分辨结果。

Description

一种基于神经网络的实波束扫描雷达角超分辨方法
技术领域
本发明属于雷达成像领域,特别涉及一种实波束扫描雷达的角超分辨技术。
背景技术
与光学传感相比,雷达不受天气和光照的影响,能够穿透薄雾和云层,具有全天时,全天候的优点,在导弹制导、对地观测、灾害监控等军用,民用领域的应用越来越广泛。但是,由于实波束扫描雷达方位分辨率受制于波束宽度和作用距离,方位向分辨率不可避免得比较差。因此,如何提高实波束扫描雷达的方位向分辨率是雷达领域的研究热点。
文献“唐琳,焦淑红,齐欢,吴如煊.一种单脉冲雷达多通道L1正则化波束锐化方法[J].电子与信息学报,2014,36(9):2201-2206.”利用稀疏先验信息,对反卷积成像进行正则化,实现了一定程度上的方位超分辨,但是对假设先验信息要求很强,当目标与噪声的分布与假设不一致时,超分辨性能会恶化;文献“李萌,刘畅.基于特征复用的膨胀-残差网络的SAR图像超分辨重建[J].雷达学报,2020,9(2):363–372.doi:10.12000/JR19110.”针对SAR图像的超分辨,提出了膨胀-残差结构限制特征图分辨率的损失,并且将不同的特征图之间进行级联,实现不同层级的特征最大化利用,提高了SAR图像的分辨率。但该文献的网络学习数据为经过下采样后的图像,因而只能实现图像的增强。文献“Tao,Xin,etal.Scale-recurrent network for deep image deblurring.In ECCV.2018”提出了多尺度循环神经网络对光学图像解卷积的算法,利用编码模块的深层特征提取能力和解码模块的细节恢复能力,实现了光学图像的去模糊,但是在残差块的特征传播过程中没有考虑各个层级的权重信息,导致结果会丢失一定的细节信息。
发明内容
为解决上述技术问题,本发明提出一种基于神经网络的实波束扫描雷达角超分辨方法,通过构建了基于自适应残差块的循环多尺度神经网络,并通过训练与测试实现了实波束雷达方位向的超分辨。
本发明采用的技术方案为:一种基于神经网络的实波束扫描雷达角超分辨方法,包括:
S1、构造训练图像-实波束图像对;
S2、将步骤S1的训练图像-实波束图像对剪裁为细粒图像;
S3、通过基于对称的编码-解码结构框架的神经网络得到实波束图像的超分辨结果;具体的:
所述神经网络包括下采样模块、三组对称的编码-解码结构;所述下采样模块将输入的细粒度图像下采样为中粒度图像和粗粒度图像;
粗粒度图像作为第一组对称的编码-解码结构的输入;
将第一组对称的编码-解码结构的输出提升图像点数至与中粒度图像一样,并将图像点数提升后的第一组对称的编码-解码结构的输出与中粒度图像一起作为第二组对称的编码-解码结构的输入;
将第二组对称的编码-解码结构的输出结果提升图像点数至与细粒度图像一样,并图像点数提升后的第二组对称的编码-解码结构的输出与细粒度图像一起作为第三组对称的编码-解码结构的输入;第三组对称的编码-解码结构的输出为图像超分辨结果。
步骤S1具体为:将真实雷达场景图像作为训练图像,采用天线方位图函数对训练图像进行方位向的卷积,构造实波束图像;根据训练图像与构造的实波束图像,得到训练图像-实波束图像对。
所述三组对称的编码-解码结构中均包括编码模块与解码模块,且各自的编码模块、解码模块的结构相同。
所述编码模块包括一层卷积层与三个串联的结构相同的自适应残差模块。
所述解码模块包括一层反卷积层以及与编码模块维度对应的三个串联的结构相同的自适应残差模块。
所述自适应残差模块对应的表达式为:
y=A·x+B·F(x)
其中,x是输入特征,y是输出特征,F()表示残差块。
每组对称的编码-解码结构中编码模块与解码模块通过长短期记忆模块连接。
本发明的有益效果:本发明基于循环多尺度网络架构,采用对称编码-解码框架实现不同尺度模块的特征融合,并构造自适应残差模块的方式,实现不同层次特征的自适应融合,重建出具有丰富细节信息的高分辨率图像。相比于其他方法,本发明的方法能有效地融合不同层次的特征,增强了细节表征,提高了超分辨效果。
附图说明
图1本发明方法的方法流程图;
图2本发明设计的神经网络结构图;
其中,(a)为本发明采用的网络结构,(b)为自适应残差块的结构;
图3位本发明实施例根据表1参数模拟扫描雷达实波束图像的结果;
图4为本发明实施例提供的实波束扫描雷达图像;
图5采用本发明方法进行超分辨处理所得结果。
具体实施方式
本发明主要采用仿真实验的方法进行验证,所有步骤、结论都在windows10操作系统平台上通过Pycharm(Python编译平台)验证正确。为便于本领域人员理解本发明的技术内容,下面结合附图对本发明内容进一步阐述。
如图1所示,本发明的实现过程为:
1.数据预处理
在训练前对输入的训练集数据进行预处理,具体过程是,将3000张512×512真实雷达图像作为目标场景,再用参数如表1的天线方位图函数对目标场景进行方位向的卷积,构造3000张等效于实波束图像,并形成3000对训练图像-实波束图像对。
表1实波束扫描雷达参数
参数 符号 数值
载波频率 <![CDATA[f<sub>0</sub>]]> 10GHz
发射信号带宽 <![CDATA[B<sub>r</sub>]]> 50MHz
脉冲重复频率 prf 3000Hz
天线波束3dB宽度 <![CDATA[θ<sub>3dB</sub>]]>
扫描速度 ω 120°/s
扫描范围 <![CDATA[θ<sub>min</sub>~θ<sub>max</sub>]]> -15°~15°
2.训练样本划分
将训练集中的每一对图像对(512×512)随机剪裁为256×256的图像块;并将样本块随机打乱顺序,同时保持训练图像-实波束图像的对应关系不变,以备构造网络训练。按照预先设定的batch size=10,即每批次输入10对训练图像块到构造网络训练。
3.网络结构设置
本发明的网络模型根据由粗粒到细粒的思想,采用多尺度输入的形式,将输入的细粒图像(256×256)下采样为中粒图像(128×128)和粗粒图像(64×64),分别作为网络的3种尺度输入。为了将不同尺度卷积模块提取的特征融合,整个网络采用对称的编码-解码结构框架,同时,在编码-解码框架内部通过增加权重学习模块的方法修改残差模块,构造自适应残差模块,以此替换对称编码-解码网络中的卷积模块,用于自适应地融合不同层次的特性。
本发明采用的对称编码-解码网络框架如图2(a)所示,分为粗、中、细3个尺度。每个尺度都具备相同的对称编码-解码网络框架,只是对应的输入图像的尺度不同。具体的:
粗粒尺度图像I1(64×64)输入到该尺度对应的对称编码-解码网络,得到网络处理的输出图像O1(64×64)。
对图像O1通过模块UP进行双线性插值提升图像点数128×128和中粒尺度图像I2(128×128)一起输入到中粒尺度对应的对称编码-解码网络,得到网络处理的输出图像O2(128×128)。
对图像O2通过模块UP进行双线性插值提升图像点数为256×256和细粒尺度图像I3(256×256)一起输入到中粒尺度对应的对称编码-解码网络,得到网络处理的输出图像O3(256×256)。其中细粒尺度对称编码-解码网络的输出图像O3就是对图像I3的方位向超分辨结果。
对于每个尺度的对称编码-解码网络,其编码部分都是通过3个编码模块(分别为编码器1、编码器2、编码器3)串联而成的。其中,编码模块是由一层卷积层(5×5)和3个结构相同的自适应残差模块(维度分别为32,64,128)串联而成。其解码部分是通过3个解码模块(分别为解码器1、解码器2、解码器3)串联而成的。其中,解码模块是由一层反卷积层(5×5)和3个与编码模块维度相对应的自适应残差模块(维度分别为128,64,32)串联而成。连接编码部分和解码部分的模块是长短期记忆(LSTM)模块,用于在编码-解码网络中解决网络中的梯度消失的问题。
自适应残差块的函数可以用下面的方程表示:
y=A·x+B·F(x)   (1)
其中,x是输入特征,y是输出特征,F()表示残差块。由公式(1)可见,x与F(x)的权值都是不是固定的。其中,它们的权值是通过与一个学习模块得到的。自适应残差块的结构如图2(b)所示,输入特征x通过5×5的卷积层(CONV)后通过激活函数(ReLU)再输入到一层5×5的卷积层(CONV),得到F(x),x与F(x)串联后通过1×1的卷积层学习权重参数,再分别与输入特征x和残差块输出F(x)对应相乘相加,最终得到自适应残差模块的输出y。
4.网络训练
4.1构造损失函数
本发明是要构建一个实波束雷达图像到训练图像之间的映射,因此目的在于最小化本网络输出图像Y与原高分辨率图像R之间的差异,这就是本发明中构造Loss函数的依据,这里使用均方误差MSE进行Loss函数设置;
Figure BDA0003518082590000051
其中,N*是训练图像的个数,Ii是训练图像,Ii *是网络预测的结果。
4.2参数设置
初始学习速率设定为ε=0.0001,每2000步进行指数衰减epochNum=2000,学习率衰减倍数设定为εd=0.3,当学习速率衰减到终止学习速率εe=0.000001时训练结束。公式如下:
ε=0.95epochNumεd
在此基础上,采用Adam优化算法进行Loss函数的优化,其中Adam优化算法的参数如下学习率learning_rate=0.001,衰减速度beta1=0.9,衰减速度beta2=0.999,epsilon=1e-8(epsilon用于加在分母上防止除0的情况发生),随着训练进行,Loss不断减小,当学习速率衰减到设定的终止学习速率时,终止训练,确定网络权重值与偏置值,得到网络模型。
5.超分辨处理
根据表1所示参数,模拟扫描雷达实波束图像,结果如图3所示。然后,将图4所示的实波束图像输入已经训练好的网络,输出得到超分辨图像。最终得到如图5所示的超分辨结果。从图5可以看出通过实波束扫描雷达成像后的方位向的目标混为一体时,可以将其分解开,具有优秀的超分辨能力;本发明的方法相比传统方法,训练完成后具有计算量小、成像质量高的优点。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。

Claims (7)

1.一种基于神经网络的实波束扫描雷达角超分辨方法,其特征在于,包括:
S1、构造训练图像-实波束图像对;
S2、将步骤S1的训练图像-实波束图像对剪裁为细粒图像;
S3、通过基于对称的编码-解码结构框架的神经网络得到实波束图像的超分辨结果;具体的:
所述神经网络包括下采样模块、三组对称的编码-解码结构;所述下采样模块将输入的细粒度图像下采样为中粒度图像和粗粒度图像;
粗粒度图像作为第一组对称的编码-解码结构的输入;
将第一组对称的编码-解码结构的输出提升图像点数至与中粒度图像一样,并将图像点数提升后的第一组对称的编码-解码结构的输出与中粒度图像一起作为第二组对称的编码-解码结构的输入;
将第二组对称的编码-解码结构的输出结果提升图像点数至与细粒度图像一样,并将图像点数提升后的第二组对称的编码-解码结构的输出与细粒度图像一起作为第三组对称的编码-解码结构的输入;第三组对称的编码-解码结构的输出为图像超分辨结果。
2.根据权利要求1所述的一种基于神经网络的实波束扫描雷达角超分辨方法,其特征在于,步骤S1具体为:将真实雷达场景图像作为训练图像,采用天线方位图函数对训练图像进行方位向的卷积,构造实波束图像;根据训练图像与构造的实波束图像,得到训练图像-实波束图像对。
3.根据权利要求2所述的一种基于神经网络的实波束扫描雷达角超分辨方法,其特征在于,所述三组对称的编码-解码结构中均包括编码模块与解码模块,且各自的编码模块、解码模块的结构相同。
4.根据权利要求3所述的一种基于神经网络的实波束扫描雷达角超分辨方法,其特征在于,所述编码模块包括一层卷积层与三个串联的结构相同的自适应残差模块。
5.根据权利要求4所述的一种基于神经网络的实波束扫描雷达角超分辨方法,其特征在于,所述解码模块包括一层反卷积层以及与编码模块维度对应的三个串联的结构相同的自适应残差模块。
6.根据权利要求5所述的一种基于神经网络的实波束扫描雷达角超分辨方法,其特征在于,所述自适应残差模块对应的表达式为:
y=A·x+B·F(x)
其中,x是输入特征,y是输出特征,F()表示残差块。
7.根据权利要求6所述的一种基于神经网络的实波束扫描雷达角超分辨方法,其特征在于,每组对称的编码-解码结构中编码模块与解码模块通过长短期记忆模块连接。
CN202210173222.8A 2022-02-24 2022-02-24 一种基于神经网络的实波束扫描雷达角超分辨方法 Active CN114545405B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210173222.8A CN114545405B (zh) 2022-02-24 2022-02-24 一种基于神经网络的实波束扫描雷达角超分辨方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210173222.8A CN114545405B (zh) 2022-02-24 2022-02-24 一种基于神经网络的实波束扫描雷达角超分辨方法

Publications (2)

Publication Number Publication Date
CN114545405A CN114545405A (zh) 2022-05-27
CN114545405B true CN114545405B (zh) 2023-05-02

Family

ID=81677591

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210173222.8A Active CN114545405B (zh) 2022-02-24 2022-02-24 一种基于神经网络的实波束扫描雷达角超分辨方法

Country Status (1)

Country Link
CN (1) CN114545405B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102967858A (zh) * 2012-11-14 2013-03-13 电子科技大学 雷达前视超分辨成像方法
CN103412305A (zh) * 2013-07-15 2013-11-27 电子科技大学 扫描雷达超分辨成像方法
CN106981710A (zh) * 2016-01-15 2017-07-25 日本电产艾莱希斯株式会社 波导装置、天线装置以及雷达
CN207541262U (zh) * 2016-02-08 2018-06-26 日本电产株式会社 雷达系统
CN110163802A (zh) * 2019-05-20 2019-08-23 电子科技大学 一种基于神经网络的sar图像超分辨方法
WO2020094783A1 (en) * 2018-11-08 2020-05-14 Telefonaktiebolaget Lm Ericsson (Publ) Measurement adaptation based on channel hardening
CN113795773A (zh) * 2019-03-08 2021-12-14 欧司朗股份有限公司 用于lidar传感器系统的部件,lidar传感器系统,lidar传感器装置,用于lidar传感器系统的方法和用于lidar传感器装置的方法
WO2022031299A1 (en) * 2020-08-07 2022-02-10 Google Llc Smart-device-based radar system performing angular position estimation

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8745677B2 (en) * 2009-06-12 2014-06-03 Cygnus Broadband, Inc. Systems and methods for prioritization of data for intelligent discard in a communication network
US11378654B2 (en) * 2018-08-02 2022-07-05 Metawave Corporation Recurrent super-resolution radar for autonomous vehicles
US11836852B2 (en) * 2019-12-20 2023-12-05 Board Of Trustees Of The University Of Illinois Neural network-based millimeter-wave imaging system
US11899132B2 (en) * 2020-01-03 2024-02-13 Qualcomm Incorporated Super-resolution enhancement techniques for radar
US20210208272A1 (en) * 2020-01-06 2021-07-08 Tal Lavian Radar target detection system for autonomous vehicles with ultra-low phase-noise frequency synthesizer
US11508037B2 (en) * 2020-03-10 2022-11-22 Samsung Electronics Co., Ltd. Systems and methods for image denoising using deep convolutional networks

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102967858A (zh) * 2012-11-14 2013-03-13 电子科技大学 雷达前视超分辨成像方法
CN103412305A (zh) * 2013-07-15 2013-11-27 电子科技大学 扫描雷达超分辨成像方法
CN106981710A (zh) * 2016-01-15 2017-07-25 日本电产艾莱希斯株式会社 波导装置、天线装置以及雷达
CN207541262U (zh) * 2016-02-08 2018-06-26 日本电产株式会社 雷达系统
WO2020094783A1 (en) * 2018-11-08 2020-05-14 Telefonaktiebolaget Lm Ericsson (Publ) Measurement adaptation based on channel hardening
CN113795773A (zh) * 2019-03-08 2021-12-14 欧司朗股份有限公司 用于lidar传感器系统的部件,lidar传感器系统,lidar传感器装置,用于lidar传感器系统的方法和用于lidar传感器装置的方法
CN110163802A (zh) * 2019-05-20 2019-08-23 电子科技大学 一种基于神经网络的sar图像超分辨方法
WO2022031299A1 (en) * 2020-08-07 2022-02-10 Google Llc Smart-device-based radar system performing angular position estimation

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Jie Li.Low-Rank Approximation-Based Super-Resolution Imaging for Airborne Forward-Looking Radar.《2020 IEEE Radar Conference (RadarConf20)》.2020,(第1期),全文. *
于健文.多通道雷达前视超分辨成像方法研究.《中国优秀硕士学位论文全文数据库信息科技辑》.2022,(第1期),全文. *
李杰.扫描雷达超分辨快速成像方法研究.《中国优秀硕士学位论文全文数据库信息科技辑》.2023,(第1期),全文. *
管金称..机载雷达前视探测方位超分辨算法.《信号处理》.2014,第30卷(第12期),全文. *

Also Published As

Publication number Publication date
CN114545405A (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
CN109711413B (zh) 基于深度学习的图像语义分割方法
CN110517195B (zh) 无监督sar图像去噪方法
CN110136162B (zh) 无人机视角遥感目标跟踪方法及装置
CN110208796B (zh) 基于奇异值逆滤波的扫描雷达超分辨成像方法
Zhu et al. Shadow compensation for synthetic aperture radar target classification by dual parallel generative adversarial network
Hui et al. Two-stage convolutional network for image super-resolution
CN113567982A (zh) 基于混合范数的方位向周期采样数据稀疏sar成像方法及装置
CN111968036A (zh) 一种分层图像超分辨率方法、系统、计算机设备及应用
CN110415180A (zh) 一种基于小波卷积神经网络的sar图像去噪方法
CN114545405B (zh) 一种基于神经网络的实波束扫描雷达角超分辨方法
Zeng et al. Progressive feature fusion attention dense network for speckle noise removal in OCT images
Sudhakar Ilango et al. Hybrid two-dimensional dual tree—biorthogonal wavelet transform and discrete wavelet transform with fuzzy inference filter for robust remote sensing image compression
Yuan et al. [Retracted] Weather Radar Image Superresolution Using a Nonlocal Residual Network
Yang et al. Image defogging based on amended dark channel prior and 4‐directional L1 regularisation
CN112785517A (zh) 一种基于高分辨率表征的图像去雾方法和装置
CN111784583A (zh) 一种用于降水图的循环随机超分辨率生成对抗网络
Yu et al. SAR image super-resolution base on weighted dense connected convolutional network
Yang et al. Remote sensing image super‐resolution based on convolutional blind denoising adaptive dense connection
CN116228576A (zh) 基于注意力机制与特征增强的图像去雾方法
Li et al. Image denoising via multi-scale gated fusion network
CN115409705A (zh) 一种面向sar图像目标识别模型的对抗样本生成方法
CN108681988B (zh) 一种基于多幅图像的鲁棒的图像分辨率增强方法
CN114037843A (zh) 一种基于改进生成对抗网络的提高水下图像分辨率方法
Li et al. SE–RWNN: an synergistic evolution and randomly wired neural network‐based model for adaptive underwater image enhancement
Chen et al. Multi‐scale single image dehazing based on the fusion of global and local features

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant