CN116385319B - 一种基于场景认知的雷达图像相干斑滤波方法及装置 - Google Patents

一种基于场景认知的雷达图像相干斑滤波方法及装置 Download PDF

Info

Publication number
CN116385319B
CN116385319B CN202310612922.7A CN202310612922A CN116385319B CN 116385319 B CN116385319 B CN 116385319B CN 202310612922 A CN202310612922 A CN 202310612922A CN 116385319 B CN116385319 B CN 116385319B
Authority
CN
China
Prior art keywords
filtering
radar image
speckle
feature
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310612922.7A
Other languages
English (en)
Other versions
CN116385319A (zh
Inventor
陈思伟
邓均午
李铭典
周鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202310612922.7A priority Critical patent/CN116385319B/zh
Publication of CN116385319A publication Critical patent/CN116385319A/zh
Application granted granted Critical
Publication of CN116385319B publication Critical patent/CN116385319B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nonlinear Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明提出一种基于场景认知的雷达图像相干斑滤波方法及装置,选取已知的滤波方法的相干斑滤波结果作为训练数据训练所构建的雷达图像相干斑滤波模型,通过设计的双分支特征提取模块分别对匀质区域和目标区域进行特征提取。在此基础上,使用监督注意力机制对提取得到的特征进行加权,并构建特征损失函数,引导和更新双分支特征提取模块的权重,以学习已知的滤波方法的滤波特性,能够实现雷达图像相干斑滤波模型对匀质区域滤波和人造目标强点保护的权衡,由此得到的相干斑滤波结果具有更高的等效视数和目标杂波比。

Description

一种基于场景认知的雷达图像相干斑滤波方法及装置
技术领域
本发明主要涉及到雷达成像遥感技术领域,尤其是一种基于场景认知的雷达图像相干斑滤波方法及装置。
背景技术
作为一种主动的航天、航空遥感手段,雷达成像技术具有全天时、全天候工作的特点,合成孔径雷达(Synthetic Aperture Radar, SAR)能够对目标进行高分辨率成像,被广泛应用于地物分类和目标检测。然而,相干斑影响了对SAR图像的分析与理解。
相干斑给雷达图像解译带来困难,降低了雷达图像中目标与杂波的对比度,影响雷达图像解译精度。目前,雷达图像相干斑滤波中的基于上下文协方差矩阵+相似性检验(contextcovariancematrix +similaritytest, CCM+SimiTest)方法能够很好地实现匀质区域的平滑滤波,而改进的西格玛(Improved Sigma)方法对人造目标区域的保护效果较好,但是这些方法没有综合考虑对匀质区域的平滑滤波和对人造目标强点的保护,影响雷达图像的人造目标信息提取和解译。
随着深度学习的迅猛发展,基于神经网络的相干斑滤波算法得到了广泛的关注和研究,但是基于监督模型的滤波算法还面临泛化性不足的挑战。现有方法大多采用两种途径获得参考真值图像进行监督学习和训练。第一种为在光学图像上叠加仿真的相干斑噪声,参考真值图像为原始光学图像。注意到,光学图像与雷达图像的成像机理差异明显,该方法存在泛化性不足的问题。第二种为对多帧配对的多时相雷达图像进行多视处理,以多视处理的结果作为参考真值图像。然而多时相雷达图像很难获取,制约了基于监督模型的深度学习相干斑滤波方法。
发明内容
针对现有技术存在的技术问题,本发明提出一种基于场景认知的雷达图像相干斑滤波方法及装置。
为实现上述目的,本发明采用的技术方案如下:
一方面,本发明提供一种基于场景认知的雷达图像相干斑滤波方法,包括:
对原始雷达图像数据采用两种不同滤波方法进行滤波获得两个滤波结果,分别为和/>,得到基于原始雷达图像数据及其对应两个滤波结果构成的雷达图像训练数据集;
构建基于场景认知的雷达图像相干斑滤波模型,所述基于场景认知的雷达图像相干斑滤波模型对输入的原始雷达图像数据中的匀质区域和目标区域进行特征提取,得到第一特征和第二特征;基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第一特征的各层网络单元的权重,以学习第一滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第一特征进行加权得到对应的第一加权特征;基于第二特征图、原始雷达图像数据以及第二滤波结果构建第二损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第二特征的各层网络单元的权重,以学习第二滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第二特征进行加权得到对应的第二加权特征;将第一加权特征和第二加权特征进行拼接,从拼接得到的特征中估计得到相干斑,对原始雷达图像数据进行相干斑滤波;
基于两个滤波结果和/>以及雷达图像相干斑滤波模型输出的雷达图像数据相干斑滤波结果/>构建所述基于场景认知的雷达图像相干斑滤波模型的整体损失函数;
利用所述雷达图像训练数据集对所述雷达图像相干斑滤波模型进行训练,直至所述整体损失函数满足预设条件,获得训练好的基于场景认知的雷达图像相干斑滤波模型;
将待进行相干斑滤波的雷达图像数据输入所述训练好的基于场景认知的雷达图像相干斑滤波模型实现相干斑滤波。
进一步地,本发明所述基于场景认知的雷达图像相干斑滤波模型包括由两个分支特征提取模块并联而成的双分支特征提取模块,原始雷达图像数据先经过conv3×3和ReLU激活函数提取特征图,将提取到的特征图送入两个分支特征提取模块,两个分支特征提取模块均由多个卷积神经网络残差单元级联而成,并通过多个跳线将前级卷积神经网络残差单元的特征提取结果传递到后一级的卷积神经网络残差单元,构成密集残差连接的结构;由两个分支特征提取模块分别对原始雷达图像数据中的匀质区域和目标区域进行特征提取,得到第一特征和第二特征。
进一步地,本发明所述卷积神经网络残差单元由卷积层和激活层组成。
进一步地,本发明中所述基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数,包括:
初步估计第一特征中的相干斑;
基于初步估计得到的第一特征中的相干斑对原始雷达图像数据进行滤波,得到初步相干斑滤波后的雷达图像数据Z1;
基于初步相干斑滤波后的雷达图像数据与第一滤波结果/>构建第一损失函数,/>为矩阵的/>范数。
进一步地,本发明中使用监督注意力机制对第一特征进行加权得到对应的第一加权特征,包括:
将初步相干斑滤波后的雷达图像数据经卷积和sigmoid激活函数后得到注意力权重,基于所述注意力权重对第一特征经过卷积之后的特征/>进行加权,得到加权后的特征/>
将第一特征与加权后的特征相加得到第一加权特征/>
进一步地,本发明中基于第二特征、原始雷达图像数据以及第二滤波结果构建第二损失函数的方法,包括:
初步估计第二特征中的相干斑;
基于初步估计得到的第二特征中的相干斑对原始雷达图像数据进行滤波,得到初步相干斑滤波后的雷达图像数据
基于初步相干斑滤波后的雷达图像数据与第二滤波结果/>构建第二损失函数,/>为矩阵的/>范数。
进一步地,本发明中使用监督注意力机制对第二特征进行加权得到对应的第二加权特征,包括:
将初步相干斑滤波后的雷达图像数据经卷积和sigmoid激活函数后得到注意力权重,基于所述注意力权重对第二特征经过卷积之后的特征/>进行加权,得到加权后的特征/>
将第二特征与加权后的特征相加得到第二加权特征/>
进一步地,本发明中所述基于场景认知的雷达图像相干斑滤波模型的整体损失函数为:
其中为调节系数,取值小于1,/>代表矩阵的/>范数。
进一步地,本发明中所述整体损失函数满足预设条件为:当前图像相干斑滤波网络模型整体损失函数的值最小且当前图像相干斑滤波网络模型整体损失函数与上一轮计算得到的所述整体损失函数的差值小于0.001。
另一方面,本发明提供一种基于场景认知的雷达图像相干斑滤波装置,包括:
第一模块,用于对原始雷达图像数据采用两种不同滤波方法进行滤波获得两个滤波结果,分别为和/>,得到基于原始雷达图像数据及其对应两个滤波结果构成的雷达图像训练数据集;
第二模块,用于构建基于场景认知的雷达图像相干斑滤波模型,所述基于场景认知的雷达图像相干斑滤波模型对输入的原始雷达图像数据中的匀质区域和目标区域进行特征提取,得到第一特征和第二特征;基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第一特征的各层网络单元的权重,以学习第一滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第一特征进行加权得到对应的第一加权特征;基于第二特征图、原始雷达图像数据以及第二滤波结果构建第二损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第二特征的各层网络单元的权重,以学习第二滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第二特征进行加权得到对应的第二加权特征;将第一加权特征和第二加权特征进行拼接,从拼接得到的特征中估计得到相干斑,对原始雷达图像数据进行相干斑滤波;
第三模块,用于基于两个滤波结果和/>以及雷达图像相干斑滤波模型输出的雷达图像数据相干斑滤波结果/>构建所述基于场景认知的雷达图像相干斑滤波模型的整体损失函数;
第四模块,用于利用所述雷达图像训练数据集对所述雷达图像相干斑滤波模型进行训练,直至所述整体损失函数满足预设条件,获得训练好的基于场景认知的雷达图像相干斑滤波模型;
第五模块,用于将待进行相干斑滤波的雷达图像数据输入所述训练好的基于场景认知的雷达图像相干斑滤波模型实现相干斑滤波。
另一方面,本发明提供一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现以下步骤:
对原始雷达图像数据采用两种不同滤波方法进行滤波获得两个滤波结果,分别为和/>,得到基于原始雷达图像数据及其对应两个滤波结果构成的雷达图像训练数据集;
构建基于场景认知的雷达图像相干斑滤波模型,所述基于场景认知的雷达图像相干斑滤波模型对输入的原始雷达图像数据中的匀质区域和目标区域进行特征提取,得到第一特征和第二特征;基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第一特征的各层网络单元的权重,以学习第一滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第一特征进行加权得到对应的第一加权特征;基于第二特征图、原始雷达图像数据以及第二滤波结果构建第二损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第二特征的各层网络单元的权重,以学习第二滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第二特征进行加权得到对应的第二加权特征;将第一加权特征和第二加权特征进行拼接,从拼接得到的特征中估计得到相干斑,对原始雷达图像数据进行相干斑滤波;
基于两个滤波结果和/>以及雷达图像相干斑滤波模型输出的雷达图像数据相干斑滤波结果/>构建所述基于场景认知的雷达图像相干斑滤波模型的整体损失函数;
利用所述雷达图像训练数据集对所述雷达图像相干斑滤波模型进行训练,直至所述整体损失函数满足预设条件,获得训练好的基于场景认知的雷达图像相干斑滤波模型;
将待进行相干斑滤波的雷达图像数据输入所述训练好的基于场景认知的雷达图像相干斑滤波模型实现相干斑滤波。
另一方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
对原始雷达图像数据采用两种不同滤波方法进行滤波获得两个滤波结果,分别为和/>,得到基于原始雷达图像数据及其对应两个滤波结果构成的雷达图像训练数据集;
构建基于场景认知的雷达图像相干斑滤波模型,所述基于场景认知的雷达图像相干斑滤波模型对输入的原始雷达图像数据中的匀质区域和目标区域进行特征提取,得到第一特征和第二特征;基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第一特征的各层网络单元的权重,以学习第一滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第一特征进行加权得到对应的第一加权特征;基于第二特征图、原始雷达图像数据以及第二滤波结果构建第二损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第二特征的各层网络单元的权重,以学习第二滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第二特征进行加权得到对应的第二加权特征;将第一加权特征和第二加权特征进行拼接,从拼接得到的特征中估计得到相干斑,对原始雷达图像数据进行相干斑滤波;
基于两个滤波结果和/>以及雷达图像相干斑滤波模型输出的雷达图像数据相干斑滤波结果/>构建所述基于场景认知的雷达图像相干斑滤波模型的整体损失函数;
利用所述雷达图像训练数据集对所述雷达图像相干斑滤波模型进行训练,直至所述整体损失函数满足预设条件,获得训练好的基于场景认知的雷达图像相干斑滤波模型;
将待进行相干斑滤波的雷达图像数据输入所述训练好的基于场景认知的雷达图像相干斑滤波模型实现相干斑滤波。
相比现有技术,本发明的技术效果:
本发明选取已知的滤波方法(包括但不限于CCM+SimiTest和Improved Sigma两种传统方法)的相干斑滤波结果作为参考真值驱动所构建的基于场景认知的雷达图像相干斑滤波模型,通过设计的双分支特征提取模块分别对匀质区域和目标区域进行特征提取。在此基础上,使用监督注意力机制对提取得到的特征进行加权,并构建特征损失函数引导和更新双分支特征提取模块的权值,驱动双分支特征提取模块分别学习匀质区域和目标区域的相干斑模型,能够实现所述雷达图像相干斑滤波模型对匀质区域滤波和人造目标强点保护的权衡,由此得到的相干斑滤波结果具有更高的等效视数和目标杂波比。
本发明原理简单,实现简便,相干斑滤波结果具有更高的等效视数,能够为后续雷达目标的检测与识别提供重要技术支撑。
本发明除了可以选取CCM+SimiTest滤波结果和Improved Sigma滤波结果外,还可以是其他传统的相干斑滤波器得到的滤波结果。本发明中的分支数目可以依据参考真值类型的数目进行增加或者删减。此外,本发明方法亦可推广至双极化雷达图像以及全极化雷达图像等其它的极化雷达图像相关领域。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1是一实施例的流程图;
图2是一实施例中基于场景认知的雷达图像相干斑滤波模型的结构示意图;
图3是一实施例中双分支特征提取模块的结构示意图;
图4是一实施例中第一监督注意力模块的结构示意图;
图5是一实施例中第二监督注意力模块的结构示意图;
图6是一实施例中解码器模块的结构示意图;
图7是一实施例中原始雷达图像数据以及其CCM+SimiTest滤波结果和ImprovedSigma滤波结果,其中(a)为原始雷达图像数据,(b)为Improved Sigma滤波结果,(c)为CCM+SimiTest滤波结果;
图8是一实施例中原始雷达图像测试数据及其相干斑滤波结果对比图,其中(a)为原始雷达图像测试数据,(b)为原始雷达图像测试数据经SAR-CNN方法得到的滤波结果,(c)为采用本实施例提供的基于场景认知的雷达图像相干斑滤波方法的得到的滤波结果。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1,一实施例中提供一种基于场景认知的雷达图像相干斑滤波方法,包括:
(S1)获取原始雷达图像数据,利用两种不同滤波方法进行滤波获得两个滤波结果,构建雷达图像训练数据集;
(S2)构建基于场景认知的雷达图像相干斑滤波网络;
所述基于场景认知的雷达图像相干斑滤波模型对输入的原始雷达图像数据中的匀质区域和目标区域(本文中的目标区域包括但不限于人造目标区域)进行特征提取,得到第一特征和第二特征;基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第一特征的各层网络单元的权重,以学习第一滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第一特征进行加权得到对应的第一加权特征;基于第二特征图、原始雷达图像数据以及第二滤波结果构建第二损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第二特征的各层网络单元的权重,以学习第二滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第二特征进行加权得到对应的第二加权特征;将第一加权特征和第二加权特征进行拼接,从拼接得到的特征中估计得到相干斑,对原始雷达图像数据进行相干斑滤波。
(S3)构建基于场景认知的雷达图像相干斑滤波模型的整体损失函数;
基于两个滤波结果和/>以及雷达图像相干斑滤波模型输出的雷达图像数据相干斑滤波结果构建基于场景认知的雷达图像相干斑滤波模型的整体损失函数。
(S4)利用雷达图像训练数据集训练雷达图像相干斑滤波模型;
利用所述雷达图像训练数据集对所述雷达图像相干斑滤波模型进行训练,直至所述整体损失函数满足预设条件,获得训练好的基于场景认知的雷达图像相干斑滤波模型。
(S5)使用训练好的基于场景认知的雷达图像相干斑滤波模型对待进行相干斑滤波的雷达图像数据进行相干斑滤波。
可以理解,上述实施例的步骤(S1)中,本领域技术人员可以基于经验或者实际情况选取现有技术中任何滤波方法对雷达图像数据进行滤波,获得对应的滤波结果,本发明不对该步骤中所选取的滤波方法做限制。
在一实施例中选取的两种滤波方法分别是CCM+SimiTest滤波方法和ImprovedSigma滤波方法,即在步骤(S1)中选取CCM+SimiTest滤波方法和Improved Sigma滤波方法对原始雷达图像数据进行滤波,获得两个滤波结果,分别记为为和/>,得到基于原始雷达图像数据及其对应两个滤波结果/>和/>构成的雷达图像训练数据集。
参照图2,一实施例提供一种基于场景认知的雷达图像相干斑滤波模型,包括双分支特征提取模块、特征加权融合模块、解码器模块和滤波模块。
双分支特征提取模块为由两个分支特征提取模块并联而成,两个分支特征提取模块分别为第一特征提取模块和第二特征提取模块。两个特征提取模块分别对输入的原始雷达图像数据中的匀质区域和目标区域进行特征提取,得到第一特征和第二特征。
所述特征加权融合模块包括第一监督注意力模块、第二监督注意力模块和特征拼接模块。第一监督注意力模块基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第一特征的各层网络单元的权重,以学习第一滤波结果所对应滤波方法的滤波特性。同时使用监督注意力机制对第一特征进行加权得到对应的第一加权特征并输出;第二监督注意力模块基于第二特征图、原始雷达图像数据以及第二滤波结果构建第二损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第二特征的各层网络单元的权重,以学习第二滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第二特征进行加权得到对应的第二加权特征并输出。特征拼接模块将第一加权特征和第二加权特征进行拼接后输出。
所述解码器模块从特征拼接模块输出的特征中估计得到相干斑。
所述滤波模块对原始雷达图像数据进行相干斑滤波;
上述实施例提出的基于场景认知的雷达图像相干斑滤波模型能够有效权衡对匀质区域的平滑滤波和对目标区域强点的保护,相干斑滤波结果具有更高的等效视数和目标杂波对比度。
一实施例提出的一种双分支特征提取模块,具体实现方法是:原始雷达图像数据先经过conv3×3和ReLU激活函数提取特征图,将提取到的特征图分别送入两个分支特征提取模块。两个分支特征提取模块均由多个卷积神经网络残差单元级联而成,并通过多个跳线将前级卷积神经网络残差单元的特征提取结果传递到后一级的卷积神经网络残差单元,构成密集残差连接的结构;由两个分支特征提取模块分别对原始雷达图像数据中的匀质区域和目标区域进行特征提取,得到第一特征和第二特征。这种设计有利于浅层特征的传播,能够减少网络参数数量,加快网络收敛速度。其中,卷积神经网络残差单元由卷积层(Convolutional Layer, Conv)和激活层(Rectified Linear Unit, ReLU)组成。
参照图3,一实施例提出的一种双分支特征提取模块,原始雷达图像数据先经过conv3×3和ReLU激活函数提取特征图,其中conv3×3卷积的输入通道数为1,输出通道数为64。提取到的特征图分别送入到两个分支特征提取模块。每个分支特征提取模块均由四层卷积神经网络残差单元级联而成,每层卷积神经网络残差单元均由conv3×3和ReLU激活函数组成。其中每个分支特征提取模块采用密集残差连接结构,卷积的输入通道数为64,输出通道数也为64。
图4是一实施例中第一监督注意力模块的结构示意图;图5是一实施例中第二监督注意力模块的结构示意图;第一监督注意力模块和第二监督注意力模块是用来分别学习步骤(S1)中两种不同滤波方法的滤波特性。如滤波方法选取的是CCM+SimiTest和ImprovedSigma,则第一监督注意力模块和第二监督注意力模块是用来分别学习CCM+SimiTest和Improved Sigma的滤波特性。
第一监督注意力模块基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数,引导和更新第一特征对应的特征提取模块的权重,学习第一滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第一特征进行加权得到对应的第一加权特征并输出。
如图4所示,一实施例中的第一监督注意力模块,对输入的第一特征经过conv1(记为卷积 1)降通道后得到初步估计的第一特征中的相干斑;基于初步估计得到的第一特征中的相干斑对原始雷达图像数据进行滤波,得到初步相干斑滤波后的雷达图像数据;基于初步相干斑滤波后的雷达图像数据/>与第一滤波结果/>构建第一损失函数,/>为矩阵的/>范数。通过对第一损失函数使用优化算法(包括但不限于梯度下降法)更新第一特征提取模块中每一层卷积神经网络残差单元参数的权重。同时将初步相干斑滤波后的雷达图像数据/>经卷积和sigmoid激活函数后得到注意力权重,基于所述注意力权重对第一特征经过卷积之后的特征/>进行加权,得到加权后的特征/>;将第一特征与加权后的特征/>相加得到第一加权特征/>并输出。
第二监督注意力模块基于第二特征图、原始雷达图像数据以及第二滤波结果构建第二损失函数,引导和更新第二特征对应的特征提取模块的权重,学习第二滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第二特征进行加权得到对应的第二加权特征并输出。
如图5所示,一实施例中的第二监督注意力模块,对输入的第二特征经过conv1(记为卷积 1)降通道后得到初步估计的第二特征中的相干斑;基于初步估计得到的第二特征中的相干斑对原始雷达图像数据进行滤波,得到初步相干斑滤波后的雷达图像数据;基于初步相干斑滤波后的雷达图像数据/>与第二滤波结果/>构建第二损失函数,/>为矩阵的/>范数。具体地,通过对第二损失函数使用优化算法(包括但不限于梯度下降法)更新第二特征提取模块中每一层卷积神经网络残差单元参数的权重。同时将初步相干斑滤波后的雷达图像数据/>经卷积和sigmoid激活函数后得到注意力权重,基于所述注意力权重对第二特征经过卷积之后的特征/>进行加权,得到加权后的特征/>;将第二特征与加权后的特征/>相加得到第二加权特征/>
最后由特征拼接模块将第一监督注意力模块和第二监督注意力模块输出的第一加权特征和第二加权特征/>进行拼接并输出。特征拼接模块通过特征拼接的方式对两个分支提取得到深度特征进行融合。
一实施例中的解码器模块,解码器模块由多个卷积单元组成,卷积单元的具体数目不限。解码器模块用于从融合后的特征中估计相干斑。解码器模块中的卷积单元由一个卷积层和一个激活层组成。
参照图6,一实施例中的解码器模块,对特征拼接模块输出的特征进行降通道,该解码器模块由四层卷积单元组成,每层卷积单元均由conv3×3和ReLU激活函数组成,前几层卷积单元的的输入通道数为64,输出通道数也为64。最后一层卷积单元的输入通道数为64,输出特征通道数为1。
最后由模型中的滤波模块,从原始雷达图像数据中减去解码器模块输出的估计得到的相干斑,得到雷达图像相干斑滤波结果
为了充分利用步骤S1中所选用的两种滤波方法的优势,本发明采用整体损失函数对基于场景认知的雷达图像相干斑滤波模型整体的参数进行更新,整体损失函数为:
其中为调节系数,取值小于1,/>代表矩阵的/>范数。
本发明一实施例中,步骤(S1)中选用的滤波方法是中CCM+SimiTest滤波方法和Improved Sigma滤波方法,采用CCM+SimiTest滤波方法对原始雷达图像数据进行滤波获得的滤波结果记为,采用/>滤波方法对原始雷达图像数据进行滤波获得的滤波结果记为/>。为了充分利用传统方法中CCM+SimiTest滤波器对匀质区域平滑滤波的优势以及Improved Sigma滤波器对人造目标强点的保护能力,本发明采用整体损失函数/>对基于场景认知的雷达图像相干斑滤波模型整体的参数进行更新,整体损失函数/>为:
其中,为调节系数,取值小于1,可以根据实验结果进行调整和设置。/>代表矩阵的/>范数。上述方案能够利用CCM+SimiTest滤波器对匀质区域平滑滤波的优势以及Improved Sigma滤波器对人造目标强点的保护能力。通过构建双分支网络结构模型,能够综合利用多参考真值雷达图像数据信息,实现对雷达图像匀质区域平滑滤波和人造目标强点保护的权衡。
本发明的除了可以选取CCM+SimiTest滤波结果和Improved Sigma滤波结果外,还可以是其他传统的相干斑滤波器得到的滤波结果。不同传统滤波方法具有不同的优势,通过本发明所提出的方法能够有效结合不同滤波方法的优势,实现更好的滤波效果。
可以理解,本发明对模型终止训练的结束条件不作限制,本领域技术人员可以基于本领域公知的方法或者基于经验、惯用手段进行合理的设定,包括但不限于设定最大迭代次数等。本发明一优选实施例中,所述整体损失函数满足预设条件时模型训练终止,具体为:当前图像相干斑滤波网络模型整体损失函数的值最小且当前图像相干斑滤波网络模型整体损失函数与上一轮计算得到的所述整体损失函数的差值小于0.001。
在本发明一实施例中,提供一种基于场景认知的雷达图像相干斑滤波方法,具体包括:
步骤(S1)中获取雷达图像数据及其CCM+SimiTest滤波结果和Improved Sigma滤波结果,分别为/>和/>。以MiniSAR数据为例,原始雷达图像数据以及其CCM+SimiTest滤波结果和Improved Sigma滤波结果,如图7所示,其中(a)为原始雷达图像数据,(b)为Improved Sigma滤波结果,(c)为CCM+SimiTest滤波结果。
步骤(S2)中所构建的基于场景认知的雷达图像相干斑滤波模型是基于图2至图6所示模型和模块结构而实现的。
具体地,双分支特征提取模块由4个卷积神经网络残差单元级联组成,并通过多个跳线将前级的特征提取结果传递到后续卷积单元,构成密集残差连接的结构。其中,CNN残差单元由卷积层和激活层组成。
特征加权融合模块由两个监督注意力模块(Supervosed Attention Module,SAM)和一个特征融合模块组成。构建的特征损失函数为和/>,引导和更新双分支网络特征提取层的权重,分别学习CCM+SimiTest和Improved Sigma滤波特性,分别为:
其中,CCM+SimiTest和Improved Sigma滤波参考真值分别记为,/>为矩阵的1范数。首先使用双分支网络分别提取具有CCM+SimiTest和Improved Sigma滤波特性的特征,为了进一步融合CCM+SimiTest和Improved Sigma滤波特性优势,将提取到的特征经过卷积降维得到滤波结果/>和/>,将滤波结果/>和/>进行卷积处理,经过sigmoid激活函数得到注意力权重。然后使用注意力权重与双分支网络得到的特征图进行空间维度和通道维度加权,得到加权特征输出。在此基础上,通过特征融合模块融合两个分支提取得到深度特征。其中,特征融合模块通过特征拼接的方式融合特征。
解码器模块由4个卷积单元组成,用于从双分支得到的融合特征中估计相干斑。卷积单元由一个卷积层和一个激活层组成。最后从原始雷达图像数据中减去估计得到相干斑,得到雷达图像相干斑滤波结果
图2 中的损失函数,表示为:
在一实施例中的步骤(S3)中,采用整体损失函数对雷达图像相干斑滤波模型整体的参数进行更新,整体损失函数/>为:
其中,为调节系数,根据实验结果,这里选取/>
步骤(S4)中,使用MiniSAR20050519p0009image003数据训练基于场景认知的雷达图像相干斑滤波模型。其中,网络优化器选取自适应矩量估计(Adaptive MomentEstimation, ADAM)优化器。其中,优化器参数设置为、/>以及/>,网络的学习率设置为0.001。
步骤(S5)中,使用训练好的基于场景认知的雷达图像相干斑滤波模型对其他场景下的雷达图像进行相干斑滤波,并与SAR-CNN方法进行对比。其中,MiniSAR20050519p0009image005数据下的相干斑滤波结果如图8所示,选取三个匀质区域ROI 1-3以及飞机目标和建筑物进行进一步定量分析,图8中(a)为原始雷达图像测试数据,其中标号1、2、3、4和5分别代表飞机目标、建筑物、第一个匀质区域ROI1、第二个匀质区域ROI2和第三个匀质区域ROI3,(b)为原始雷达图像测试数据经SAR-CNN方法得到的滤波结果,(c)为采用本实施例提供的基于场景认知的雷达图像相干斑滤波方法的得到的滤波结果。可以观察到本发明提出的方法相干斑滤波结果更为优异,匀质区域滤波效果更为平滑,同时能很好保护飞机和建筑物目标的结构。采用等效视数(Equivalent Number of Look,ENL)和目标杂波对比度(Target to Clutter Ratio,TCR)指标对相干斑滤波结果定量化评估,结果如表格 1和表格 2所示。可以看到本发明方法优于对比方法,ENL指标平均提升184.08,TCR指标平均提升0.6dB。
表格1 不同方法平均ENL结果对比
表格2同方法平均TCR(dB)结果对比
根据上述实施例可知,其能够有效权衡对匀质区域的平滑滤波和对人造目标强点的保护,相干斑滤波结果具有更高的等效视数和目标杂波对比度。
另一方面,一实施例提供一种基于场景认知的雷达图像相干斑滤波装置,包括:
第一模块,用于对原始雷达图像数据采用两种不同滤波方法进行滤波获得两个滤波结果,分别为Y 1Y 2,得到基于原始雷达图像数据及其对应两个滤波结果构成的雷达图像训练数据集;
第二模块,用于构建基于场景认知的雷达图像相干斑滤波模型,所述基于场景认知的雷达图像相干斑滤波模型对输入的原始雷达图像数据中的匀质区域和目标区域进行特征提取,得到第一特征和第二特征;基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第一特征的各层网络单元的权重,以学习第一滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第一特征进行加权得到对应的第一加权特征;基于第二特征图、原始雷达图像数据以及第二滤波结果构建第二损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第二特征的各层网络单元的权重,以学习第二滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第二特征进行加权得到对应的第二加权特征;将第一加权特征和第二加权特征进行拼接,从拼接得到的特征中估计得到相干斑,对原始雷达图像数据进行相干斑滤波;
第三模块,用于基于两个滤波结果和/>以及雷达图像相干斑滤波模型输出的雷达图像数据相干斑滤波结果/>构建所述基于场景认知的雷达图像相干斑滤波模型的整体损失函数;
第四模块,用于利用所述雷达图像训练数据集对所述雷达图像相干斑滤波模型进行训练,直至所述整体损失函数满足预设条件,获得训练好的基于场景认知的雷达图像相干斑滤波模型;
第五模块,用于将待进行相干斑滤波的雷达图像数据输入所述训练好的基于场景认知的雷达图像相干斑滤波模型实现相干斑滤波。
上述各模块的实现方法以及模型的构建均可采用前述任一实施例的中所描述的方法,在此不再赘述。
另一方面,本发明提供一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述任一实施例中所提供的基于场景认知的雷达图像相干斑滤波方法的步骤。该计算机设备可以是服务器。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储样本数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。
另一方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任一实施例中所提供的基于场景认知的雷达图像相干斑滤波方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
本发明未尽事宜为公知技术。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
以上所述仅为本发明的优选的实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于场景认知的雷达图像相干斑滤波方法,其特征在于,包括:
对原始雷达图像数据采用两种不同滤波方法进行滤波获得两个滤波结果,分别为第一滤波结果Y 1和第二滤波结果Y 2,得到基于原始雷达图像数据及其对应两个滤波结果构成的雷达图像训练数据集;
构建基于场景认知的雷达图像相干斑滤波模型,所述基于场景认知的雷达图像相干斑滤波模型对输入的原始雷达图像数据中的匀质区域和目标区域进行特征提取,得到第一特征和第二特征;基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第一特征的各层网络单元的权重,以学习第一滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第一特征进行加权得到对应的第一加权特征;基于第二特征图、原始雷达图像数据以及第二滤波结果构建第二损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第二特征的各层网络单元的权重,以学习第二滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第二特征进行加权得到对应的第二加权特征;将第一加权特征和第二加权特征进行拼接,从拼接得到的特征中估计得到相干斑,对原始雷达图像数据进行相干斑滤波;其中基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数的方法,包括:
初步估计第一特征中的相干斑;
基于初步估计得到的第一特征中的相干斑对所述原始雷达图像数据进行滤波,得到初步相干斑滤波后的雷达图像数据Z1;
基于初步相干斑滤波后的雷达图像数据Z1与第一滤波结果Y 1构建第一损失函数,/>为矩阵的/>范数;
基于第二特征、原始雷达图像数据以及第二滤波结果构建第二损失函数的方法,包括:
初步估计第二特征中的相干斑;
基于初步估计得到的第二特征中的相干斑对原始雷达图像数据进行滤波,得到初步相干斑滤波后的雷达图像数据Z2;
基于初步相干斑滤波后的雷达图像数据Z2与第二滤波结果Y 2构建第二损失函数,/>为矩阵的/>范数;
基于两个滤波结果Y 1Y 2以及雷达图像相干斑滤波模型输出的雷达图像数据相干斑滤波结果构建所述基于场景认知的雷达图像相干斑滤波模型的整体损失函数;
利用所述雷达图像训练数据集对所述雷达图像相干斑滤波模型进行训练,直至所述整体损失函数满足预设条件,获得训练好的基于场景认知的雷达图像相干斑滤波模型;
将待进行相干斑滤波的雷达图像数据输入所述训练好的基于场景认知的雷达图像相干斑滤波模型实现相干斑滤波。
2.根据权利要求1所述的基于场景认知的雷达图像相干斑滤波方法,其特征在于,所述基于场景认知的雷达图像相干斑滤波模型包括由两个分支特征提取模块并联而成的双分支特征提取模块,原始雷达图像数据先经过conv3×3和ReLU激活函数提取特征图,将提取到的特征图送入两个分支特征提取模块,两个分支特征提取模块均由多个卷积神经网络残差单元级联而成,并通过多个跳线将前级卷积神经网络残差单元的特征提取结果传递到后一级的卷积神经网络残差单元,构成密集残差连接的结构;由两个分支特征提取模块分别对原始雷达图像数据中的匀质区域和目标区域进行特征提取,得到第一特征和第二特征。
3.根据权利要求2所述的基于场景认知的雷达图像相干斑滤波方法,其特征在于,所述卷积神经网络残差单元由卷积层和激活层组成。
4.根据权利要求1或2或3所述的基于场景认知的雷达图像相干斑滤波方法,其特征在于,使用监督注意力机制对第一特征进行加权得到对应的第一加权特征,包括:
将初步相干斑滤波后的雷达图像数据Z1经卷积和sigmoid激活函数后得到注意力权重,基于所述注意力权重对第一特征经过卷积之后的特征进行加权,得到加权后的特征
将第一特征与加权后的特征相加得到第一加权特征/>
5.根据权利要求4所述的基于场景认知的雷达图像相干斑滤波方法,其特征在于,使用监督注意力机制对第二特征进行加权得到对应的第二加权特征,包括:
将初步相干斑滤波后的雷达图像数据Z2经卷积和sigmoid激活函数后得到注意力权重,基于所述注意力权重对第二特征经过卷积之后的特征进行加权,得到加权后的特征/>
将第二特征与加权后的特征相加得到第二加权特征/>
6.根据权利要求1或2或3或5所述的基于场景认知的雷达图像相干斑滤波方法,其特征在于,所述基于场景认知的雷达图像相干斑滤波模型的整体损失函数为:
其中为调节系数,取值小于1,l代表矩阵的l范数。
7.根据权利要求6所述的基于场景认知的雷达图像相干斑滤波方法,其特征在于,所述整体损失函数满足预设条件为:当前图像相干斑滤波网络模型整体损失函数的值最小且当前图像相干斑滤波网络模型整体损失函数与上一轮计算得到的所述整体损失函数的差值小于0.001。
8.一种基于场景认知的雷达图像相干斑滤波装置,其特征在于,包括:
第一模块,用于对原始雷达图像数据采用两种不同滤波方法进行滤波获得两个滤波结果,分别为第一滤波结果Y 1和第二滤波结果Y 2,得到基于原始雷达图像数据及其对应两个滤波结果构成的雷达图像训练数据集;
第二模块,用于构建基于场景认知的雷达图像相干斑滤波模型,所述基于场景认知的雷达图像相干斑滤波模型对输入的原始雷达图像数据中的匀质区域和目标区域进行特征提取,得到第一特征和第二特征;基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第一特征的各层网络单元的权重,以学习第一滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第一特征进行加权得到对应的第一加权特征;基于第二特征图、原始雷达图像数据以及第二滤波结果构建第二损失函数,引导和更新所述雷达图像相干斑滤波模型中提取第二特征的各层网络单元的权重,以学习第二滤波结果所对应滤波方法的滤波特性,同时使用监督注意力机制对第二特征进行加权得到对应的第二加权特征;将第一加权特征和第二加权特征进行拼接,从拼接得到的特征中估计得到相干斑,对原始雷达图像数据进行相干斑滤波;其中基于第一特征、原始雷达图像数据以及第一滤波结果构建第一损失函数的方法,包括:
初步估计第一特征中的相干斑;
基于初步估计得到的第一特征中的相干斑对所述原始雷达图像数据进行滤波,得到初步相干斑滤波后的雷达图像数据Z1;
基于初步相干斑滤波后的雷达图像数据Z1与第一滤波结果Y 1构建第一损失函数,/>为矩阵的/>范数;
基于第二特征、原始雷达图像数据以及第二滤波结果构建第二损失函数的方法,包括:
初步估计第二特征中的相干斑;
基于初步估计得到的第二特征中的相干斑对原始雷达图像数据进行滤波,得到初步相干斑滤波后的雷达图像数据Z2;
基于初步相干斑滤波后的雷达图像数据Z2与第二滤波结果Y 2构建第二损失函数,/>为矩阵的/>范数;
第三模块,用于基于两个滤波结果Y 1Y 2以及雷达图像相干斑滤波模型输出的雷达图像数据相干斑滤波结果构建所述基于场景认知的雷达图像相干斑滤波模型的整体损失函数;
第四模块,用于利用所述雷达图像训练数据集对所述雷达图像相干斑滤波模型进行训练,直至所述整体损失函数满足预设条件,获得训练好的基于场景认知的雷达图像相干斑滤波模型;
第五模块,用于将待进行相干斑滤波的雷达图像数据输入所述训练好的基于场景认知的雷达图像相干斑滤波模型实现相干斑滤波。
CN202310612922.7A 2023-05-29 2023-05-29 一种基于场景认知的雷达图像相干斑滤波方法及装置 Active CN116385319B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310612922.7A CN116385319B (zh) 2023-05-29 2023-05-29 一种基于场景认知的雷达图像相干斑滤波方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310612922.7A CN116385319B (zh) 2023-05-29 2023-05-29 一种基于场景认知的雷达图像相干斑滤波方法及装置

Publications (2)

Publication Number Publication Date
CN116385319A CN116385319A (zh) 2023-07-04
CN116385319B true CN116385319B (zh) 2023-08-15

Family

ID=86975415

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310612922.7A Active CN116385319B (zh) 2023-05-29 2023-05-29 一种基于场景认知的雷达图像相干斑滤波方法及装置

Country Status (1)

Country Link
CN (1) CN116385319B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107680061A (zh) * 2017-10-10 2018-02-09 中国人民解放军国防科技大学 基于相似性检验的双极化sar图像相干斑滤波方法
US10591582B1 (en) * 2015-11-19 2020-03-17 National Technology & Engineering Solutions Of Sandia, Llc Co-notch and independent windowing to mitigate interference in SAR-based imagery
CN111626961A (zh) * 2020-05-29 2020-09-04 中国人民解放军海军航空大学 一种基于生成对抗网络的雷达图像杂波抑制方法及系统
KR20200127702A (ko) * 2019-05-03 2020-11-11 한국광기술원 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치 및 그 방법
CN112419197A (zh) * 2020-11-26 2021-02-26 武汉大学 一种通用的单、多时相sar影像相干斑噪声去除方法
WO2022120883A1 (zh) * 2020-12-07 2022-06-16 深圳先进技术研究院 低剂量图像去噪网络的训练方法、低剂量图像的去噪方法
CN114841878A (zh) * 2022-04-27 2022-08-02 广东博迈医疗科技股份有限公司 光学相干层析图像散斑去噪方法、装置及电子设备
CN115063320A (zh) * 2022-07-07 2022-09-16 中山大学 一种基于最大后验概率估计的sar图像去斑方法及系统
CN115082336A (zh) * 2022-06-10 2022-09-20 南京理工大学 一种基于机器学习的sar图像相干斑抑制方法
CN115291172A (zh) * 2022-07-20 2022-11-04 中国人民解放军国防科技大学 简缩极化雷达极化旋转域特征提取和目标检测方法及装置
CN115327544A (zh) * 2022-10-13 2022-11-11 中国人民解放军战略支援部队航天工程大学 基于自监督学习的少样本空间目标isar散焦补偿方法
CN115797666A (zh) * 2021-09-09 2023-03-14 安霸国际有限合伙企业 用于使用卷积技术来加速散斑图像块匹配
CN115909078A (zh) * 2022-12-31 2023-04-04 西安电子科技大学 一种基于hrrp与sar数据特征级融合的舰船分类方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10591582B1 (en) * 2015-11-19 2020-03-17 National Technology & Engineering Solutions Of Sandia, Llc Co-notch and independent windowing to mitigate interference in SAR-based imagery
CN107680061A (zh) * 2017-10-10 2018-02-09 中国人民解放军国防科技大学 基于相似性检验的双极化sar图像相干斑滤波方法
KR20200127702A (ko) * 2019-05-03 2020-11-11 한국광기술원 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치 및 그 방법
CN111626961A (zh) * 2020-05-29 2020-09-04 中国人民解放军海军航空大学 一种基于生成对抗网络的雷达图像杂波抑制方法及系统
CN112419197A (zh) * 2020-11-26 2021-02-26 武汉大学 一种通用的单、多时相sar影像相干斑噪声去除方法
WO2022120883A1 (zh) * 2020-12-07 2022-06-16 深圳先进技术研究院 低剂量图像去噪网络的训练方法、低剂量图像的去噪方法
CN115797666A (zh) * 2021-09-09 2023-03-14 安霸国际有限合伙企业 用于使用卷积技术来加速散斑图像块匹配
CN114841878A (zh) * 2022-04-27 2022-08-02 广东博迈医疗科技股份有限公司 光学相干层析图像散斑去噪方法、装置及电子设备
CN115082336A (zh) * 2022-06-10 2022-09-20 南京理工大学 一种基于机器学习的sar图像相干斑抑制方法
CN115063320A (zh) * 2022-07-07 2022-09-16 中山大学 一种基于最大后验概率估计的sar图像去斑方法及系统
CN115291172A (zh) * 2022-07-20 2022-11-04 中国人民解放军国防科技大学 简缩极化雷达极化旋转域特征提取和目标检测方法及装置
CN115327544A (zh) * 2022-10-13 2022-11-11 中国人民解放军战略支援部队航天工程大学 基于自监督学习的少样本空间目标isar散焦补偿方法
CN115909078A (zh) * 2022-12-31 2023-04-04 西安电子科技大学 一种基于hrrp与sar数据特征级融合的舰船分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
深度迁移学习的相干斑噪声图像标注算法研究;向志华;贺艳芳;;计算机仿真(第04期);全文 *

Also Published As

Publication number Publication date
CN116385319A (zh) 2023-07-04

Similar Documents

Publication Publication Date Title
CN110033003B (zh) 图像分割方法和图像处理装置
CN112446270B (zh) 行人再识别网络的训练方法、行人再识别方法和装置
CN110532871B (zh) 图像处理的方法和装置
CN110070107B (zh) 物体识别方法及装置
US20220188999A1 (en) Image enhancement method and apparatus
US20180231871A1 (en) Depth estimation method for monocular image based on multi-scale CNN and continuous CRF
EP4163832A1 (en) Neural network training method and apparatus, and image processing method and apparatus
EP4006776A1 (en) Image classification method and apparatus
CN110136162B (zh) 无人机视角遥感目标跟踪方法及装置
CN112287954A (zh) 图像分类方法、图像分类模型的训练方法及其装置
CN112446835B (zh) 图像恢复方法、图像恢复网络训练方法、装置和存储介质
Maniyath et al. RETRACTED ARTICLE: Learning-based approach to underwater image dehazing using CycleGAN
US20220157046A1 (en) Image Classification Method And Apparatus
CN114730456A (zh) 神经网络模型的训练方法、图像处理方法及其装置
CN113724379B (zh) 融合图像与激光点云的三维重建方法及装置
CN114782298B (zh) 一种具有区域注意力的红外与可见光图像融合方法
CN109064402B (zh) 基于增强非局部总变分模型先验的单幅图像超分辨率重建方法
CN110555820A (zh) 基于卷积神经网络和动态引导滤波的图像融合方法
CN116757986A (zh) 一种红外与可见光图像融合方法及装置
CN116958687A (zh) 一种基于改进detr的面向无人机的小目标检测方法及装置
Fu et al. Multistage supervised contrastive learning for hybrid-degraded image restoration
CN113763417B (zh) 一种基于孪生网络和残差结构的目标跟踪方法
CN116385319B (zh) 一种基于场景认知的雷达图像相干斑滤波方法及装置
CN111833363B (zh) 图像边缘和显著性检测方法及装置
CN114581353A (zh) 一种红外图像的处理方法、装置、介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant