CN114994674B - 智能微波凝视关联成像方法、设备及存储介质 - Google Patents
智能微波凝视关联成像方法、设备及存储介质 Download PDFInfo
- Publication number
- CN114994674B CN114994674B CN202210942320.3A CN202210942320A CN114994674B CN 114994674 B CN114994674 B CN 114994674B CN 202210942320 A CN202210942320 A CN 202210942320A CN 114994674 B CN114994674 B CN 114994674B
- Authority
- CN
- China
- Prior art keywords
- imaging
- neural network
- network model
- direct mapping
- microwave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Electromagnetism (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种智能微波凝视关联成像方法、设备及存储介质,方法包括:在预置时空随机辐射场照射下,通过微波凝视关联成像系统获取已知相互正交目标场景集的散射回波数据,与对应目标场景的标签,由散射回波数据和标签共同构成数据集的训练集、验证集和测试集;构建机器学习人工神经网络,建立输入目标散射回波数据与输出目标微波图像的直接映射智能关联成像神经网络模型;对直接映射关联成像神经网络模型训练与验证后,输入测试集中未知散射回波数据,通过直接映射关联成像神经网络模型预测得出与未知散射回波数据对应的目标微波成像。本发明无需预置随机辐射场的演算与测试,解决了传统微波凝视关联成像算法的过于复杂、非常耗时的难题。
Description
技术领域
本发明涉及微波成像领域,尤其涉及一种智能微波凝视关联成像方法。
背景技术
微波成像是通过在微波频段获取目标电磁散射信息来完成的,它具有全天候、大范围的成像能力,在遥感、重要军事目标调查等方面有广泛的应用。真实孔径雷达成像可以实现对观测区域的连续观测,但其方位分辨率受到其天线孔径大小的限制,因此,只能应用于低分辨率成像。合成孔径雷达和逆合成孔径雷达成像是依靠雷达和目标之间的相对运动来合成大的天线孔径来实现高分辨率成像的,因此无法实现在观测现场长时间的凝视成像。微波凝视关联成像是一种新的成像体制,其核心思想是构造波束内辐射场的随机时空涨落变化,利用多个随机辐射场样本和回波数据的关联处理来实现波束内目标分辨,可以超越其天线孔径大小的限制进行超分辨率凝视成像。
微波凝视关联成像的成像结果受到时空随机辐射场和相关重建算法的计算精度的影响。一方面,时空随机辐射场的精确计算取决于雷达系统的精确先验知识,然而,在实际的微波凝视关联成像系统中,总是存在着系统误差,如发射和接收阵列的位置误差,雷达系统的时间同步和频率同步误差等。近年来,针对每一个不同的影响因素,研究者提出了相应的解决方案。针对阵元幅相误差,周小利从贪婪迭代和稀疏贝叶斯学习的角度,分别提出了基于正交匹配追踪(OMP)迭代和稀疏贝叶斯学习(SBL)迭代的幅相误差自校正方法,求解目标的散射系数,然后利用最小二乘估计阵元的幅相误差。针对阵元位置误差,基于基追踪(BP)的交替迭代成像算法被提出,以对阵元位置误差进行补偿。针对每路发射通道每个脉冲的随机相位、幅度、同步等因素引起的误差,曹凯程等人将其视为对辐射场矩阵的加性扰动,并提出了基于FOCUSS和TV-TLS的迭代优化方法,分别估计出扰动矩阵和目标的散射系数,从而获得更好的成像质量。总体来说,为了使成像模型适配,这些方法只是单一解决其中一个因素,然而,所有的系统参数都要精确知道才可以精确计算辐射场。
另一方面,在微波凝视关联成像重建算法中,何学智和孟青泉等人提出了Tikhonov正则化、截断奇异值分解(TSVD)方法、总方差正则化算法,通过限制观测矩阵中较小的奇异值成分,增强了问题求解的稳定性。对于稀疏目标,OMP、SBL等稀疏重建方法被应用于微波凝视关联成像,取得了较好的成像效果。而这些成像优化算法仍然存在计算复杂度高、成像时间长的问题。
有鉴于此,特提出本发明。
发明内容
本发明的目的是提供了一种智能微波凝视关联成像方法、设备及存储介质,其无需预置随机辐射场的演算与测试,解决了传统微波凝视关联成像算法过于复杂、非常耗时的难题。
本发明的目的是通过以下技术方案实现的:
在预置时空随机辐射场照射下,通过微波凝视关联成像系统获取已知相互正交目标场景集的散射回波数据,与对应目标场景的标签,由散射回波数据和标签共同构成数据集的训练集和验证集;
构建一个机器学习人工神经网络,依据输入的目标散射回波数据与输出的标签来建立直接映射关联成像神经网络模型;
通过训练集和验证集对所述直接映射关联成像神经网络模型进行训练与验证,训练与验证完成后,在通过所述微波凝视关联成像系统进行微波凝视关联成像时,通过所述微波凝视关联成像系统获取目标场景的未知散射回波数据,输入至训练验证好的直接映射关联成像神经网络模型,通过该直接映射关联成像神经网络模型预测得出与未知散射回波数据对应的目标微波成像。
本发明实施方式还提供一种处理设备,包括:
至少一个存储器,用于存储一个或多个程序;
至少一个处理器,能执行所述存储器所存储的一个或多个程序,在一个或多个程序被处理器执行时,使得所述处理器能实现本发明所述的方法。
本发明实施方式进一步提供一种可读存储介质,存储有计算机程序,当计算机程序被处理器执行时能实现本发明所述的方法。
与现有技术相比,本发明所提供的智能微波凝视关联成像方法、设备及存储介质,其有益效果包括:
通过微波凝视关联成像系统获取已知相互正交目标场景集的散射回波数据和对应目标场景的标签,构建了作为数据集的训练集和验证集,配合基于深度学习的机器学习人工神经网络构建的直接映射关联成像神经网络模型,能从大量可用的散射回波数据中学习到成像特征的独特特性,建立了从接收到的散射回波数据到作为标签的目标后向散射系数分布像之间的线性映射关系,取代了传统微波凝视关联成像反演模型,其无需预置随机辐射场的演算与测试,解决了传统微波凝视关联成像算法的过于复杂、非常耗时的难题,为解决微波凝视关联成像问题提供了一个很有前途的工具,既可以避免利用辐射源参数计算随机辐射场的环节,也可以避免为了提高成像质量使用复杂耗时的迭代优化算法,为智能微波凝视关联成像的实际应用提供了一种可行的解决方案。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的智能微波凝视关联成像方法的流程图。
图2为本发明实施例提供的智能微波凝视关联成像方法的训练直接映射关联成像神经网络模型的整体流程图。
图3为本发明实施例提供的智能微波凝视关联成像方法的微波凝视关联成像系统的成像场景示意图。
图4为本发明实施例提供的智能微波凝视关联成像方法的训练集中金属球按照O形排列的相互正交的目标场景图。
图5为本发明实施例提供的图4的目标场景对应的后向散射系数分布矩阵示意图。
图6为本发明实施例提供的图4的目标场景在图3设定的微波凝视关联成像系统下得到的20×20的散射回波矩阵示意图。
图7为本发明实施例提供的智能微波凝视关联成像方法的训练集中金属球按照十形排列的相互正交的目标场景图。
图8为本发明实施例提供的图7的目标场景在图3设定的微波凝视关联成像系统下得到的20×20的散射回波矩阵示意图。
图9为本发明实施例提供的图8的目标场景对应的后向散射系数分布矩阵示意图。
图10为本发明实施例提供的智能微波凝视关联成像方法的基于残差结构的全卷积网络的结构框图。
图11为本发明实施例提供的智能微波凝视关联成像方法的基于残差结构的全卷积网络的训练和验证损失示意图。
图12为本发明实施例提供的智能微波凝视关联成像方法的实际成像中金属球按照A形排列的相互正交的目标场景图。
图13为本发明实施例提供的智能微波凝视关联成像方法的直接映射关联成像神经网络模型第50次迭代训练得出的图12的金属球按照A形排列的相互正交的目标场景的目标微波成像图。
图14为本发明实施例提供的智能微波凝视关联成像方法的直接映射关联成像神经网络模型第100次迭代训练得出的图12的金属球按照A形排列的相互正交的目标场景的目标微波成像图。
图15为本发明实施例提供的智能微波凝视关联成像方法的直接映射关联成像神经网络模型第150次迭代训练得出的图12的金属球按照A形排列的相互正交的目标场景的目标微波成像图。
图16为本发明实施例提供的智能微波凝视关联成像方法的实际成像中金属球按照H形排列的相互正交的目标场景图。
图17为本发明实施例提供的智能微波凝视关联成像方法的直接映射关联成像神经网络模型第50次迭代训练得出的图16的金属球按照H形排列的相互正交的目标场景的目标微波成像图。
图18为本发明实施例提供的智能微波凝视关联成像方法的直接映射关联成像神经网络模型第100次迭代训练得出的图16的金属球按照H形排列的相互正交的目标场景的目标微波成像图。
图19为本发明实施例提供的智能微波凝视关联成像方法的直接映射关联成像神经网络模型第150次迭代训练得出的图16的金属球按照H形排列的相互正交的目标场景的目标微波成像图。
具体实施方式
下面结合本发明的具体内容,对本发明实施例中的技术方案进行清楚、完整地描述;显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,这并不构成对本发明的限制。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
首先对本文中可能使用的术语进行如下说明:
术语“和/或”是表示两者任一或两者同时均可实现,例如,X和/或Y表示既包括“X”或“Y”的情况也包括“X和Y”的三种情况。
术语“包括”、“包含”、“含有”、“具有”或其它类似语义的描述,应被解释为非排它性的包括。例如:包括某技术特征要素(如原料、组分、成分、载体、剂型、材料、尺寸、零件、部件、机构、装置、步骤、工序、方法、反应条件、加工条件、参数、算法、信号、数据、产品或制品等),应被解释为不仅包括明确列出的某技术特征要素,还可以包括未明确列出的本领域公知的其它技术特征要素。
术语“由……组成”表示排除任何未明确列出的技术特征要素。若将该术语用于权利要求中,则该术语将使权利要求成为封闭式,使其不包含除明确列出的技术特征要素以外的技术特征要素,但与其相关的常规杂质除外。如果该术语只是出现在权利要求的某子句中,那么其仅限定在该子句中明确列出的要素,其他子句中所记载的要素并不被排除在整体权利要求之外。
除另有明确的规定或限定外,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如:可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本文中的具体含义。
术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述和简化描述,而不是明示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本文的限制。
下面对本发明所提供的智能微波凝视关联成像方法、设备及存储介质进行详细描述。本发明实施例中未作详细描述的内容属于本领域专业技术人员公知的现有技术。本发明实施例中未注明具体条件者,按照本领域常规条件或制造商建议的条件进行。本发明实施例中所用试剂或仪器未注明生产厂商者,均为可以通过市售购买获得的常规产品。
如图1所示,本发明实施例提供一种智能微波凝视关联成像方法,包括:
在预置时空随机辐射场照射下,通过微波凝视关联成像系统获取已知相互正交目标场景集的散射回波数据,与对应目标场景的标签,由散射回波数据和标签共同构成数据集的训练集和验证集;
构建一个机器学习人工神经网络,依据输入的目标散射回波数据与输出的标签来建立直接映射关联成像神经网络模型;
通过训练集和验证集对所述直接映射关联成像神经网络模型进行训练与验证,训练与验证完成后,在通过所述微波凝视关联成像系统进行微波凝视关联成像时,通过所述微波凝视关联成像系统获取目标场景的未知散射回波数据,输入至训练验证好的直接映射关联成像神经网络模型,通过该直接映射关联成像神经网络模型预测得出与未知散射回波数据对应的目标微波成像。
上述方法中,所述已知相互正交目标场景集由微波散射标准件按照预定方式分布排列而成;
所述微波散射标准件包括:角反射器、圆柱体、球体、平板中的至少一种,所述微波散射标准件的后向散射系数通过计算或测量得到;可以知道,微波散射标准件可以但不限于上述采用的各标准件,其它形式的可用微波散射标准件也可以用于本发明成像方法中。
其中,j≠k,j,k=1…Ω,Ω为目标场景集的数量。
上述方法中,所述对应目标场景的标签是对应目标场景的微波散射标准件的后向散射系数分布矩阵;
按以下方式划分数据集的训练集和验证集,包括:
将构成的数据集随机分为两部分,一部分作为训练集,另一部分作为验证集。
可以知道,上述方法中,建立所述直接映射关联成像神经网络模型的机器学习人工神经网络的网络深度与规模取决于微波凝视关联成像系统复杂度,辐射场种类数,有效采样数据量;如:微波凝视关联成像系统复杂度,辐射场种类数,有效采样数据量相匹配会影响到回波数据的大小,这作为神经网络的输入,更大的数据则需要更深的卷积层的网络提取信息,更大的成像区域和更密的成像网格需要更深的反卷积层映射成像。例如:如果卷积层都使用3×3的卷积核,padding=2来将上一层的数据量减小一倍,维度扩大一倍,则160×160回波数据则需要8次卷积模块将其转化为5×5×512的高维特征信息。如果成像网格大小为160×160,则从5×5×512的高维特征信息映射为160×160的目标图像,则需要五次反卷积残差融合模块。
上述方法中,所述直接映射关联成像神经网络模型为:
其中,为在成像区域的目标微波成像;Net为直接映射关联成像神经网络模型;为目标场景的散射回波数据;为直接映射关联成像神经网络模型学习的网络参数,为直接映射关联成像神经网络模型每一层卷积和反卷积的权重,为直接映射关联成像神经网络模型每一层卷积和反卷积的偏差。
上述方法中,所述直接映射关联成像神经网络模型采用残差结构的全卷积网络,该残差结构的全卷积网络包括:
一个输入卷积模块、八个卷积残差融合模块、三个反卷积残差融合模块,四个批量归一化模块、一个输出反卷积残差模块;
所述输入卷积模块,与八个卷积残差融合模块依次连接,该输入卷积模块采用3×3的卷积核,能将输入的散射回波数据转化为20×20×64的张量;
每个卷积残差融合模块均采用两个3×3的卷积核,以ReLU函数作为激活函数,能将输入的20×20×64的张量转化成5×5×512的高维特征信息;
最后一个卷积残差融合模块后连接三个反卷积残差融合模块,每个反卷积残差融合模块均连接一个批量归一化模块;
每个反卷积残差融合模块均以Softplus函数作为激活函数,三个反卷积残差融合模块能将输入的5×5×512的张量转化成5×5×8的张量;
最后一个批量归一化模块与输出反卷积残差模块连接,该输出反卷积残差模块一次步幅大小为2,填充大小为1。
可以知道,直接映射关联成像神经网络模型不限于采用上述的残差结构的全卷积网络,其它形式的机器学习人工神经网络,只要能实现从接收到的散射回波数据到作为标签的目标后向散射系数分布像之间的线性映射关系,均可以用于本发明的成像方法,如可采用对抗性神经网络、全连接网络等。
上述方法中,按以下方式通过训练集对所述直接映射关联成像神经网络模型进行训练,并通过验证集对训练后的所述直接映射关联成像神经网络模型进行验证,包括:
步骤a,设置学习速率η,迭代次数t=0,直接映射关联成像神经网络模型的初始化网络参数为θ 0 ,该直接映射关联成像神经网络模型的初始化网络参数θ 0 满足均值为零的正态分布;
步骤b,将训练集中的散射回波数据作为直接映射关联成像神经网络模型的输入,将训练集中的散射回波数据对应的标签作为直接映射关联成像神经网络模型的输出,采用梯度下降优化算法与均方误差损失函数,反向传播更新直接映射关联成像神经网络模型参数,其过程表示为:
其中,为训练集中第q个目标场景集的散射回波数据经直接映射关联成像神经网络模型输出成像;为训练集中第q个目标场景集的散射回波数据;为训练集中第q个目标场景集的散射回波数据的标签,q=1,…,Q,Q为训练集的目标场景集的数量;
步骤c,将验证集中的散射回波数据作为直接映射关联成像神经网络模型的输入,将验证集中的散射回波数据对应的标签作为直接映射关联成像神经网络模型的输出,使用均方误差损失函数估计直接映射关联成像神经网络模型的成像误差,交叉验证直接映射关联成像神经网络模型的精度,表示为:
其中,为验证集中第p个目标场景集的散射回波数据经直接映射关联成像神经网络模型输出成像;为验证集中第p个目标场景集的散射回波数据;为验证集中第p个目标场景集的散射回波数据对应的标签,p=1,…,P,P为验证集的目标场景集的数量;
步骤d,如果成像误差在标准范围内,则确认直接映射关联成像神经网络模型训练完成,执行步骤e;否则,返回步骤b,继续训练直接映射关联成像神经网络模型,直至成像误差在标准范围内;
上述方法中,通过该微波凝视关联成像系统获取目标场景的未知散射回波数据,输入至训练验证好的直接映射关联成像神经网络模型,通过该直接映射关联成像神经网络模型预测得出与未知散射回波数据对应的目标微波成像,表示为:
其中,各参数含义为:为在成像区域的目标微波成像;Net为直接映射关联成像神经网络模型;为未知散射回波数据;为直接映射关联成像神经网络模型学习的最优网络参数,为直接映射关联成像神经网络模型每一层卷积和反卷积的权重,为直接映射关联成像神经网络模型每一层卷积和反卷积的偏差。
本发明实施例还提供一种处理设备,包括:
至少一个存储器,用于存储一个或多个程序;
至少一个处理器,能执行所述存储器所存储的一个或多个程序,在一个或多个程序被处理器执行时,使得所述处理器能实现上述的方法。
本发明实施例还提供一种可读存储介质,存储有计算机程序,其特征在于,当计算机程序被处理器执行时能实现上述的方法。
综上可见,本发明实施例的成像方法,通过采用基于深度学习的机器学习人工神经网络构建的直接映射关联成像神经网络模型,能从大量可用的散射回波中学习到成像特征的独特特性,建立了从接收到的散射回波数据到目标后向散射系数分布像之间的线性映射关系,取代了传统微波凝视关联成像反演模型,其无需预置随机辐射场的演算与测试,解决了传统微波凝视关联成像算法的过于复杂、非常耗时的难题,为解决微波凝视关联成像问题提供了一个很有前途的工具,既可以避免利用辐射源参数计算随机辐射场的环节,也可以避免为了提高成像质量使用复杂耗时的迭代优化算法,为智能微波凝视关联成像的实际应用提供了一种可行的解决方案。
为了更加清晰地展现出本发明所提供的技术方案及所产生的技术效果,下面以具体实施例对本发明实施例所提供的智能微波凝视关联成像方法进行详细描述。
实施例1
如图1所示,本发明实施例提供一种智能微波凝视关联成像方法,包括:
在预置时空随机辐射场照射下,通过微波凝视关联成像系统获取已知相互正交目标场景集的散射回波数据,与对应目标场景的标签,共同构成数据集的训练集和验证集;
构建一个机器学习人工神经网络,建立输入的目标散射回波信号与输出目标标签直接映射的智能关联成像模型,即直接映射关联成像神经网络模型;
通过训练集和验证集对所述直接映射关联成像神经网络模型预先训练与验证完成后,在利用微波凝视关联成像系统实际关联成像中,利用微波凝视关联成像系统获取未知散射回波数据,输入训练验证好的直接映射关联成像神经网络模型,通过该直接映射关联成像神经网络模型预测得出与未知散射回波数据对应的目标微波成像。
具体的,本实施例的智能微波凝视关联成像方法整体流程包括:
步骤S1)对于给定微波凝视关联成像系统,由微波散射标准件构成若干相互正交的已知目标场景集,在预置随机辐射场照射下,获取其散射回波数据,相应的已知目标场景中后向散射系数分布矩阵作为标签,两者共同构成数据集,将数据集随机分为几部分,一部分为训练集和另一部分为验证集,还有一部分作为验证集,验证集中的散射回波数据为未知散射回波数据,目的是作为实际成像的未知散射回波数据,验证训练验证好的直接映射关联成像神经网络模型;
设定的微波凝视关联成像系统如图3所示,该微波凝视关联成像系统是模拟真实的成像系统仿真得到的。微波随机辐射源由随机辐射阵列天线组成,天线孔径D为0.5m,阵列中心为原点O,其高度H为1.75m。通过控制每个阵元的发射信号的相位和振幅来产生时空随机辐射场,每个发射信号的随机振幅为[0,0.2,0.4,0.6,0.8,1],随机相位为[0,π],共产生400个随机辐射场。被照射的二维成像区域S位于天线阵列的斜下方的XOY平面内,与原点的水平距离为L1为1m。单个接收天线与发射天线同高,与原点的水平距离L2为2m。0.4m×0.4m的目标场景S被划分为10×10的空间网格,每个网格的距离为4cm,与原点的水平距离L2为2m。微波散射标准件使用若干直径4cm,后向散射系数为1的钢球。通过控制钢球在成像区域的水平和垂直方向上变换组合和位置,从而形成了500个相互正交的已知目标场景集。随机辐射阵列天线的工作频段设置在18GHz和22GHz之间,频率采样间隔为10MHz,产生的400个时空随机辐射场通过扫频的方式在每一类目标场景下进行照射。散射回波数据在每个辐射场模式下进行采样,共400个采样信号。因此,生成的500组20×20的散射回波数据被用作神经网络的输入,而相应的目标场景的标签被用作神经网络的输出。其中400对作为训练集用于训练神经网络参数,50对作为验证集用于验证神经网络的准确度,其余50对作为测试集用于测试神经网络的泛化能力。
如图4-图9所示,本发明实施例中,图4和图7分别为训练集中两组相互正交的目标场景,由金属球按照一定分布排列而成,成像目标整体结构为‘○’形与‘+’形,其中,图4为训练集中金属球按照O形排列的相互正交的目标场景;图7为训练集中金属球按照十形排列的相互正交的目标场景;图5和图8分别为图4和图7目标场景对应的后向散射系数分布矩阵示意图;图6和图9分别为图4和图7目标场景在如图3设定的微波凝视关联成像系统下得到的20×20的散射回波矩阵示意图。
其中,Net为基于机器学习人工神经网络建立的直接映射关联成像神经网络模型,为直接映射关联成像神经网络模型学习的网络参数,为直接映射关联成像神经网络模型每一层卷积和反卷积的权重,为直接映射关联成像神经网络模型每一层卷积和反卷积的偏差。
在本实施例中,人工神经网络被设计为如图4所示的基于残差结构的全卷积网络,“k”“n”和 a*b*c分别代表每一层网络的“卷积核大小”“步幅大小和填充大小”和“输出张量大小”;“BN”、“Softplus”、“ReLu”、“CONV”和“DECONV”分别代表“批量归一化模块”、“非线性激活模块”、“非线性激活模块”、“卷积残差融合模块”和“反卷积残差融合模块”;其中卷积层网络从散射回波矩阵中寻找到高维特征信息,反卷积层网络将从散射回波数据中提取到的高维特征信息映射为目标微波图像,多级残差结构解决网络深度增加引起的梯度爆炸和梯度消失问题。
如图10所示,在图3所示的微波凝视关联成像系统下,接收机接收到的大小为20×20的散射回波数据作为直接映射关联成像神经网络模型的输入;然后使用一次3×3的卷积核后转化为20×20×64的张量;接下来是8次相同设置的卷积残差融合模块,将输入的20×20×64的张量转化成5×5×512的高维特征信息,每个卷积残差融合模块使用两个3×3的卷积核,每两个卷积残差融合模块输出的张量大小分别为20×20×64、20×20×128、10×10×256、5×5×512,每一层卷积之后不连接BN层,选择ReLU函数作为激活函数来提取高维信息;然后经过3次相同设置的反卷积残差融合模块,将输入的5×5×512的张量转化成5×5×8的张量,每个反卷积残差融合模块输出的张量大小分别为5×5×128、5×5×32、5×5×8,每一层反卷积之后连接BN层,选择Softplus函数作为激活函数来反演目标微波图像;然后通过一次步幅大小为2,填充大小为1的反卷积残差模块,得到与输入尺寸相同的图像,采用梯度下降优化算法与均方误差损失函数,与相应目标场景集的标签进行比较,反向传播更新参数;
步骤S3)按以下方式训练和验证直接映射关联成像神经网络模型,包括以下步骤:
步骤a)设置学习速率η为10-2,每50个迭代后,学习速率减半;迭代次数t=0,直接映射关联成像神经网络模型的初始化网络参数为θ 0 ,满足均值为零的正态分布;
步骤b)将步骤a)获取的训练集中的散射回波数据作为直接映射关联成像神经网络模型的输入,将训练集中的相应的标签作为直接映射关联成像神经网络模型的输出,采用梯度下降优化算法与均方误差损失函数,反向传播更新直接映射关联成像神经网络模型参数,其过程表示为:
步骤d)如果成像误差在标准范围内,则直接映射关联成像神经网络模型训练完成;否则,则返回步骤b),重新训练直接映射关联成像神经网络模型,直至误差在标准范围内,直接映射关联成像神经网络模型训练完成。
如图11所示,本实施例的直接映射关联成像神经网络模型在150次迭代内的训练损失和验证损失已经达到0.1以内,说明直接映射关联成像神经网络模型已经实现了在散射回波数据与目标微波成像之间的直接映射联系。
本发明实施例中,分别保存训练第50、100、150次的直接映射关联成像神经网络模型,利用测试集对其进行测试,输入测试集中的散射回波数据,直接映射关联成像神经网络模型的输出成像结果如图12-图19所示,其中图12和图16分别为测试集中其中两组相互正交的目标场景,由金属球按照一定分布排列而成,成像目标整体结构为‘A’形与‘H’形,其中,图12为金属球按照A形排列的相互正交的目标场景,图16为金属球按照H形排列的相互正交的目标场景;图13和图17分别为直接映射关联成像神经网络模型第50次迭代训练得出的目标微波成像,其中,图13为直接映射关联成像神经网络模型第50次迭代训练得出的金属球按照A形排列的相互正交的目标场景的目标微波成像,图17为直接映射关联成像神经网络模型第50次迭代训练得出的金属球按照H形排列的相互正交的目标场景的目标微波成像;图14和图18分别为直接映射关联成像神经网络模型第100次迭代训练得出的目标微波成像,图14为直接映射关联成像神经网络模型第100次迭代训练得出的金属球按照A形排列的相互正交的目标场景的目标微波成像,图18为直接映射关联成像神经网络模型第100次迭代训练得出的金属球按照H形排列的相互正交的目标场景的目标微波成像;图15和图19分别为直接映射关联成像神经网络模型第100次迭代训练得出的目标微波成像,其中,图15为直接映射关联成像神经网络模型第150次迭代训练得出的金属球按照A形排列的相互正交的目标场景的目标微波成像,图19为直接映射关联成像神经网络模型第150次迭代训练得出的金属球按照H形排列的相互正交的目标场景的目标微波成像。可见在训练过程中,神经网络正在逐渐学习从散射回波数据与目标成像的映射模型,最终直接映射关联成像神经网络模型输出的目标微波图像与实际的目标场景非常吻合,证明了本发明的智能微波凝视关联成像方法的可行性与有效性。
本领域普通技术人员可以理解:实现上述实施例方法中的全部或部分流程是可以通过程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。本文背景技术部分公开的信息仅仅旨在加深对本发明的总体背景技术的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域技术人员所公知的现有技术。
Claims (7)
1.一种智能微波凝视关联成像方法,其特征在于,包括:
在预置时空随机辐射场照射下,通过微波凝视关联成像系统获取已知相互正交目标场景集的散射回波数据,与对应目标场景的标签,由散射回波数据和标签共同构成数据集的训练集和验证集;
构建一个机器学习人工神经网络,依据输入的目标散射回波数据与输出的标签来建立直接映射关联成像神经网络模型;所述直接映射关联成像神经网络模型为:
其中,为在成像区域的目标微波成像;Net为直接映射关联成像神经网络模型;为目标场景的散射回波数据;为直接映射关联成像神经网络模型学习的网络参数,为直接映射关联成像神经网络模型每一层卷积和反卷积的权重,为直接映射关联成像神经网络模型每一层卷积和反卷积的偏差;
所述直接映射关联成像神经网络模型采用残差结构的全卷积网络,该残差结构的全卷积网络包括:
一个输入卷积模块、八个卷积残差融合模块、三个反卷积残差融合模块,四个批量归一化模块、一个输出反卷积残差模块;
所述输入卷积模块,与八个卷积残差融合模块依次连接,该输入卷积模块采用3×3的卷积核,能将输入的散射回波数据转化为20×20×64的张量;
每个卷积残差融合模块均采用两个3×3的卷积核,以ReLU函数作为激活函数,能将输入的20×20×64的张量转化成5×5×512的高维特征信息;
最后一个卷积残差融合模块后连接三个反卷积残差融合模块,每个反卷积残差融合模块均连接一个批量归一化模块;
每个反卷积残差融合模块均以Softplus函数作为激活函数,三个反卷积残差融合模块能将输入的5×5×512的张量转化成5×5×8的张量;
最后一个批量归一化模块与输出反卷积残差模块连接,该输出反卷积残差模块一次步幅大小为2,填充大小为1;
通过训练集和验证集对所述直接映射关联成像神经网络模型进行训练与验证,训练与验证完成后,在通过所述微波凝视关联成像系统进行微波凝视关联成像时,通过所述微波凝视关联成像系统获取目标场景的未知散射回波数据,输入至训练验证好的直接映射关联成像神经网络模型,通过该直接映射关联成像神经网络模型预测得出与未知散射回波数据对应的目标微波成像。
2.根据权利要求1所述的智能微波凝视关联成像方法,其特征在于,所述已知相互正交目标场景集由微波散射标准件按照预定方式分布排列而成;
所述微波散射标准件包括:角反射器、圆柱体、球体、平板中的至少一种,所述微波散射标准件的后向散射系数通过计算或测量得到;
其中,j≠k,j,k=1…Ω,Ω为目标场景集的数量。
3.根据权利要求1所述的智能微波凝视关联成像方法,其特征在于,所述对应目标场景的标签是对应目标场景的微波散射标准件的后向散射系数分布矩阵;
按以下方式划分数据集的训练集和验证集,包括:
将构成的数据集随机分为两部分,一部分作为训练集,另一部分作为验证集。
4.根据权利要求1所述的智能微波凝视关联成像方法,其特征在于,按以下方式通过训练集对所述直接映射关联成像神经网络模型进行训练,并通过验证集对训练后的所述直接映射关联成像神经网络模型进行验证,包括:
步骤a,设置学习速率η,迭代次数t=0,直接映射关联成像神经网络模型的初始化网络参数为θ 0 ,该直接映射关联成像神经网络模型的初始化网络参数θ 0 满足均值为零的正态分布;
步骤b,将训练集中的散射回波数据作为直接映射关联成像神经网络模型的输入,将训练集中的散射回波数据对应的标签作为直接映射关联成像神经网络模型的输出,采用梯度下降优化算法与均方误差损失函数,反向传播更新直接映射关联成像神经网络模型参数,其过程表示为:
其中,为训练集中第q个目标场景集的散射回波数据经直接映射关联成像神经网络模型输出成像;为训练集中第q个目标场景集的散射回波数据;为训练集中第q个目标场景集的散射回波数据的标签,q=1,…,Q,Q为训练集的目标场景集的数量;
步骤c,将验证集中的散射回波数据作为直接映射关联成像神经网络模型的输入,将验证集中的散射回波数据对应的标签作为直接映射关联成像神经网络模型的输出,使用均方误差损失函数估计直接映射关联成像神经网络模型的成像误差,交叉验证直接映射关联成像神经网络模型的精度,表示为:
其中,为验证集中第p个目标场景集的散射回波数据经直接映射关联成像神经网络模型输出成像;为验证集中第p个目标场景集的散射回波数据;为验证集中第p个目标场景集的散射回波数据对应的标签,p=1,…,P,P为验证集的目标场景集的数量;为第t+1次迭代训练的得到的直接映射关联成像神经网络模型的网络参数;
步骤d,如果成像误差在标准范围内,则确认直接映射关联成像神经网络模型训练完成,执行步骤e;否则,返回步骤b,继续训练直接映射关联成像神经网络模型,直至成像误差在标准范围内;
6.一种处理设备,其特征在于,包括:
至少一个存储器,用于存储一个或多个程序;
至少一个处理器,能执行所述存储器所存储的一个或多个程序,在一个或多个程序被处理器执行时,使得所述处理器能实现权利要求1-5任一项所述的方法。
7.一种可读存储介质,存储有计算机程序,其特征在于,当计算机程序被处理器执行时能实现权利要求1-5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210942320.3A CN114994674B (zh) | 2022-08-08 | 2022-08-08 | 智能微波凝视关联成像方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210942320.3A CN114994674B (zh) | 2022-08-08 | 2022-08-08 | 智能微波凝视关联成像方法、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114994674A CN114994674A (zh) | 2022-09-02 |
CN114994674B true CN114994674B (zh) | 2022-12-23 |
Family
ID=83022885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210942320.3A Active CN114994674B (zh) | 2022-08-08 | 2022-08-08 | 智能微波凝视关联成像方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114994674B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116660897B (zh) * | 2023-05-19 | 2024-02-27 | 北京建筑大学 | 基于空间语义的sar成像获取方法、装置、计算机设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103837873A (zh) * | 2014-03-14 | 2014-06-04 | 中国科学技术大学 | 一种基于浮空平台密集阵列天线的微波凝视关联成像系统与成像方法 |
CN109884625A (zh) * | 2019-02-22 | 2019-06-14 | 中国人民解放军军事科学院国防科技创新研究院 | 基于卷积神经网络的雷达关联成像方法 |
EP3805794A1 (en) * | 2019-10-10 | 2021-04-14 | Orbital Insight, Inc. | Analysis of sar data using neural networks |
CN113887583A (zh) * | 2021-09-16 | 2022-01-04 | 南京理工大学 | 基于深度学习的低信噪比下雷达rd图像目标检测方法 |
CN114791583A (zh) * | 2022-03-08 | 2022-07-26 | 西安电子科技大学 | 基于深度神经网络的和/差模式的低仰角目标doa估计方法 |
CN114859353A (zh) * | 2022-07-11 | 2022-08-05 | 中国人民解放军国防科技大学 | 基于辐射场等效测量的孔径编码成像系统建模方法和装置 |
-
2022
- 2022-08-08 CN CN202210942320.3A patent/CN114994674B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103837873A (zh) * | 2014-03-14 | 2014-06-04 | 中国科学技术大学 | 一种基于浮空平台密集阵列天线的微波凝视关联成像系统与成像方法 |
CN109884625A (zh) * | 2019-02-22 | 2019-06-14 | 中国人民解放军军事科学院国防科技创新研究院 | 基于卷积神经网络的雷达关联成像方法 |
EP3805794A1 (en) * | 2019-10-10 | 2021-04-14 | Orbital Insight, Inc. | Analysis of sar data using neural networks |
CN113887583A (zh) * | 2021-09-16 | 2022-01-04 | 南京理工大学 | 基于深度学习的低信噪比下雷达rd图像目标检测方法 |
CN114791583A (zh) * | 2022-03-08 | 2022-07-26 | 西安电子科技大学 | 基于深度神经网络的和/差模式的低仰角目标doa估计方法 |
CN114859353A (zh) * | 2022-07-11 | 2022-08-05 | 中国人民解放军国防科技大学 | 基于辐射场等效测量的孔径编码成像系统建模方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114994674A (zh) | 2022-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106355151B (zh) | 一种基于深度置信网络的三维sar图像目标识别方法 | |
CN103713288B (zh) | 基于迭代最小化稀疏贝叶斯重构线阵sar成像方法 | |
CN106501802B (zh) | 高分辨率多维协同昆虫迁飞雷达测量仪 | |
Wang et al. | TPSSI-Net: Fast and enhanced two-path iterative network for 3D SAR sparse imaging | |
CN112906300B (zh) | 基于双通道卷积神经网络的极化sar土壤湿度反演方法 | |
CN104751176B (zh) | 一种高光谱遥感影像波段选择方法 | |
CN106680776B (zh) | 对多普勒信息不敏感的低旁瓣波形设计方法 | |
CN114994674B (zh) | 智能微波凝视关联成像方法、设备及存储介质 | |
CN114330695B (zh) | 一种基于多层感知神经网络的相控阵驱动方法 | |
CN104361346B (zh) | 基于k‑svd和稀疏表示的极化sar图像分类方法 | |
CN107015225A (zh) | 一种基于自聚焦的sar平台初始高度误差估计方法 | |
CN113126087B (zh) | 一种星载干涉成像高度计天线 | |
CN106842203B (zh) | 一种三维天线阵列综合孔径辐射计的图像反演方法 | |
CN109884625A (zh) | 基于卷积神经网络的雷达关联成像方法 | |
CN114442092B (zh) | 一种分布式无人机sar深度学习三维成像方法 | |
CN115860269A (zh) | 一种基于三重注意力机制的农作物产量预测方法 | |
CN113985408B (zh) | 一种结合门单元和迁移学习的逆合成孔径雷达成像方法 | |
CN106772368B (zh) | 多随机频率雷达阵列的超分辨三维成像方法 | |
CN114492744A (zh) | 一种基于对抗生成网络的地海杂波谱数据样本生成方法 | |
CN112649806B (zh) | 一种mimo雷达近场三维成像方法 | |
CN117076819B (zh) | 融合星载gnss-r和多源rs数据协同反演地表土壤水分和植被含水量的方法 | |
CN105738894B (zh) | 基于增广拉普拉斯算子的微动群目标高分辨成像方法 | |
CN104199032A (zh) | 一种基于相关系数的层析sar成像的航迹分布优化方法 | |
CN113406586B (zh) | 基于约束张量分解的mimo雷达二维波达方向估计方法 | |
Liao | Application of discrete scatterer technique for scene response estimation in FOPEN radar simulations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |