CN109344916A - 一种现场可编程深度学习的微波成像与目标识别方法 - Google Patents
一种现场可编程深度学习的微波成像与目标识别方法 Download PDFInfo
- Publication number
- CN109344916A CN109344916A CN201811324605.0A CN201811324605A CN109344916A CN 109344916 A CN109344916 A CN 109344916A CN 201811324605 A CN201811324605 A CN 201811324605A CN 109344916 A CN109344916 A CN 109344916A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- network
- target identification
- field
- programmable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种现场可编程深度学习的微波成像与目标识别方法。本发明提出的现场可编程深度学习的微波成像与目标识别方法将可编程超表面材料与深度学习网络相结合,实现实时数据获取与数据处理,进而实现实时微波成像及目标识别。在本发明的数据获取过程中采用FPGA控制切换不同的Metasurface编码,相比于机械切换,速度极大提高;采用固定位置的单个接收机接收数据,系统结构简单,成本较低。在本发明的数据处理过程中,采用的深度学习网络包括DeepNIS网络和CNN网络;该深度学习网络基于样本驱动,能够很好地捕捉图像特征,成像质量好,目标识别分类准确率高;该深度学习网络抗噪声能力较强;该深度学习网络一经训练完毕,即可用于实时微波成像及目标识别。
Description
技术领域
本发明涉及微波成像及目标识别领域,具体涉及利用可编程超表面电磁材料以及深度学习网络来实现现场可编程深度学习的微波成像及目标识别分类。
背景技术
微波穿透性强,能够穿透衣物,墙体等遮蔽物,发现隐藏目标,并且具有全天时,全天候,多频率,多极化等诸多优点,因此被广泛应用于各种军事和民用场景,如反恐,城市巷战,安检,墙体桥梁无损检测等。在微波成像系统中,一种是采用相控阵接收,但体积大,成本高;另一种是采用合成孔径雷达SAR(Synthetic Aperture Radar),但这种成像方法需要移动雷达来合成虚拟口径,耗时较大,无法实时成像。另一个亟待解决的问题是图像的抗噪声性能及目标识别分类问题,在噪声较大时,图像信息往往被淹没其中,难以重构图像内容,更无法对目标进行识别分类。
近年来,可编程超表面电磁材料Metasurface逐渐进入人们的视野,通过设计材料单元的尺寸,改变器件的组合方式等,可实现对电磁波的调控。它具有体积较小,造价较低的优势。此外,通过现场可编程门阵列FPGA(Field Programmable Gate Array)可控制可编程超表面电磁材料的编码,从而控制其辐射场的分布。由于FPGA是电控的,速度非常快,因此可实现现场可编程,快速获取数据。数据获取后,将进行数据处理,图像重构。现有的图像重构算法有的没有采用先验信息,如后向投影,成像结果比较模糊;一些采用了先验信息,如Tikhonov正则化,TV正则化等算法,效果比后向投影好,但它们并没有抓住图像真正的内在结构,因此噪声较大时,结果仍不理想。随着深度学习等相关理论的提出,上述问题有了新的解决方案。采用深度学习方法,通过大量的样本训练,可找到图像内部的结构纹理特征,建立起相应的网络,因此能更好地把具有某些结构特征的目标图像与无明显结构特征的噪声区分开。总之,将可编程超表面与深度学习网络相结合,可为实现实时的微波成像及目标识别提供新思路。
发明内容
为解决上述关键技术难题,本发明提出了一种现场可编程深度学习的微波成像及目标识别方法。该方法主要包括两个过程,一是数据获取过程,采用FPGA对可编程超表面电磁材料的编码进行多次切换,获取多组测量数据;二是数据处理过程,先对测量数据进行初步成像,再采用深度学习网络,提取目标的结构纹理特征,进行图像增强,目标识别分类。该深度学习网络由两部分组成:非线性电磁逆散射的深度神经网络DeepNIS(Deep NeuralNetwork for Nonlinear Electromagnetic Inverse Scattering)与卷积神经网络CNN(Convolution Neural Network),分别用于图像增强和目标分类。将可编程超表面材料与深度学习相结合,可实现现场可编程深度学习的微波成像与目标识别。
本发明现场可编程深度学习的微波成像与目标识别方法包括以下步骤:
(1)采用FPGA切换N次可编程Metasurface的编码,获得N组不同数据;
(2)用Tikhonov正则化算法处理接收到的数据,进行图像重构;
(3)训练深度学习网络中的DeepNIS网络;
(4)利用DeepNIS网络对重构的图像进行增强;
(5)训练深度学习网络中的CNN网络;
(6)利用CNN网络进行目标识别分类。
在步骤(1)中采用2比特可编程Metasurface;
在步骤(1)中采用FPGA控制可编程Metasurface的编码,可快速切换;
在步骤(2)中采用Tikhonov正则化算法进行初步的图像恢复,即求解如公式(1)所示的优化问题:
其中和O分别指重构的图像和真实的图像,A是测量矩阵,y是接收数据,γ是正则化参数,重构图像可表示为公式(2):
在步骤(3)中,DeepNIS网络由三个串联的复数域卷积神经网络模块构成,每个模块由三层复数域卷积神经网络层构成;
在步骤(3)中,DeepNIS网络通过Adam优化算法进行训练;
在步骤(3)中,价格函数采用如公式(3)所示的欧几里得距离;
在步骤(5)中,CNN网络使用Adadelta优化算法进行训练;
在步骤(5)中,价格函数为如公式(4)所示的负对数似然函数。
本发明的优点:
本发明提出了一种现场可编程深度学习的微波成像与目标识别方法;本发明具有如下优点:
1、将可编程超表面材料与深度学习网络相结合,实现实时的数据获取与数据处理,进而实现实时微波成像及目标识别;
2、用FPGA控制切换不同的Metasurface编码以获取数据,相比于机械切换,速度极大提高;
3、采用固定位置的单个接收机接收数据,系统结构简单,成本较低;
4、采用的深度学习网络(包括DeepNIS网络和CNN网络)基于样本驱动,能够很好地捕捉图像特征,成像质量好,目标识别分类准确率高;
5、采用的深度学习网络(包括DeepNIS网络和CNN网络)抗噪声能力较强;
6、采用的深度学习网络(包括DeepNIS网络和CNN网络)一经训练完毕,即可用于实时微波成像及目标识别。
附图说明
图1为现场可编程深度学习的微波成像及目标识别系统框图;
图2为基于深度学习网络,包括DeepNIS网络和CNN网络的图像增强及目标识别分类流程图;
图3为CNN分类网络示意图;
图4为在不同SNR情况下,Tikhonov正则化与DeepNIS网络的图像重构结果对比图;
图5为信噪比SNR=-10dB的情况下,Tikhonov正则化和DeepNIS重构的图像分别经过CNN分类网络后的分类结果图;
具体实施方式
下面结合附图,通过具体实施例,进一步阐述本发明。
本实施例现场可编程深度学习的微波成像与目标识别方法包括以下步骤:
(1)采用FPGA切换N次可编程Metasurface的编码,获得N组不同数据;
如图1所示,Metasurface的辐射场照射到目标图像(60×60)上,最终目标的散射场由固定的单个接收机接收。此处Metasurface的编码由FPGA控制进行切换,不同的编码对应不同的辐射场,从而获取不同的数据。本实施例中N=300,即有300种不同的编码,获取数据300组。
(2)用Tikhonov正则化算法处理接收到的数据,进行图像重构;
采用Tikhonov正则化算法处理步骤(1)中所获取的数据,重构图像。本步骤所重构的图像也将作为下一步DeepNIS网络的输入,如图2所示。
(3)训练深度学习网络中的DeepNIS网络;
本实施例将Tikhonov正则化算法重构的4000幅60×60的手语姿势图像与对应的4000幅原始图像构成一个训练样本数据集,对DeepNIS网络进行训练。DeepNIS网络由三个串联的复数域卷积神经网络模块构成,每个模块由三层复数域卷积神经网络层构成,每个DeepNIS网络模块依次独立训练,对应的网络参数设置如表1所示,网络卷积层采用“same”模式,epoch设置为100,学习速率设置为10-4。
表1:DeepNIS网络参数
(4)利用DeepNIS网络对重构的图像进行增强;
用步骤(3)训练好的网络进行测试,测试样本为1000幅60×60的手语图,成像结果如图3所示。本实施例设置了信噪比SNR为-10dB,0dB,10dB,20dB和无噪声,这五种情况,并将Tikhonov正则化算法的结果(图3a(1)-a(5))与DeepNIS的结果(图3b(1)-b(5))进行对比。由图可得,信噪比越高,图像重构的质量越好,且DeepNIS网络比Tikhonov正则化算法有着更高的抗噪声性能。本实施例选取了两个衡量图像质量的指标:均方误差MSE(MeanSquare Error),和结构相似性SSIM(Structural Similarity Index),其中SSIM值的范围是[0,1],越接近1,表明图像恢复得越好;MSE值越小,表明图像恢复得越好。不同信噪比和不同成像方法下,上述两个指标的具体数值如表2所示。可以看出,DeepNIS的MSE均基本低于Tikhonov正则化的相应值,SSIM均高于Tikhonov正则化的相应值。随着噪声增大,信噪比SNR降低,DeepNIS的各项指标恶化程度轻于Tikhonov正则化。因此,DeepNIS网络输出的图像质量高于Tikhonov正则化算法,并且有较好的抗噪声性能。
表2:不同噪声条件下采用DeepNIS网络与Tikhonov正则化算法所重构图像的MSE,SSIM指数表
(5)训练深度学习网络中的CNN网络;
CNN分类网络如图4所示,包含卷积层、池化层和全连接层,其中池化层和全连接层“dropout”分别为0.25和0.5,采用“valid”模式。CNN网络参数初始化服从零均值标准差为10-3的高斯分布,卷积核为3×3,Batches均设置为32,epoch设置为50,学习速率设置为10-1。本实施例所使用的训练样本集由4000幅60×60的手语图片及其对应的类别标签组成,共10类。CNN网络的输入图像即为DeepNIS网络的输出图像,如图2所示。
(6)利用CNN网络进行目标识别分类。
经过步骤(5),CNN分类网络已训练完毕,本实施例用1000幅60×60的手语图像进行测试,共10类。作为对照,本实施例也将Tikhonov正则化重构的图像输入到CNN网络进行训练,随后再进行测试。上述两种情况的10个类别的平均分类正确率随噪声变化的情况如表3所示。由表可得,把经过DeepNIS网络增强后的图像输入到CNN网络进行分类,其正确率高于Tikhonov正则化的相应结果。
表3:不同信噪比条件下DeepNIS与Tikhonov正则化所重构图像的分类正确率
对于较低信噪比SNR=-10dB的10个类别具体分类情况如图5所示。其中图5(a)和5(b)分别是DeepNIS和Tikhonov正则化的图像分类结果。由图5图可知,DeepNIS网络增强后的图像经过CNN网络的各类别分类结果均优于Tikhonov正则化的相应结果。因此,无论是成像还是分类,采用DeepNIS网络的结果会更好,抗噪声能力也更强。
最后需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附的权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。
Claims (7)
1.一种现场可编程深度学习的微波成像与目标识别方法其特征在于包括如下步骤:
(1)采用FPGA切换N次可编程Metasurface的编码,获得N组不同数据;
(2)用Tikhonov正则化算法处理接收到的数据,进行图像重构;
(3)训练深度学习网络中的DeepNIS网络;
(4)利用DeepNIS网络对重构的图像进行增强;
(5)训练深度学习网络中的CNN网络;
(6)利用CNN网络进行目标识别分类。
2.根据权利要求1所述的现场可编程深度学习的微波成像与目标识别方法其特征在于,采用2比特可编程Metasurface。
3.根据权利要求1所述的现场可编程深度学习的微波成像与目标识别方法其特征在于,采用FPGA控制可编程Metasurface的编码,可快速切换。
4.根据权利要求1所述的现场可编程深度学习的微波成像与目标识别方法其特征在于,采用Tikhonov正则化算法进行初步的图像恢复。
5.根据权利要求1所述的现场可编程深度学习的微波成像与目标识别方法其特征在于,DeepNIS网络由三个串联的复数域卷积神经网络模块构成,每个模块由三层复数域卷积神经网络层构成。
6.根据权利要求1所述的现场可编程深度学习的微波成像与目标识别方法其特征在于,DeepNIS网络通过Adam优化算法进行训练。
7.根据权利要求1所述的现场可编程深度学习的微波成像与目标识别方法其特征在于,CNN网络使用Adadelta优化算法进行训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811324605.0A CN109344916B (zh) | 2018-11-08 | 2018-11-08 | 一种现场可编程深度学习的微波成像与目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811324605.0A CN109344916B (zh) | 2018-11-08 | 2018-11-08 | 一种现场可编程深度学习的微波成像与目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109344916A true CN109344916A (zh) | 2019-02-15 |
CN109344916B CN109344916B (zh) | 2021-09-28 |
Family
ID=65314243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811324605.0A Active CN109344916B (zh) | 2018-11-08 | 2018-11-08 | 一种现场可编程深度学习的微波成像与目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109344916B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263899A (zh) * | 2019-06-20 | 2019-09-20 | 厦门理工学院 | 一种基于石墨烯的无芯片太赫兹识别标签 |
CN110535486A (zh) * | 2019-08-07 | 2019-12-03 | 东南大学 | 基于超表面神经网络的射频信号直接处理式无线收发机 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170301082A1 (en) * | 2015-11-27 | 2017-10-19 | Siemens Healthcare Gmbh | Method and image data processing device for processing a multi-energy computerized tomography image data set |
CN107658569A (zh) * | 2017-09-06 | 2018-02-02 | 北京大学 | 一种2比特可编程的数字式人工电磁超表面 |
CN108038445A (zh) * | 2017-12-11 | 2018-05-15 | 电子科技大学 | 一种基于多视角深度学习框架的sar自动目标识别方法 |
CN108734171A (zh) * | 2017-04-14 | 2018-11-02 | 国家海洋环境监测中心 | 一种深度协同稀疏编码网络的合成孔径雷达遥感图像海洋浮筏识别方法 |
-
2018
- 2018-11-08 CN CN201811324605.0A patent/CN109344916B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170301082A1 (en) * | 2015-11-27 | 2017-10-19 | Siemens Healthcare Gmbh | Method and image data processing device for processing a multi-energy computerized tomography image data set |
CN108734171A (zh) * | 2017-04-14 | 2018-11-02 | 国家海洋环境监测中心 | 一种深度协同稀疏编码网络的合成孔径雷达遥感图像海洋浮筏识别方法 |
CN107658569A (zh) * | 2017-09-06 | 2018-02-02 | 北京大学 | 一种2比特可编程的数字式人工电磁超表面 |
CN108038445A (zh) * | 2017-12-11 | 2018-05-15 | 电子科技大学 | 一种基于多视角深度学习框架的sar自动目标识别方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263899A (zh) * | 2019-06-20 | 2019-09-20 | 厦门理工学院 | 一种基于石墨烯的无芯片太赫兹识别标签 |
CN110535486A (zh) * | 2019-08-07 | 2019-12-03 | 东南大学 | 基于超表面神经网络的射频信号直接处理式无线收发机 |
Also Published As
Publication number | Publication date |
---|---|
CN109344916B (zh) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107909109B (zh) | 基于显著性和多尺度深度网络模型的sar图像分类方法 | |
Zheng et al. | Dehaze-AGGAN: Unpaired remote sensing image dehazing using enhanced attention-guide generative adversarial networks | |
CN109636742A (zh) | 基于对抗生成网络的sar图像和可见光图像的模式转换方法 | |
CN106056070B (zh) | 基于低秩矩阵恢复和稀疏表示的sar目标识别方法 | |
CN108734171A (zh) | 一种深度协同稀疏编码网络的合成孔径雷达遥感图像海洋浮筏识别方法 | |
CN108008385A (zh) | 基于稀疏贝叶斯学习的干扰环境isar高分辨成像方法 | |
CN109840560A (zh) | 基于胶囊网络中融入聚类的图像分类方法 | |
CN110245711A (zh) | 基于角度旋转生成网络的sar目标识别方法 | |
CN110163213A (zh) | 基于视差图和多尺度深度网络模型的遥感图像分割方法 | |
CN109241902A (zh) | 一种基于多尺度特征融合的山体滑坡检测方法 | |
CN113538347B (zh) | 基于高效双向路径聚合注意力网络的图像检测方法及系统 | |
CN107527035A (zh) | 建筑物震害信息提取方法及装置 | |
CN109344916A (zh) | 一种现场可编程深度学习的微波成像与目标识别方法 | |
CN114998757A (zh) | 用于无人机航摄图像分析的目标检测方法 | |
CN109145962A (zh) | 一种基于数字图像的大气参数反演观测方法 | |
CN109949200A (zh) | 基于滤波器子集选择和cnn的隐写分析框架构建方法 | |
CN108154511B (zh) | 基于子模字典学习的sar图像分割方法 | |
CN111062310A (zh) | 一种基于虚拟样本生成的少样本无人机图像识别方法 | |
CN115047455A (zh) | 一种轻量化的sar图像舰船目标检测方法 | |
Yu et al. | Application of a convolutional autoencoder to half space radar hrrp recognition | |
CN103714353A (zh) | 基于视觉先验模型的极化sar图像分类方法 | |
CN116206214A (zh) | 一种基于轻量化卷积神经网络和双注意力的自动识别滑坡方法、系统、设备及介质 | |
Zhou et al. | MSAR‐DefogNet: Lightweight cloud removal network for high resolution remote sensing images based on multi scale convolution | |
CN110046590A (zh) | 一种基于粒子群优化深度学习特征选择的一维像识别方法 | |
Balachandran et al. | A novel approach to detect unmanned aerial vehicle using Pix2Pix generative adversarial network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |