CN117706514A - 基于生成对抗网络的杂波消除方法、系统及设备 - Google Patents
基于生成对抗网络的杂波消除方法、系统及设备 Download PDFInfo
- Publication number
- CN117706514A CN117706514A CN202410155231.3A CN202410155231A CN117706514A CN 117706514 A CN117706514 A CN 117706514A CN 202410155231 A CN202410155231 A CN 202410155231A CN 117706514 A CN117706514 A CN 117706514A
- Authority
- CN
- China
- Prior art keywords
- image
- clutter
- free
- simulated
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000008030 elimination Effects 0.000 title abstract description 9
- 238000003379 elimination reaction Methods 0.000 title abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 81
- 238000005259 measurement Methods 0.000 claims abstract description 10
- 238000013507 mapping Methods 0.000 claims description 21
- 230000015572 biosynthetic process Effects 0.000 claims description 19
- 238000003786 synthesis reaction Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 13
- 239000002131 composite material Substances 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 10
- 239000013598 vector Substances 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 5
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 238000001994 activation Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000009659 non-destructive testing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/414—Discriminating targets with respect to background clutter
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/885—Radar or analogous systems specially adapted for specific applications for ground probing
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/04—Display arrangements
- G01S7/06—Cathode-ray tube displays or other two dimensional or three-dimensional displays
- G01S7/10—Providing two-dimensional and co-ordinated display of distance and direction
- G01S7/16—Signals displayed as intensity modulation with rectangular co-ordinates representing distance and bearing, e.g. type B
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/28—Details of pulse systems
- G01S7/285—Receivers
- G01S7/292—Extracting wanted echo-signals
- G01S7/2923—Extracting wanted echo-signals based on data belonging to a number of consecutive radar periods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/35—Details of non-pulse systems
- G01S7/352—Receivers
- G01S7/354—Extracting wanted echo-signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Electromagnetism (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明属于图像处理领域,具体涉及一种基于生成对抗网络的杂波消除方法、系统及设备,其方法包括:获取模拟无杂波图像、实测背景图像以及模拟有噪B扫描图像;基于模拟无杂波图像以及第三代风格生成对抗网络,得到合成无噪B扫描图像;基于合成无噪B扫描图像以及实测背景图像,得到合成有噪B扫描图像;基于模拟无杂波图像、合成有噪B扫描图像、模拟有噪B扫描图像以及合成无噪B扫描图像,得到成对训练数据集;获取去噪模型;基于成对训练数据集以及去噪模型,得到图像损失;基于图像损失调整去噪模型,得到优化训练模型;基于优化训练模型以及输入图像,得到无杂波图像。本申请具有扩大训练数据集以及提高图像处理质量的效果。
Description
技术领域
本发明属于图像处理领域,具体涉及一种基于生成对抗网络的杂波消除方法、系统及设备。
背景技术
探地雷达(GPR)是一种地球物理遥感方法,具有高分辨率和快速探测能力。它被广泛用作一种无损检测技术,用于评估地下物体的位置和状况,如混凝土钢筋、地下公用设施和地下水管等。但是,在实际使用过程中,GPR容易受到干扰和杂波的影响,包括:来自发射天线的直射波、地表反射和背景散射,不利于地下目标的可视化和探测。对于GPR的杂波去除方法,主要是通过线形杂波和双曲线形目标成分之间的模式差异将杂波从目标成分中分离出来,采用的技术手段为基于子空间的方法、低秩稀疏矩阵分解方法和基于稀疏表示的方法以及深度学习方法。其中,基于深度学习方法凭借强大的特征表示和学习能力,被用于参与解决具有挑战性的GPR任务,如目标检测、特征描述和逆成像。
相关技术中,基于深度学习方法主要采用基于GAN的方法,GAN方法是一种在没有成对标签数据的情况下进行无监督学习的工具,它训练的生成器网络和判别器网络是相互对抗的,以此使得去除杂波能力更强。
针对上述相关技术,大多数基于深度学习的GAN模型存在真实GPR数据不足的限制且GPR B扫描中表面目标的双曲线特征容易与其他背景干扰混淆,从而导致杂波去除效果不理想。
发明内容
本发明要解决的技术问题是提供一种基于生成对抗网络的杂波消除方法、系统、设备及存储介质,能够提供数量足够多的真实数据用于训练GAN模型,同时,能够使模型能够区别双曲线特征与背景,提高杂波去除效果。
一种基于生成对抗网络的杂波消除方法,包括:
获取模拟有噪B扫描图像、模拟无杂波图像以及实测背景图像;
基于所述模拟无杂波图像以及第三代风格生成对抗网络,得到合成无噪B扫描图像;
基于所述合成无噪B扫描图像以及所述实测背景图像,得到合成有噪B扫描图像;
基于所述模拟无杂波图像、所述合成有噪B扫描图像、所述模拟有噪B扫描图像以及所述合成无噪B扫描图像,得到成对训练数据集;
获取去噪模型;
基于所述成对训练数据集以及所述去噪模型,得到图像损失;
基于所述图像损失调整所述去噪模型,得到优化训练模型;
将待去杂波图像输入至所述优化训练模型,得到去杂波图像。
具体的,第三代风格生成对抗网络是风格生成对抗网络的衍生网络,主要改进生成器的网络结构,将生成器改为由映射网络和合成网络两部分构成。映射网络将潜码z 映射到一个中间向量w,经过仿射变换后将其加入到合成网络中,控制生成器的风格,从而实现生成不同风格的图像。鉴别器用于识别生成器生成假图像的能力,以便生成器生成更加逼真的图像。
映射网络将输入的低维噪声映射至高维特征空间,合成网络将映射网络生成的输入特征结合,生成图像,输入特征包括类别标签以及属性向量。
去噪模型包括编码器和生成器,通过编码器将输入图像压缩为低维的表示,用于提取图像的特征,低维的表示为向量或者特征图,通过生成器将编码器的低维表示解码成去噪后的图像,重构图像。
可选的,所述基于所述模拟无杂波图像以及第三代风格生成对抗网络,得到合成无噪B扫描图像包括:
基于所述第三代风格生成对抗网络以及所述模拟无杂波图像,得到随机潜码;
基于所述随机潜码以及映射网络,得到风格代码;
基于所述风格代码以及合成网络,得到合成假图像;
根据所述合成假图像以及模拟无杂波图像训练第三代风格生成对抗网络,得到所述合成无噪B扫描图像。
可选的,所述根据所述合成假图像以及模拟无杂波图像训练第三代风格生成对抗网络,得到所述合成无噪B扫描图像包括:
将所述合成假图像以及所述模拟无杂波图像通过鉴别器比较,得到判别结果;
基于所述判别结果调整所述映射网络以及所述合成网络的网络权重,得到训练第三代风格生成对抗网络;
基于所述训练第三代风格生成对抗网络以及所述模拟无杂波图像,得到所述合成无噪B扫描图像。
可选的,所述基于所述模拟无杂波图像、所述合成有噪B扫描图像、所述模拟有噪B扫描图像以及所述合成无噪B扫描图像,得到成对训练数据集包括:
将所述模拟无杂波图像以及所述合成无噪B扫描图像作为第一数据集;
将所述模拟有噪B扫描图像以及所述合成有噪B扫描图像作为第二数据集;
基于所述第一数据集合所述第二数据集,得到所述成对训练数据集。
可选的,所述基于所述成对训练数据集以及所述去噪模型,得到图像损失包括:
基于所述第二数据集以及所述去噪模型,得到去噪B扫描图像;
基于所述去噪B扫描图像以及所述第一数据集,得到图像损失。
可选的,所述基于所述图像损失调整所述去噪模型,得到优化训练模型包括:
基于所述图像损失更新所述去噪模型权重得到所述优化训练模型。
一种基于生成对抗网络的杂波消除系统,包括:
第一获取模块,用于获取模拟有噪B扫描图像、模拟无杂波图像以及实测背景图像;
第一合成模块,用于基于所述模拟无杂波图像以及第三代风格生成对抗网络,得到合成无噪B扫描图像;
第二合成模块,用于基于所述合成无噪B扫描图像以及所述实测背景图像,得到合成有噪B扫描图像;
数据集生成模块,用于基于所述模拟无杂波图像、所述合成有噪B扫描图像、所述模拟有噪B扫描图像以及所述合成无噪B扫描图像,得到成对训练数据集;
训练模块,用于基于所述成对训练数据集以及去噪模型,得到图像损失;
优化模块,用于基于所述图像损失调整所述去噪模型,得到优化训练模型;
输出模块,用于基于所述优化训练模型以及输入图像,得到去杂波图像。
可选的,所述数据集生成模块包括:
第一分类单元,用于将所述模拟无杂波图像以及所述合成无噪B扫描图像作为第一数据集;
第二分类单元,用于将所述模拟有噪B扫描图像以及所述合成有噪B扫描图像作为第二数据集;
关联单元,用于基于所述第一数据集合所述第二数据集,得到所述成对训练数据集。
本发明的有益效果是:
通过第三代风格生成对抗网络合成无噪B扫描图像,实现了数据集的放大和样本丰富,使得去噪模型的能够得到更多的训练,提高模型处理图片的能力。
通过基于模拟无杂波图像、合成有噪B扫描图像、模拟有噪B扫描图像、以及合成无噪B扫描图像训练去噪模型,提高去噪模型去除杂波的能力,提高图像处理的质量。
附图说明
图1为本发明一种基于生成对抗网络的杂波消除方法的其中一种实施方式的流程图;
图2为本发明一种基于生成对抗网络的杂波消除方法的处理流程图;
图3为本发明去噪模型处理效果示意图。
具体实施方式
一种基于生成对抗网络的杂波消除方法,如图1所示,本发明包括:
S100、获取模拟有噪B扫描图像、模拟无杂波图像以及实测背景图像。
具体的,模拟无杂波图像是通过gprMax软件使用有限差分时域方法生成。举例说明,仿真域的x、y、z方向定义为250×50×0.25厘米。空间离散度为dx=dy=0.5厘米,dz=0.25厘米。使用工作频率为1.5 GHz的天线作为发射器和接收器。天线距离地面5厘米,尺寸为17×10.8×4.5厘米。天线沿X方向移动,步长为2厘米。沿扫描轨迹收集 115幅A扫描图像,生成B扫描图像。我们使用gprMax获得了1000张B-scan图像。杂波背景B扫描图像是在保留相同条件但没有目标的情况下获得的。然后,我们减去背景B扫描图像,得到相应的无杂波图像,模拟无杂波图像和模拟有噪B扫描图像各得到1000张。
模拟有噪B扫描图像是在保留相同条件(与模拟无杂波图像相同)但没有目标的情况下获得的,实测背景图像是在真实环境中采集无目标背景得到的。
S110、基于模拟无杂波图像以及第三代风格生成对抗网络,得到合成无噪B扫描图像。
合成无噪B扫描图像是从模拟数据集的1000个无杂波B扫描中学习双曲线特征生成的。目前,公开的GPR数据集很少。训练基于深度学习的去噪模型需要大量数据集,以避免因训练数据集过小而导致网络训练效果不佳。通过gprMax软件使用有限差分时域方法模拟GPR数据非常耗时,生成式对抗网络(GAN)被广泛应用于数据增强,采用第三代风格生成对抗网络合成无噪B扫描图像。输入一定数量的模拟B扫描图像进行训练,然后输出类似的合成 B 扫描图像。在本实施例中,合成无噪B扫描图像生成4000幅。
具体的,第三代风格生成对抗网络中包括生成器和鉴别器,模拟无杂波图像输入生成器中输出合成无噪B扫描图像,合成无噪B扫描图像与输入图像一起被送入鉴别器中,鉴别器尝试识别假图像并提供反馈,在生成器和鉴别器相互竞争、共同进步的过程中,这些步骤会重复多次以此训练第三代风格生成对抗网络。第三代风格生成对抗网络训练完成后,将模拟无杂波图像输入第三代风格生成对抗网络中即可得到更逼真的合成无噪B扫描图像。合成无噪B扫描图像是无噪图像。
第三代风格生成对抗网络是风格生成对抗网络的衍生网络,主要改进生成器的网络结构,将生成器改为由映射网络(用于将潜在编码z转换成为中间向量w)、合成网络(用于生成图像)两部分构成,第三代风格生成对抗网络核心思想是将潜码z 映射到一个中间向量w,经过仿射变换后将其加入到合成网络中,从而控制着生成器的风格,其具体原理为:映射网络将输入的低维噪声映射至高维特征空间,以便生成高质量的图像,映射网络通常由多个全连接层或卷积层组成,它可以从输入的低维空间学习出一个映射关系。合成网络将映射网络生成的特征与一些条件信息(如类别标签、属性向量等)结合起来,从而生成逼真的图像,合成网络的结构通常包括编码器和解码器。编码器将输入条件信息编码为特征向量,解码器将这个特征向量与映射网络生成的特征结合,通过逆卷积层等操作生成最终的图像。
S120、基于合成无噪B扫描图像以及实测背景图像,得到合成有噪B扫描图像。
具体的,合成有噪B扫描图像是在合成无噪B扫描图像融合了实测背景图像得到的。
去噪模型需要真实的现场数据,以避免性能下降。由于无法在现场环境中获得B扫描图像及其相应的无杂波图像,因此采用折中的办法,首先在真实实验环境中采集无目标背景,然后将其与4000张由第三代风格生成对抗网络增强的合成无噪B扫描图像融合,得到4000幅有噪B扫描图像。
S130、基于模拟无杂波图像、合成有噪B扫描图像、模拟有噪B扫描图像以及合成无噪B扫描图像,得到成对训练数据集。
具体的,成对训练数据集是指在训练去噪模型的时候,去噪模型需要学习从有噪到无噪的过程,因此输入数据肯定需要有噪图像和无噪图像,无噪图像和有噪图像就成为成对训练数据集。也及时模拟无杂波图像和合成无噪B扫描图像与合成有噪B扫描图像、模拟有噪B扫描图像共同构成成对训练数据集。
S140、基于成对训练数据集以及去噪模型,得到图像损失。
具体的,去噪模型为将有噪B扫描图像处理为无噪的B扫描图像的模型。去噪模型包括编码器和生成器。编码器用于接收输入图像,生成器用于生成无噪的B扫描图像。去噪模型主要是通过编码器将输入图像压缩为一个低维的表示,通常用于提取图像的特征,然后通过生成器将编码器的低维表示解码成去噪后的图像,重构更干净的图像。这个过程中,使用成对的训练数据集,对编码器和生成器网络进行联合训练,通过最小化损失函数来优化网络参数。训练过程中,将带噪声的图像输入编码器,得到低维表示,再通过生成器生成去噪后的图像,与目标图像进行对比计算损失,以此确定最佳网络参数。生成器和编码器可以通过GAN模型(生成对抗网络)搭建。
图像损失为真实图像和重建图像之间的像素损失。将训练数据中的有噪B扫描图像输入去噪模型中,去噪模型输出一个无噪的B扫描图像,无噪的B扫描图像与输入图像进行比较,得到图像损失。
S150、基于图像损失调整去噪模型,得到优化训练模型。
具体的,根据图像损失更新编码器权重,从而更好的反转生成器,得到优化去噪模型。
S160、基于优化训练模型以及输入图像,得到去杂波图像。
具体的, 去噪模型训练完成后,学会了如何将有噪图像更好的处理为去噪图像也就是去杂波图像,此时将需要处理的图像也就是输入图像输入优化训练模型中,即可得到处理后的无噪训练模型。
在本实施例的其中一种实施方式中,步骤S110即基于模拟无杂波图像以及第三代风格生成对抗网络,得到合成无噪B扫描图像包括:
S200、基于第三代风格生成对抗网络以及模拟无杂波图像,得到随机潜码。
具体的,随机潜码第三代风格生成对抗网络中使用的一种输入信号,通常是通过从一个潜码空间中随机采样得到的。
S210、基于随机潜码以及映射网络,得到风格代码。
具体的,风格代码用于控制生成图像的风格属性,它是通过对潜码进行映射网络处理得到的。
S220、基于风格代码以及合成网络,得到合成假图像。
S230、根据所述合成假图像以及模拟无杂波图像训练第三代风格生成对抗网络,得到所述合成无噪B扫描图像。
具体的,将风格代码传递给合成网络,合成网络根据风格代码结合模拟无杂波图像生成风格代码对应的合成假图像。然后合成假图像和输入的模拟无杂波图像通过鉴别器鉴别,以此训练第三代风格对抗生成网络,最终用训练好的第三代风格生成对抗网络重新获取随机随机潜码,得到合成无噪B扫描图像。
在本实施例的其中一种实施方式中,步骤S220即基于风格代码以及模拟无杂波图像,得到合成无噪B扫描图像之后包括:
S300、将所述合成假图像以及所述模拟无杂波图像通过鉴别器比较,得到判别结果。
S310、基于判别结果调整映射网络以及合成网络的网络权重,得到训练第三代风格生成对抗网络。
S320、基于训练第三代风格生成对抗网络以及模拟无杂波图像,得到合成无噪B扫描图像。
具体的,判别结果是鉴别器将合成假图像与真实图像比较得到的,判别结果表示的是真实图像与通过生成器生成的图像的差别,鉴别器判断输入图像是真图像还是假图像。
随机潜码被采样并输入映射网络以获得风格代码,映射网络是一个将输入潜码映射到中间潜码空间的小型神经网络。这样就可以控制生成图像的风格属性。然后,将风格代码传递给合成网络以生成假图像,合成网络使用自适应实例归一化来根据潜码动态调节激活,并包含以渐进式增长块排列的卷积层。假图像与数据集中的真实图像一起被送入鉴别器,鉴别器尝试识别假图像并提供反馈。根据鉴别器的反馈,通过反向传播更新映射网络和合成网络权重,得到训练第三代风格生成对抗网络,使生成器生成更逼真的图像。在生成器和鉴别器相互竞争、共同进步的过程中,这些步骤会重复多次。训练结束后,生成器可以通过对新的潜码进行采样来生成新的高质量图像。
合成网络是生成器的一部分,在生成器中,合成网络负责将输入的风格代码转换为适合生成图像的特征激活。它通过将风格代码的特征与生成器中的卷积神经网络的中间层激活进行调节,从而在生成图像时控制图像的风格属性。
在本实施例的其中一种实施方式中,步骤S130即基于模拟无杂波图像、合成有噪B扫描图像、模拟有噪B扫描图像以及合成无噪B扫描图像,得到成对训练数据集包括:
S400、将模拟无杂波图像以及合成无噪B扫描图像作为第一数据集。
S410、将模拟有噪B扫描图像以及合成有噪B扫描图像作为第二数据集。
S420、基于第一数据集合第二数据集,得到成对训练数据集。
具体的,第一数据集中包括的是无杂波的图像,第二数据集中包括的是有杂波的图像,将有杂波的图像和无杂波的图像作为成对图像一起输入去噪模型中,使得去噪模型学习从有杂波到无杂波的过程。
在本实施例的其中一种实施方式中,步骤S150即基于成对训练数据集以及去噪模型,得到图像损失包括:
S500、基于第二数据集以及去噪模型,得到去噪B扫描图像。
S510、基于去噪B扫描图像以及第一数据集,得到图像损失。
基于图像损失调整去噪模型,得到优化训练模型包括:
基于图像损失更新去噪模型权重得到优化训练模型。
具体的,去噪模型输入的时候是第二数据集合和第一数据集一起输入去噪模型的,但是只有第二数据集经过去噪模型处理后,得到去噪B扫描图像,然后生产的去噪B扫描图像和真实图像比较得到图像损失,也就是像素损失,根据像素损失,更新编码器权重,从而更好地反转生成器。训练完成后,图像转换过程如下。首先,获取源图像并通过编码器得到潜码。然后,映射网络会将潜码转换为风格码,以控制风格属性。然后,将风格代码提供给生成器,以便在目标领域合成图像。这样就可以利用生成器的知识,将源图像转换到新的领域。编码器将图像投射到潜在空间,而生成器则使用代码来确定输出域中的风格属性。
如图2所示,展示了杂波消除的过程,首先通过仿真软件例如gprMax生成模拟有噪B扫描图像、模拟无杂波图像以及实测背景图像,然后通过第三代风格生成对抗网络实现数据集的扩增,并对第三代风格生成对抗网络训练使其生成图像更加逼真,然后融合实测背景图像,得到合成有噪B扫描图像,最终成对数据集,通过去噪模型以及成对数据集,使得去噪模型学习有噪到无噪的过程,并且通过损失函数更新去噪模型的权重,得到最优的去噪效果。图3展示的是通过训练好的去噪模型,最终处理图像的效果,图3中的(a)为输入图像,(b)为输出图像。
一种基于生成对抗网络的杂波消除系统,包括:
第一获取模块,用于获取模拟有噪B扫描图像、模拟无杂波图像以及实测背景图像;
第一合成模块,用于基于模拟无杂波图像以及第三代风格生成对抗网络,得到合成无噪B扫描图像;
第二合成模块,用于基于合成无噪B扫描图像以及实测背景图像,得到合成有噪B扫描图像;
数据集生成模块,用于基于模拟无杂波图像、合成有噪B扫描图像、模拟有噪B扫描图像以及合成无噪B扫描图像,得到成对训练数据集;
训练模块,用于基于成对训练数据集以及去噪模型,得到图像损失;
优化模块,用于基于图像损失调整去噪模型,得到优化训练模型;
输出模块,用于基于优化训练模型以及输入图像,得到去杂波图像。
数据集生成模块包括:
第一分类单元,用于将模拟无杂波图像以及合成无噪B扫描图像作为第一数据集;
第二分类单元,用于将模拟有噪B扫描图像以及合成有噪B扫描图像作为第二数据集;
关联单元,用于基于第一数据集合第二数据集,得到成对训练数据集。
本申请实施例还公开一种终端设备,包括存储器、处理器,存储器储存有能够在处理器上运行的计算机程序,处理器加载并执行计算机程序时,采用了一种基于生成对抗网络的杂波消除方法。
其中,终端设备可以采用台式电脑、笔记本电脑或者云端服务器等计算机设备,并且,终端设备包括但不限于处理器以及存储器,例如,终端设备还可以包括输入输出设备、网络接入设备以及总线等。
其中,处理器可以采用中央处理单元(CPU),当然,根据实际的使用情况,也可以采用其他通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,通用处理器可以采用微处理器或者任何常规的处理器等,本申请对此不做限制。
其中,存储器可以为终端设备的内部存储单元,例如,终端设备的硬盘或者内存,也可以为终端设备的外部存储设备,例如,终端设备上配备的插接式硬盘、智能存储卡(SMC)、安全数字卡(SD)或者闪存卡(FC)等,并且,存储器还可以为终端设备的内部存储单元与外部存储设备的组合,存储器用于存储计算机程序以及终端设备所需的其他程序和数据,存储器还可以用于暂时地存储已经输出或者将要输出的数据,本申请对此不做限制。
其中,通过本终端设备,将上述实施例中的一种基于生成对抗网络的杂波消除方法存储于终端设备的存储器中,并且,被加载并执行于终端设备的处理器上,方便使用。
本申请实施例还公开一种计算机可读存储介质,并且,计算机可读存储介质存储有计算机程序,其中,计算机程序被处理器执行时,采用了上述实施例中的一种基于生成对抗网络的杂波消除方法。
其中,计算机程序可以存储于计算机可读介质中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间件形式等,计算机可读介质包括能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM)、随机存取存储器(RAM)、电载波信号、电信信号以及软件分发介质等,需要说明的是,计算机可读介质包括但不限于上述元器件。
其中,通过本计算机可读存储介质,将上述实施例中的一种基于生成对抗网络的杂波消除方法存储于计算机可读存储介质中,并且,被加载并执行于处理器上,以方便上述方法的存储及应用。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本申请的保护范围限于这些例子;在本申请的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本申请中一个或多个实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
本申请中一个或多个实施例旨在涵盖落入本申请的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本申请中一个或多个实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.基于生成对抗网络的杂波消除方法,其特征是,包括:
获取模拟有噪B扫描图像、模拟无杂波图像以及实测背景图像;
基于所述模拟无杂波图像以及第三代风格生成对抗网络,得到合成无噪B扫描图像,所述第三代风格生成对抗网络是风格生成对抗网络的衍生网络,改进生成器的网络结构,将生成器改为由映射网络和合成网络两部分构成;
基于所述合成无噪B扫描图像以及所述实测背景图像,得到合成有噪B扫描图像;
基于所述模拟无杂波图像、所述合成有噪B扫描图像、所述模拟有噪B扫描图像以及所述合成无噪B扫描图像,得到成对训练数据集;
基于所述成对训练数据集以及去噪模型,得到图像损失;
基于所述图像损失调整所述去噪模型,得到优化训练模型;
将待去杂波图像输入至所述优化训练模型,得到去杂波图像。
2.如权利要求1所述的基于生成对抗网络的杂波消除方法,其特征是,所述基于所述模拟无杂波图像以及第三代风格生成对抗网络,得到合成无噪B扫描图像包括:
基于所述第三代风格生成对抗网络以及所述模拟无杂波图像,得到随机潜码;
基于所述随机潜码以及所述映射网络,得到风格代码;
基于所述风格代码以及所述合成网络,得到合成假图像;
根据所述合成假图像以及所述模拟无杂波图像训练第三代风格生成对抗网络,得到所述合成无噪B扫描图像。
3.如权利要求2所述的基于生成对抗网络的杂波消除方法,其特征是,所述根据所述合成假图像以及所述模拟无杂波图像训练第三代风格生成对抗网络,得到所述合成无噪B扫描图像包括:
将所述合成假图像以及所述模拟无杂波图像通过鉴别器比较,得到判别结果;
基于所述判别结果调整所述映射网络以及所述合成网络的网络权重,得到训练第三代风格生成对抗网络;
基于所述训练第三代风格生成对抗网络以及所述模拟无杂波图像,得到所述合成无噪B扫描图像。
4.如权利要求1所述的基于生成对抗网络的杂波消除方法,其特征是,所述基于所述模拟无杂波图像、所述合成有噪B扫描图像、所述模拟有噪B扫描图像以及所述合成无噪B扫描图像,得到成对训练数据集包括:
将所述模拟无杂波图像以及所述合成无噪B扫描图像作为第一数据集;
将所述模拟有噪B扫描图像以及所述合成有噪B扫描图像作为第二数据集;
基于所述第一数据集和所述第二数据集,得到所述成对训练数据集。
5.如权利要求4所述的基于生成对抗网络的杂波消除方法,其特征是,所述基于所述成对训练数据集以及所述去噪模型,得到图像损失包括:
基于所述第二数据集以及所述去噪模型,得到去噪B扫描图像;
基于所述去噪B扫描图像以及所述第一数据集,得到图像损失。
6.如权利要求1所述的基于生成对抗网络的杂波消除方法,其特征是,所述基于所述图像损失调整所述去噪模型,得到优化训练模型包括:
基于所述图像损失更新所述去噪模型权重得到所述优化训练模型。
7.基于生成对抗网络的杂波消除系统,其特征是,包括:
第一获取模块,用于获取模拟有噪B扫描图像、模拟无杂波图像以及实测背景图像;
第一合成模块,用于基于所述模拟无杂波图像以及第三代风格生成对抗网络,得到合成无噪B扫描图像,所述第三代风格生成对抗网络是风格生成对抗网络的衍生网络,改进生成器的网络结构,将生成器改为由映射网络和合成网络两部分构成;
第二合成模块,用于基于所述合成无噪B扫描图像以及所述实测背景图像,得到合成有噪B扫描图像;
数据集生成模块,用于基于所述模拟无杂波图像、所述合成有噪B扫描图像、所述模拟有噪B扫描图像以及所述合成无噪B扫描图像,得到成对训练数据集;
训练模块,用于基于所述成对训练数据集以及去噪模型,得到图像损失;
优化模块,用于基于所述图像损失调整所述去噪模型,得到优化训练模型;
输出模块,用于基于所述优化训练模型以及输入图像,得到去杂波图像。
8.如权利要求7所述的基于生成对抗网络的杂波消除系统,其特征是,所述数据集生成模块包括:
第一分类单元,用于将所述模拟无杂波图像以及所述合成无噪B扫描图像作为第一数据集;
第二分类单元,用于将所述模拟有噪B扫描图像以及所述合成有噪B扫描图像作为第二数据集;
关联单元,用于基于所述第一数据集合所述第二数据集,得到所述成对训练数据集。
9.一种终端设备,包括存储器和处理器,其特征在于,所述存储器储存有能够在处理器上运行的计算机程序,所述处理器加载并执行所述计算机程序时,采用了权利要求1至6中任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,其特征在于,所述计算机程序被处理器加载并执行时,采用了权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410155231.3A CN117706514B (zh) | 2024-02-04 | 2024-02-04 | 基于生成对抗网络的杂波消除方法、系统及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410155231.3A CN117706514B (zh) | 2024-02-04 | 2024-02-04 | 基于生成对抗网络的杂波消除方法、系统及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117706514A true CN117706514A (zh) | 2024-03-15 |
CN117706514B CN117706514B (zh) | 2024-04-30 |
Family
ID=90146479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410155231.3A Active CN117706514B (zh) | 2024-02-04 | 2024-02-04 | 基于生成对抗网络的杂波消除方法、系统及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117706514B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345469A (zh) * | 2018-09-07 | 2019-02-15 | 苏州大学 | 一种基于条件生成对抗网络的oct成像中散斑去噪方法 |
CN111626961A (zh) * | 2020-05-29 | 2020-09-04 | 中国人民解放军海军航空大学 | 一种基于生成对抗网络的雷达图像杂波抑制方法及系统 |
CN114998137A (zh) * | 2022-06-01 | 2022-09-02 | 东南大学 | 一种基于生成对抗网络的探地雷达图像杂波抑制方法 |
CN117368877A (zh) * | 2023-10-19 | 2024-01-09 | 电子科技大学 | 基于生成对抗学习的雷达图像杂波抑制与目标检测方法 |
CN117409192A (zh) * | 2023-12-14 | 2024-01-16 | 武汉大学 | 一种基于数据增强的红外小目标检测方法及装置 |
-
2024
- 2024-02-04 CN CN202410155231.3A patent/CN117706514B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345469A (zh) * | 2018-09-07 | 2019-02-15 | 苏州大学 | 一种基于条件生成对抗网络的oct成像中散斑去噪方法 |
CN111626961A (zh) * | 2020-05-29 | 2020-09-04 | 中国人民解放军海军航空大学 | 一种基于生成对抗网络的雷达图像杂波抑制方法及系统 |
CN114998137A (zh) * | 2022-06-01 | 2022-09-02 | 东南大学 | 一种基于生成对抗网络的探地雷达图像杂波抑制方法 |
CN117368877A (zh) * | 2023-10-19 | 2024-01-09 | 电子科技大学 | 基于生成对抗学习的雷达图像杂波抑制与目标检测方法 |
CN117409192A (zh) * | 2023-12-14 | 2024-01-16 | 武汉大学 | 一种基于数据增强的红外小目标检测方法及装置 |
Non-Patent Citations (2)
Title |
---|
戴圆强, 基于神经网络的高频地波雷达电离层杂波抑制方法研究, 15 April 2023 (2023-04-15) * |
潘宗序;安全智;张冰尘;: "基于深度学习的雷达图像目标识别研究进展", 中国科学:信息科学, no. 12, 20 December 2019 (2019-12-20) * |
Also Published As
Publication number | Publication date |
---|---|
CN117706514B (zh) | 2024-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111724478B (zh) | 一种基于深度学习的点云上采样方法 | |
Baur et al. | MelanoGANs: high resolution skin lesion synthesis with GANs | |
CN111784560A (zh) | 基于级联残差生成对抗网络的sar和光学图像双向翻译方法 | |
CN112381845B (zh) | 岩心图像生成方法、模型训练方法及装置 | |
US11403807B2 (en) | Learning hybrid (surface-based and volume-based) shape representation | |
CN111275640A (zh) | 一种融合二维离散小波变换和生成对抗网络的图像增强方法 | |
CN110728706A (zh) | 基于深度学习的sar图像精细配准方法 | |
CN112578471B (zh) | 一种探地雷达杂波噪声去除方法 | |
CN114966600A (zh) | 一种探地雷达B-scan图像杂波抑制方法及系统 | |
Reed et al. | Coupling rendering and generative adversarial networks for artificial SAS image generation | |
CN115372960B (zh) | 一种改进生成对抗网络的天波雷达地海杂波数据增强方法 | |
CN115018943B (zh) | 一种基于无训练的深度级联网络的电磁逆散射成像方法 | |
Nakashima et al. | Learning to drop points for lidar scan synthesis | |
Wang et al. | An adaptive learning image denoising algorithm based on eigenvalue extraction and the GAN model | |
Cherian et al. | A Novel AlphaSRGAN for Underwater Image Super Resolution. | |
Zhang et al. | SFA-GAN: structure–frequency-aware generative adversarial network for underwater image enhancement | |
CN117706514B (zh) | 基于生成对抗网络的杂波消除方法、系统及设备 | |
US12045935B2 (en) | Method, electronic device, and computer program product for generating target object | |
Du et al. | Multi-category SAR images generation based on improved generative adversarial network | |
Huang et al. | An NSST-Based Fusion Method for Airborne Dual-Frequency, High-Spatial-Resolution SAR Images | |
Ren et al. | REN-GAN: Generative adversarial network-driven rebar clutter elimination network in GPR image for tunnel defect identification | |
CN109063760B (zh) | 基于随机森林多尺度卷积模型的极化sar分类方法 | |
CN115223033A (zh) | 一种合成孔径声呐图像目标分类方法及系统 | |
Pu et al. | Cross-Domain SAR Ship Detection in Strong Interference Environment Based on Image-to-Image Translation | |
Chen et al. | Super-Resolution of Satellite Images Based on Two-Dimensional RRDB and Edge-Enhanced Generative Adversarial Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |