CN116563173B - 基于多噪声自监督学习的探地雷达图像去噪方法 - Google Patents
基于多噪声自监督学习的探地雷达图像去噪方法 Download PDFInfo
- Publication number
- CN116563173B CN116563173B CN202310845396.9A CN202310845396A CN116563173B CN 116563173 B CN116563173 B CN 116563173B CN 202310845396 A CN202310845396 A CN 202310845396A CN 116563173 B CN116563173 B CN 116563173B
- Authority
- CN
- China
- Prior art keywords
- denoising
- noise
- image
- self
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000000149 penetrating effect Effects 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 23
- 230000006870 function Effects 0.000 claims abstract description 13
- 230000004927 fusion Effects 0.000 claims description 38
- 238000010586 diagram Methods 0.000 claims description 25
- 150000003839 salts Chemical class 0.000 claims description 19
- 239000006002 Pepper Substances 0.000 claims description 18
- 235000002566 Capsicum Nutrition 0.000 claims description 9
- 241000722363 Piper Species 0.000 claims description 9
- 235000016761 Piper aduncum Nutrition 0.000 claims description 9
- 235000017804 Piper guineense Nutrition 0.000 claims description 9
- 235000008184 Piper nigrum Nutrition 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 6
- 238000013461 design Methods 0.000 claims description 3
- 230000002159 abnormal effect Effects 0.000 abstract description 4
- 238000001914 filtration Methods 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 8
- 238000004088 simulation Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于多噪声自监督学习的探地雷达图像去噪方法,包括大量获取探地雷达的真实图像,构成数据集;构造一多噪声自监督学习去噪网络并设计混合损失函数;训练得到噪声自监督学习去噪模型;最后输入待去噪的真实图像,送入噪声自监督学习去噪模型中,由去噪网络输出对应的真实图像去噪图作为去噪后的图像。本发明针对基于单一噪声的自监督去噪方法无法有效应对真实探地雷达图像中多种噪声干扰、基于遮挡的盲去噪方法丢失异常区域的特征细节问题,用随机噪声水平的多种噪声生成自监督噪声数据,提升去噪网络的泛化能力,并用滤波去噪方法生成预去噪图像作为网络训练时的约束,显著提高了对探地雷达图像中的复杂噪声的去噪性能。
Description
技术领域
本发明涉及一种雷达图像去噪方法,尤其涉及一种基于多噪声自监督学习的探地雷达图像去噪方法。
背景技术
探地雷达图像中的异常区域具有波形杂乱、存在图像随机噪声的特点。这是由于使用探地雷达和深度学习模型检测公路结构病害时,采集到的信号不仅包括病害目标的响应,还包括来自空气和土壤中的天线耦合、系统振动和土壤反射的不必要的噪声、工频干扰和软件处理等干扰。这些问题导致雷达成像质量差,并影响后续的检测工作。因此,需要一种方法去除探地雷达图像中的噪声感染。
在深度学习去噪研究中,网络模型的训练通常需要大量的干净-噪声图像样本-标签数据。先前的研究通常采用向真实图像中添加合成噪声的方法来生成噪声图像。然而,探地雷达勘测地下空间时,由于环境噪声、工频信号等干扰,通常具有多种混合噪声、并且真实环境下,无法提取“干净”的样本数据。使用离散、固定水平的高斯噪声训练出来的网络模型无法处理这些未曾遇见的噪声和不同水平的噪声。
目前针对探地雷达场景的盲去噪研究仍然相对匮乏。已有的一些深度学习研究借助遮挡部分图像,重上下文重建遮挡部分,实现一定程度的高斯噪声盲去噪能力。这些盲去噪方法在恢复图像时存在异常区域细节丢失问题。
发明内容
本发明的目的就在于提供一种解决上述问题,能够对不同种类和程度的噪声图像进行自适应去噪,避免细节丢失导致图像失真等缺陷的,基于多噪声自监督学习的探地雷达图像去噪方法。
为了实现上述目的,本发明采用的技术方案是这样的:一种基于多噪声自监督学习的探地雷达图像去噪方法,包括以下步骤:
(1)大量获取探地雷达的真实图像,构成数据集;
(2)构造一多噪声自监督学习去噪网络,包括噪声生成模块、去噪模块、噪声融合模块和预去噪模块;
所述噪声生成模块用于对输入的真实图像分别添加高斯噪声、椒盐噪声和散斑噪声,生成高斯噪声图、椒盐噪声图和散斑噪声图;
所述去噪网络采用U-Net网络,用于输入真实图像、高斯噪声图、椒盐噪声图和散斑噪声图,去噪后的对应输出真实图像去噪图、高斯噪声去噪图yg、椒盐噪声去噪图ys&p和散斑噪声去噪图ys;
所述噪声融合模块用于对yg、ys&p和ys进行融合,得到多噪声融合去噪图;
所述预去噪模块用于对真实图像预先去除部分噪声,得到预去噪图像;
(3)设计混合损失函数Lhybrid;
Lhybrid=Lfus+λdLdiff (1),式(1)中,Ldiff为真实图像去噪图与预去噪图像间的微分损失函数、Lfus为多噪声融合去噪图与预去噪图像间的损失函数,λd为Ldiff的系数;
(4)将数据集分批送入噪声自监督学习去噪网络进行训练,每一批计算一Lhybrid,采用反向传播算法,通过Lhybrid更新自监督学习去噪网络的权重参数,得到噪声自监督学习去噪模型;
(5)输入待去噪的真实图像,送入噪声自监督学习去噪模型中,由去噪网络输出对应的真实图像去噪图,作为去噪后的图像。
作为优选,步骤(2)中,噪声融合模块采用下式得到多噪声融合去噪图ffusion;
(2),式(2)中,λg、λs&p和λs分别为噪声生成模块添加的高斯噪声、椒盐噪声和散斑噪声的噪声水平系数,值为0-1间的随机数。
作为优选,步骤(4)中,一张真实图像经噪声自监督学习去噪网络处理的流程为:
(a1)真实图像经噪声生成模块得到高斯噪声图、椒盐噪声图和散斑噪声图,真实图像经预去噪模块得到预去噪图像;
(a2)将真实图像、高斯噪声图、椒盐噪声图和散斑噪声图送入去噪网络分别得到真实图像去噪图、高斯噪声去噪图、椒盐噪声去噪图和散斑噪声去噪图;
(a3)将高斯噪声去噪图、椒盐噪声去噪图和散斑噪声去噪图经噪声融合模块得到多噪声融合去噪图。
作为优选,所述预去噪模块通过下式对真实图像去噪,得到预去噪图像D(x);
D(x)=NLM(WT(x)) (3),式(3)中,x为真实图像,WT(·)为小波变换bior函数,NLM为非局部均值滤波器。
作为优选,所述Ldiff、Lfus分别通过下式计算;
(4),
(5),式(4)中,N为步骤(4)中一批真实图像的数量,x j 为该批真实图像中的第j张真实图像,1≤j≤N,w为去噪网络权重,w(x j )为x j 对应的真实图像去噪图,D(x j )为x j 对应的预去噪图像;
式(5)中,ffusion(x j )为x j 对应的多噪声融合去噪图,λ为真实图像的重要性系数,用于表示真实图像在训练中的重要性。
作为优选,所述去噪网络采用U-Net网络。
本发明处理流程为:先处理真实图像得到三种随机噪声水平的高斯、椒盐、散斑噪声图;再将真实图像和三种噪声图同时输入去噪网络得到四张对应的去噪图;然后,将三种噪声去噪图输入噪声融合模块,在噪声融合模块中,以各自噪声水平作为权重进行融合得到多噪声融合去噪图;接着,使用预去噪模块对真实图像去噪,得到预去噪图像;最后,计算Lfus、Ldiff。
与现有技术相比,本发明的优点在于:
设计了一种噪声生成模块:目的是为了让去噪网络能去除真实图像中不同种类和不同水平的图像随机噪声,在探地雷达图像输入去噪网络前为其执行全局加噪,该机制为输入图像添加了多种随机程度的噪声,促进了模型对不同噪声的学习,最终提高降噪性能。
设计了与噪声生成模块匹配的噪声融合模块,用噪声生成模块添加的噪声水平作为权重融合三种去噪图得到融合结果,用于模拟真实环境下探地雷达图像中的多种噪声情况。
设计了预去噪模块,这是由于自监督的去噪网络在使用噪声水平较高的数据集训练时容易发生去噪结果与输入图像的过拟合,这导致去噪结果随着网络的训练进一步退化。为了解决这一问题,我们采用了预去噪模块生成预去噪图像作为网络训练时添加的约束,规定网络收敛的方向,防止网络随着训练而导致不能收敛。
综上,本发明提出了一种基于多噪声自监督学习的探地雷达图像去噪方法,能有效去除真实探地雷达图像中的多种混合噪声,相较于已有的算法,在仿真数据上取得了最优的客观去噪指标的提升,在真实数据上取得了最优的视觉去噪效果。
附图说明
图1为本发明架构图;
图2为实施例2中一张干扰较弱的探地雷达的真实图像经多种方法去噪得到的对比图;
图3为实施例2中一张干扰严重的探地雷达的真实图像经多种方法去噪得到的对比图;
图4为实施例2中三种方法在不同epoch下的验证集SSIM指标对比图。
实施方式
下面将结合附图对本发明作进一步说明。
实施例1:参见图1,一种基于多噪声自监督学习的探地雷达图像去噪方法,包括以下步骤:
(1)大量获取探地雷达的真实图像,构成数据集;
(2)构造一多噪声自监督学习去噪网络,包括噪声生成模块、去噪模块、噪声融合模块和预去噪模块;
所述噪声生成模块用于对输入的真实图像分别添加高斯噪声、椒盐噪声和散斑噪声,生成高斯噪声图、椒盐噪声图和散斑噪声图;
所述去噪网络采用U-Net网络,用于输入真实图像、高斯噪声图、椒盐噪声图和散斑噪声图,去噪后的对应输出真实图像去噪图、高斯噪声去噪图yg、椒盐噪声去噪图ys&p和散斑噪声去噪图ys;
所述噪声融合模块用于对yg、ys&p和ys进行融合,得到多噪声融合去噪图;
所述预去噪模块用于对真实图像预先去除部分噪声,得到预去噪图像;
(3)设计混合损失函数Lhybrid;
Lhybrid=Lfus+λdLdiff (1),式(1)中,Ldiff为真实图像去噪图与预去噪图像间的微分损失函数、Lfus为多噪声融合去噪图与预去噪图像间的损失函数,λd为Ldiff的系数;
(4)将数据集分批送入噪声自监督学习去噪网络进行训练,每一批计算一Lhybrid,采用反向传播算法,通过Lhybrid更新自监督学习去噪网络的权重参数,得到噪声自监督学习去噪模型;
(5)输入待去噪的真实图像,送入噪声自监督学习去噪模型中,由去噪网络输出对应的真实图像去噪图,作为去噪后的图像。
本实施例中,步骤(2)中,噪声融合模块采用下式得到多噪声融合去噪图ffusion;
(2),式(2)中,λg、λs&p和λs分别为噪声生成模块添加的高斯噪声、椒盐噪声和散斑噪声的噪声水平系数,值为0-1间的随机数。
步骤(4)中,一张真实图像经噪声自监督学习去噪网络处理的流程为:
(a1)真实图像经噪声生成模块得到高斯噪声图、椒盐噪声图和散斑噪声图,真实图像经预去噪模块得到预去噪图像;
(a2)将真实图像、高斯噪声图、椒盐噪声图和散斑噪声图送入去噪网络分别得到真实图像去噪图、高斯噪声去噪图、椒盐噪声去噪图和散斑噪声去噪图;
(a3)将高斯噪声去噪图、椒盐噪声去噪图和散斑噪声去噪图经噪声融合模块得到多噪声融合去噪图。
所述预去噪模块通过下式对真实图像去噪,得到预去噪图像D(x);
D(x)=NLM(WT(x)) (3),式(3)中,x为真实图像,WT(·)为小波变换bior函数,NLM为非局部均值滤波器。
所述Ldiff、Lfus分别通过下式计算;
(4),
(5),式(4)中,N为步骤(4)中一批真实图像的数量,x j 为该批真实图像中的第j张真实图像,1≤j≤N,w为去噪网络权重,w(x j )为x j 对应的真实图像去噪图,D(x j )为x j 对应的预去噪图像;
式(5)中,ffusion(x j )为x j 对应的多噪声融合去噪图,λ为真实图像的重要性系数,用于表示真实图像在训练中的重要性。
所述去噪网络采用U-Net网络。
实施例2:参见图1到图4,我们大量获取探地雷达的真实图像,构成数据集。该数据集包含1898张真实图像,其中训练集1609张、验证集289张。并对自监督学习去噪网络进行训练,得到噪声自监督学习去噪模型,也称为本发明模型。
关于步骤(4)的训练,我们将数据库中用于训练的图像随机裁剪到512×256大小,批次大小被设为8。ADAM优化器的学习率被设为0.0003,并在训练时保持不变。训练过程特续10个epoch,以使模型充分地收敛。
为了说明本发明效果,我们输入一张干扰较弱的探地雷达的真实图像,采用本本发明方法、和几种现有技术方法进行对比,得到图2。再输入一张干扰严重的探地雷达的真实图像,采用本本发明方法、和几种现有技术去噪方法进行对比,得到图3。
图2中,输入图像一指输入的干扰较弱的探地雷达的真实图像。SR GAN表示真实图像经SR GAN模型去噪得到的图像、GAN表示真实图像经GAN模型去噪得到的图像、同理,Pix2Pix、U-net、NLM、Wavelet(bior)、Blind2Unblind、本发明分别表示真实图像经Pix2Pix模型、U-net模型、NLM模型、Wavelet(bior)模型、Blind2Unblind模型、和本发明模型去噪得到的图像。Wavelet(bior)为采用bior小波基的小波去噪。图3中,输入图像二指输入的干扰严重的探地雷达的真实图像,其余各符号含义与图2相同。
从图2中可以看出,在干扰较弱的探地雷达真实图像中,SR GAN、GAN和Pix2Pix均导致了图像的失真,导致图像信息丢失。U-net、NLM、Wavelet(bior)和Blind2Unblind具有一定的去噪效果。其中本发明取得了最优的视觉去噪效果,并保留了较多的异常区域细节。
从图3中可以看出,现有技术去噪效果均不理想。本发明效果虽然效果较差,但是去除了部分噪声干扰,已经优于已有技术中的去噪效果,取得了较优的成绩。
另外,本发明所提出的方法中,用滤波去噪方法生成预去噪图像作为网络训练时的约束,所以本发明通过约束网络模型的学习方向从而稳定网络的训练。为了对比该约束的效果。我们分别用三种方法对数据集进行训练。其中方法一:Blind2Unblind去噪模型、方法二:本发明的多噪声自监督学习去噪网络、方法三:本发明的多噪声自监督学习去噪网络中去掉预去噪模块后的网络模型。
我们设计10个epoch,用本实施例2中的验证集进行验证,得到不同epoch下的验证集SSIM指标图如图4所示。所述SSIM为结构相似性 。
从图4中可以看出,随着训练epoch数的增加,本发明方法对标签进行预去噪处理能有效的减少网络的过拟合现象,稳定的训练网络模型。
实施例3:参见图1到图4,为了进一步定量研究探地雷达图像去噪方法,我们使用仿真图像构建一套仿真数据集来替换实施例1和实施例2中步骤(1)的数据集,该仿真数据集中,训练集2000张图像、验证集254张图像。我们用训练集中图像训练自监督学习去噪网络,得到噪声自监督学习去噪模型。再用多种方法对验证集中图像进行去噪处理,对比不同方法之间结构相似性SSIM、和峰值信噪比PSNR,对比结果见表1。
表1 探地雷达仿真数据集经不同去噪方法的对比试验结果
从表1中可以看出,本发明方法能取得最优的结果,SSIM达到了0.94、PSNR达到了26.7。相较于图像视觉质量次优的Blind2Unblind方法,本发明提出的方法的SSIM提升了3%、PSNR提升了0.2,相较于其他对比的探地雷达图像去噪方法,本文提出的方法的SSIM、PSNR值分别均至少提升了0.196%、7.78,这证明了本发明在探地雷达图像去噪任务上的优越性。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于多噪声自监督学习的探地雷达图像去噪方法,其特征在于,包括以下步骤:
(1)大量获取探地雷达的真实图像,构成数据集;
(2)构造一多噪声自监督学习去噪网络,包括噪声生成模块、去噪模块、噪声融合模块和预去噪模块;
所述噪声生成模块用于对输入的真实图像分别添加高斯噪声、椒盐噪声和散斑噪声,生成高斯噪声图、椒盐噪声图和散斑噪声图;
所述去噪网络采用U-Net网络,用于输入真实图像、高斯噪声图、椒盐噪声图和散斑噪声图,去噪后的对应输出真实图像去噪图、高斯噪声去噪图yg、椒盐噪声去噪图ys&p和散斑噪声去噪图ys;
所述噪声融合模块用于对yg、ys&p和ys进行融合,得到多噪声融合去噪图;
所述预去噪模块用于对真实图像预先去除部分噪声,得到预去噪图像;
(3)设计混合损失函数Lhybrid;
Lhybrid=Lfus+λd Ldiff (1),式(1)中,Ldiff为真实图像去噪图与预去噪图像间的微分损失函数、Lfus为多噪声融合去噪图与预去噪图像间的损失函数,λd为Ldiff的系数;
(4)将数据集分批送入噪声自监督学习去噪网络进行训练,每一批计算一Lhybrid,采用反向传播算法,通过Lhybrid更新自监督学习去噪网络的权重参数,得到噪声自监督学习去噪模型;
(5)输入待去噪的真实图像,送入噪声自监督学习去噪模型中,由去噪网络输出对应的真实图像去噪图,作为去噪后的图像。
2.根据权利要求1所述的基于多噪声自监督学习的探地雷达图像去噪方法,其特征在于,步骤(2)中,噪声融合模块采用下式得到多噪声融合去噪图ffusion;
(2),式(2)中,λg、λs&p和λs分别为噪声生成模块添加的高斯噪声、椒盐噪声和散斑噪声的噪声水平系数,值为0-1间的随机数。
3.根据权利要求1所述的基于多噪声自监督学习的探地雷达图像去噪方法,其特征在于,步骤(4)中,一张真实图像经噪声自监督学习去噪网络处理的流程为:
(a1)真实图像经噪声生成模块得到高斯噪声图、椒盐噪声图和散斑噪声图,真实图像经预去噪模块得到预去噪图像;
(a2)将真实图像、高斯噪声图、椒盐噪声图和散斑噪声图送入去噪网络分别得到真实图像去噪图、高斯噪声去噪图、椒盐噪声去噪图和散斑噪声去噪图;
(a3)将高斯噪声去噪图、椒盐噪声去噪图和散斑噪声去噪图经噪声融合模块得到多噪声融合去噪图。
4.根据权利要求1所述的基于多噪声自监督学习的探地雷达图像去噪方法,其特征在于,所述预去噪模块通过下式对真实图像去噪,得到预去噪图像D(x);
D(x)=NLM(WT(x)) (3),式(3)中,x为真实图像,WT(·)为小波变换bior函数,NLM为非局部均值滤波器。
5.根据权利要求1所述的基于多噪声自监督学习的探地雷达图像去噪方法,其特征在于,所述Ldiff、Lfus分别通过下式计算;
(4),
(5),式(4)中,N为步骤(4)中一批真实图像的数量,x j 为该批真实图像中的第j张真实图像,1≤j≤N,w为去噪网络权重,w(x j )为x j 对应的真实图像去噪图,D(x j )为x j 对应的预去噪图像;
式(5)中,ffusion(x j )为x j 对应的多噪声融合去噪图,λ为真实图像的重要性系数,用于表示真实图像在训练中的重要性。
6.根据权利要求1所述的基于多噪声自监督学习的探地雷达图像去噪方法,其特征在于,所述去噪网络采用U-Net网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310845396.9A CN116563173B (zh) | 2023-07-11 | 2023-07-11 | 基于多噪声自监督学习的探地雷达图像去噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310845396.9A CN116563173B (zh) | 2023-07-11 | 2023-07-11 | 基于多噪声自监督学习的探地雷达图像去噪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116563173A CN116563173A (zh) | 2023-08-08 |
CN116563173B true CN116563173B (zh) | 2023-09-08 |
Family
ID=87503999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310845396.9A Active CN116563173B (zh) | 2023-07-11 | 2023-07-11 | 基于多噪声自监督学习的探地雷达图像去噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116563173B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111667424A (zh) * | 2020-05-28 | 2020-09-15 | 武汉大学 | 一种基于无监督的真实图像去噪方法 |
KR20210116923A (ko) * | 2020-03-18 | 2021-09-28 | 에스케이텔레콤 주식회사 | 디노이징 네트워크의 학습 방법, 및 이미지 처리 방법 및 그 장치 방법 |
CN113516238A (zh) * | 2020-11-25 | 2021-10-19 | 阿里巴巴集团控股有限公司 | 一种模型训练方法、去噪方法、模型、设备及存储介质 |
CN113962887A (zh) * | 2021-10-20 | 2022-01-21 | 中国科学院计算技术研究所 | 一种二维冷冻电镜图像去噪模型的训练方法、去噪方法 |
CN114092562A (zh) * | 2021-10-19 | 2022-02-25 | 上海闻泰信息技术有限公司 | 噪声模型标定方法、图像去噪方法、装置、设备和介质 |
CA3131843A1 (en) * | 2020-09-25 | 2022-03-25 | Royal Bank Of Canada | System and method for structure learning for graph neural networks |
CN115526200A (zh) * | 2022-05-12 | 2022-12-27 | 中国科学院沈阳自动化研究所 | 基于注意力机制的低相干干涉信号去噪方法及系统 |
CN116309122A (zh) * | 2023-02-13 | 2023-06-23 | 西安理工大学 | 一种基于深度学习的相位条纹图像散斑噪声抑制方法 |
-
2023
- 2023-07-11 CN CN202310845396.9A patent/CN116563173B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210116923A (ko) * | 2020-03-18 | 2021-09-28 | 에스케이텔레콤 주식회사 | 디노이징 네트워크의 학습 방법, 및 이미지 처리 방법 및 그 장치 방법 |
CN111667424A (zh) * | 2020-05-28 | 2020-09-15 | 武汉大学 | 一种基于无监督的真实图像去噪方法 |
CA3131843A1 (en) * | 2020-09-25 | 2022-03-25 | Royal Bank Of Canada | System and method for structure learning for graph neural networks |
CN113516238A (zh) * | 2020-11-25 | 2021-10-19 | 阿里巴巴集团控股有限公司 | 一种模型训练方法、去噪方法、模型、设备及存储介质 |
CN114092562A (zh) * | 2021-10-19 | 2022-02-25 | 上海闻泰信息技术有限公司 | 噪声模型标定方法、图像去噪方法、装置、设备和介质 |
CN113962887A (zh) * | 2021-10-20 | 2022-01-21 | 中国科学院计算技术研究所 | 一种二维冷冻电镜图像去噪模型的训练方法、去噪方法 |
CN115526200A (zh) * | 2022-05-12 | 2022-12-27 | 中国科学院沈阳自动化研究所 | 基于注意力机制的低相干干涉信号去噪方法及系统 |
CN116309122A (zh) * | 2023-02-13 | 2023-06-23 | 西安理工大学 | 一种基于深度学习的相位条纹图像散斑噪声抑制方法 |
Non-Patent Citations (1)
Title |
---|
基于无监督学习的真实图像去噪算法;田胜;《中国优秀硕士学位论文全文数据库信息科技辑》(第04期);I138-727 * |
Also Published As
Publication number | Publication date |
---|---|
CN116563173A (zh) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106204467B (zh) | 一种基于级联残差神经网络的图像去噪方法 | |
CN110706181B (zh) | 一种基于多尺度膨胀卷积残差网络的图像去噪方法及系统 | |
Karaoğlu et al. | Removal of speckle noises from ultrasound images using five different deep learning networks | |
Chang et al. | Spatially adaptive wavelet thresholding with context modeling for image denoising | |
JP6057881B2 (ja) | ノイズを含む画素からなる入力画像のノイズを除去する方法 | |
CN105761216B (zh) | 一种图像去噪处理方法及装置 | |
CN109859120B (zh) | 基于多尺度残差网络的图像去雾方法 | |
CN110443775B (zh) | 基于卷积神经网络的离散小波变换域多聚焦图像融合方法 | |
CN112132758B (zh) | 基于非对称光学系统点扩散函数模型的图像复原方法 | |
CN101685158B (zh) | 基于隐马尔科夫树模型的sar图像去噪方法 | |
CN104008537A (zh) | 结合cs-ct-chmm的噪声图像融合新方法 | |
CN110796616A (zh) | 基于分数阶微分算子的l0范数约束和自适应加权梯度的湍流退化图像恢复方法 | |
Roels et al. | An overview of state‐of‐the‐art image restoration in electron microscopy | |
CN109636734A (zh) | 一种基于组稀疏表示的加权稀疏正则项约束图像去噪方法 | |
Aravindan et al. | Denoising brain images with the aid of discrete wavelet transform and monarch butterfly optimization with different noises | |
CN109345516A (zh) | 一种变换域hmt模型的脑磁共振体数据自适应增强方法 | |
Amitab et al. | Speckle noise filtering in SAR images using fuzzy logic and particle swarm optimization | |
CN114283058A (zh) | 基于对抗网络和最大互信息优化的图像超分辨率重建方法 | |
Choubey et al. | Polycystic Ovarian Syndrome Detection by Using Two-Stage Image Denoising. | |
CN116563173B (zh) | 基于多噪声自监督学习的探地雷达图像去噪方法 | |
CN112381845B (zh) | 岩心图像生成方法、模型训练方法及装置 | |
CN103784164A (zh) | 超声信号的预处理方法及系统 | |
Aravindan et al. | Medical image DENOISING scheme using discrete wavelet transform and optimization with different noises | |
Kaur et al. | Image de-noising techniques: a review paper | |
CN111340741A (zh) | 基于四元数与l1范数的粒子群优化灰度图像增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |