CN113129237B - 基于多尺度融合编码网络的深度图像去模糊方法 - Google Patents

基于多尺度融合编码网络的深度图像去模糊方法 Download PDF

Info

Publication number
CN113129237B
CN113129237B CN202110455773.9A CN202110455773A CN113129237B CN 113129237 B CN113129237 B CN 113129237B CN 202110455773 A CN202110455773 A CN 202110455773A CN 113129237 B CN113129237 B CN 113129237B
Authority
CN
China
Prior art keywords
image
network model
model
scale
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110455773.9A
Other languages
English (en)
Other versions
CN113129237A (zh
Inventor
夏海英
吴波
宋树祥
黎海生
牟向伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi Normal University
Original Assignee
Guangxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi Normal University filed Critical Guangxi Normal University
Priority to CN202110455773.9A priority Critical patent/CN113129237B/zh
Publication of CN113129237A publication Critical patent/CN113129237A/zh
Application granted granted Critical
Publication of CN113129237B publication Critical patent/CN113129237B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于多尺度融合编码网络的深度图像去模糊方法,通过将图像多尺度编码融合,配合所述区域注意力模块与所述特征融合模块构建生成网络模型,并由深度卷积模块构建判别网络模型,结合所述生成网络模型和所述判别网络模型生成对抗网络模型,通过获取清晰、模糊图像对输入所述对抗网络模型不断交替对抗性训练获得图像去模糊模型,误差收敛至指定范围后停止训练,利用所述图像去模糊模型进行图像去模糊,解决了现有技术中的深度学习图像去模糊模型效果不佳的技术问题。

Description

基于多尺度融合编码网络的深度图像去模糊方法
技术领域
本发明涉及深度学习技术领域,尤其涉及一种基于多尺度融合编码网络的深度图像去模糊方法。
背景技术
图像去模糊,即从模糊图像中恢复出清晰的图像,近年来一直是一个重要的研究领域。目前,针对摄像机在采集过程中产生平移或旋转导致采集图像的运动模糊,关键就是恢复图像必要边缘细节以及整体结构的信息。
传统的方法采用模糊模型的估计,使用不同的先验信息(颜色、局部的平滑性、非局部自相似、稀疏性等)将其作为正则化项改进图像去模糊效果,这类方法大多涉及固定的参数和大量的计算过程,同时实际模糊程度比估计模型的大得多,导致无法恢复较为清晰的图像;近年来,传统框架中使用卷积神经网络模块代替,并取得了很好的效果,但是只适用于某些特定的类型模糊,对多变的模糊类型有局限性,并且存在耗时严重的问题,无法很好的兼顾图像去模糊的速度和效果。
发明内容
本发明的目的在于提供一种基于多尺度融合编码网络的深度图像去模糊方法,旨在解决现有技术中的深度学习图像去模糊模型效果不佳的技术问题。
为实现上述目的,本发明采用的一种基于多尺度融合编码网络的深度图像去模糊方法,包括下列步骤:
构建生成网络模型;
利用深度卷积模块构建判别网络模型;
结合所述生成网络模型和所述判别网络模型生成对抗网络模型;
训练所述对抗网络模型,获得图像去模糊模型;
使用所述图像去模糊模型去除单幅图像中的模糊。
其中,所述生成网络模型采用多尺度编码融合结构,包括区域注意力模块和特征融合模块,所述区域注意力模块提取特征,所述特征融合模块增强特征尺度间的融合。
其中,所述多尺度编码融合结构包含三种不同尺度,对应为原始尺度、二分之一尺度和四分之一尺度。
其中,在利用深度卷积模块构建判别网络模型的过程中,利用深层卷积模块与图像特征跳层连接结合构建所述判别网络模型,所述判别网络模型对去模糊后的图像进行判别。
其中,在对所述对抗网络模型进行训练,获得图像去模糊模型的过程中,将模糊图像与清晰图像集合输入所述对抗网络模型,所述生成网络模型通过模糊图像生成与清晰图像无限逼近的效果,所述判别网络模型判别图像的真实性,反复迭代对抗,利用误差反向传播交替训练获得图像去模糊模型。
其中,所述模糊图像与清晰图像集合中的模糊图像和清晰图像一一对应。
本发明的一种基于多尺度融合编码网络的深度图像去模糊方法,通过将图像多尺度编码融合,配合所述区域注意力模块与所述特征融合模块构建生成网络模型,并由深度卷积模块构建判别网络模型,结合所述生成网络模型和所述判别网络模型生成对抗网络模型,通过获取清晰、模糊图像对输入所述对抗网络模型不断交替对抗性训练获得图像去模糊模型,误差收敛至指定范围后停止训练,利用所述图像去模糊模型进行图像去模糊,解决了现有技术中的深度学习图像去模糊模型效果不佳的技术问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一种基于多尺度融合编码网络的深度图像去模糊方法的流程示意图。
图2是本发明的生成网络模型的结构示意图。
图3是本发明的区域注意力模块的结构示意图。
图4是本发明的特征融合模块的结构示意图。
图5是本发明的判别网络模型的结构示意图。
图6是本发明的生成对抗网络模型的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
请参阅图1,本发明提出了一种基于远心度补偿的几何尺寸精密测量方法,包括下列步骤:
基于多尺度融合编码网络的深度图像去模糊方法,包括下列步骤:
S1:构建生成网络模型;
S2:利用深度卷积模块构建判别网络模型;
S3:结合所述生成网络模型和所述判别网络模型生成对抗网络模型;
S4:训练所述对抗网络模型,获得图像去模糊模型;
S5:使用所述图像去模糊模型去除单幅图像中的模糊。
所述生成网络模型采用多尺度编码融合结构,包括区域注意力模块和特征融合模块,所述区域注意力模块提取特征,所述特征融合模块增强特征尺度间的融合。
所述多尺度编码融合结构包含三种不同尺度,对应为原始尺度、二分之一尺度和四分之一尺度。
在利用深度卷积模块构建判别网络模型的过程中,利用深层卷积模块与图像特征跳层连接结合构建所述判别网络模型,所述判别网络模型对去模糊后的图像进行判别。
在对所述对抗网络模型进行训练,获得图像去模糊模型的过程中,将模糊图像与清晰图像集合输入所述对抗网络模型,所述生成网络模型通过模糊图像生成与清晰图像无限逼近的效果,所述判别网络模型判别图像的真实性,反复迭代对抗,利用误差反向传播交替训练获得图像去模糊模型。
所述模糊图像与清晰图像集合中的模糊图像和清晰图像一一对应。
请参阅图2至图6,由多尺度编码网络构建的生成网络模型,将生成器模型称为G(x),G(x)通过模糊图像多尺度输入进行输出去模糊图像,由原始尺度模糊图像进行卷积编码得到的特征,通过下采样与
Figure BDA0003040467290000041
尺度模糊图像进行卷积编码的融合,再次进行下采样与
Figure BDA0003040467290000042
尺度的模糊图像进行卷积编码融合,进行逐层上采样恢复去模糊图像,其中包含自主设计的区域注意力模块(结构详见图3)和特征融合模块(结构参阅图4)。
区域注意力模块:通过对特征进行分区域单独送入模块中,一条路径利用空间池化进行模糊图像的表征,并分别将表征结果量化为加权数值。一条路径通过不同扩张率的空洞卷积进行提取特征,得到的特征向量乘以相应的加权数值。特征融合模块通过通道加权的方式进行有效的融合。两个模块能够增强去模糊图像的清晰质量。举例说明,生成网络模型通过输入模糊图像,称之为B,经过处理获取
Figure BDA0003040467290000043
以及
Figure BDA0003040467290000044
将三种不同尺度模糊图像同时输入生成网络模型,得到去模糊图像,称之为
Figure BDA0003040467290000045
判别网络模型如图5所示,通过深层卷积级联,最后通过函数进行输出[0,1]的具体数值,通过该判别网络模型,对清晰图像或去模糊后图像进行精确判别。
结合上述生成网络模型与判别网络模型构建生成对抗网络模型,结构如图5所示,包含生成网络模型与判别网络模型。生成网络模型的任务是通过模糊图像生成与清晰图像无限逼近的效果,判别网络模型的任务是判别图像的真实性,即判别生成网络生成的图像为假,清晰图像为真,不断进行生成判别对抗,达到生成网络模型生成的图像混淆判别器的结果。进一步地,大量配对的清晰、模糊图像集合,逐对进行操作。将模糊图像B,通过生成网络模型得到的去模糊后的图像
Figure BDA0003040467290000046
以及输入的真实图像,称为S,先将S送入该判别网络模型,理想输出值为真(1),通过将模糊图像B送入生成网络模型,得到输出
Figure BDA0003040467290000047
将其送入判别网络模型,理想输出值为假(0),通过反复迭代对抗,直到
Figure BDA0003040467290000051
无限接近S,达到去模糊图像与清晰图像无限逼近的效果。
利用误差反向传播交替训练生成对抗网络模型。具体为:
生成网络模型函数:
Figure BDA0003040467290000052
其中B为模糊图像,
Figure BDA0003040467290000053
为G(x)生成的去模糊图像。
生成网络模型即多尺度融合编码网络目标函数为:
LG=αLcontent+βLperceptual+γLWGAN (2)
其中超参数α、β、γ分为0.5、0.0001、0.01。
Figure BDA0003040467290000054
为内容损失函数,L2为均方误差损失函数。
Figure BDA0003040467290000055
其中VGG是一个VGG预训练卷积神经网络,该损失函数为感知损失函数。
Figure BDA0003040467290000056
E为期望函数,判别网络的误差。
判别网络的目标函数为:
Figure BDA0003040467290000057
Figure BDA0003040467290000058
上式中,E表示期望函数,D表示判别网络,Δ表示梯度,B和S表示生成器生成的图像和清晰,
Figure BDA0003040467290000059
分别表示对S和
Figure BDA00030404672900000510
的随机差分抽样,表示
Figure BDA00030404672900000511
满足的分布,λ和ε是超参数。
利用训练好的所述生成网络模型组成图像去模糊模型,去除单幅图像中的模糊。
本发明还提供了一个具体实施例辅助证明:
使用Deep Multi-scale Convolutional Neural Network for Dynamic Sce-neDeblurring文献提供的数据集,称为GOPRO数据集,实验设备NVIDIA GTX2080Ti GPU和Xeon(R)Gold 6152CPU;评价指标为峰值信噪比(PSNR)和图像相识度(SSIM)。所述多尺度融合编码去模糊网络与最先进的方法Scale-recurrent network for deep image deblurring(SRN)、DeblurGAN-v2:Deblurring(Orders-of-Magnitude)Faster and Better(DeblurGANv2)和Deep Stacked Hierarchical Multi-patch Network for ImageDeblurring(DMPHN(1-2-4-8))。实验结果如下表1所示,结果为同一实验条件下的测试结果,多尺度融合编码网络表现的去模糊性能与速度超过现有的方法。
表1
Figure BDA0003040467290000061
综上所述,本发明提出的基于多尺度融合编码网络的深度图像去模糊方法,通过构建多尺度图像融合编码和特征融合模块以及区域注意力模块的生成网络模型,使图像去模糊速度和性能都优于传统方法,解决了图像去模糊的问题。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (6)

1.一种基于多尺度融合编码网络的深度图像去模糊方法,其特征在于,包括下列步骤:
构建生成网络模型;
利用深度卷积模块构建判别网络模型;
结合所述生成网络模型和所述判别网络模型生成对抗网络模型;
训练所述对抗网络模型,获得图像去模糊模型;
使用所述图像去模糊模型去除单幅图像中的模糊;
所述生成网络模型函数:
Figure FDA0003614090730000014
其中B为模糊图像,
Figure FDA0003614090730000015
为生成器模型G(x)生成的去模糊图像;
所述生成网络模型即多尺度融合编码网络目标函数为:
LG=αLcontent+βLperceptual+γLWGAN
其中超参数α、β、γ分为0.5、0.0001、0.01;
Figure FDA0003614090730000011
为内容损失函数,L2为均方误差损失函数;
Figure FDA0003614090730000012
为感知损失函数,其中VGG是一个VGG预训练卷积神经网络;
Figure FDA0003614090730000013
为判别网络的误差,E为期望函数。
2.如权利要求1所述的基于多尺度融合编码网络的深度图像去模糊方法,其特征在于,所述生成网络模型采用多尺度编码融合结构,包括区域注意力模块和特征融合模块,所述区域注意力模块提取特征,所述特征融合模块增强特征尺度间的融合。
3.如权利要求2所述的基于多尺度融合编码网络的深度图像去模糊方法,其特征在于,所述多尺度编码融合结构包含三种不同尺度,对应为原始尺度、二分之一尺度和四分之一尺度。
4.如权利要求3所述的基于多尺度融合编码网络的深度图像去模糊方法,其特征在于,在利用深度卷积模块构建判别网络模型的过程中,利用深层卷积模块与图像特征跳层连接结合构建所述判别网络模型,所述判别网络模型对去模糊后的图像进行判别。
5.如权利要求4所述的基于多尺度融合编码网络的深度图像去模糊方法,其特征在于,在对所述对抗网络模型进行训练,获得图像去模糊模型的过程中,将模糊图像与清晰图像集合输入所述对抗网络模型,所述生成网络模型通过模糊图像生成与清晰图像无限逼近的效果,所述判别网络模型判别图像的真实性,反复迭代对抗,利用误差反向传播交替训练获得图像去模糊模型。
6.如权利要求5所述的基于多尺度融合编码网络的深度图像去模糊方法,其特征在于,所述模糊图像与清晰图像集合中的模糊图像和清晰图像一一对应。
CN202110455773.9A 2021-04-26 2021-04-26 基于多尺度融合编码网络的深度图像去模糊方法 Active CN113129237B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110455773.9A CN113129237B (zh) 2021-04-26 2021-04-26 基于多尺度融合编码网络的深度图像去模糊方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110455773.9A CN113129237B (zh) 2021-04-26 2021-04-26 基于多尺度融合编码网络的深度图像去模糊方法

Publications (2)

Publication Number Publication Date
CN113129237A CN113129237A (zh) 2021-07-16
CN113129237B true CN113129237B (zh) 2022-10-28

Family

ID=76780160

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110455773.9A Active CN113129237B (zh) 2021-04-26 2021-04-26 基于多尺度融合编码网络的深度图像去模糊方法

Country Status (1)

Country Link
CN (1) CN113129237B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114821449B (zh) * 2022-06-27 2022-09-20 松立控股集团股份有限公司 一种基于注意力机制的车牌图像处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110880165A (zh) * 2019-10-15 2020-03-13 杭州电子科技大学 一种基于轮廓和颜色特征融合编码的图像去雾方法
CN111199522A (zh) * 2019-12-24 2020-05-26 重庆邮电大学 一种基于多尺度残差生成对抗网络的单图像盲去运动模糊方法
CN112446873A (zh) * 2020-12-11 2021-03-05 深圳高性能医疗器械国家研究院有限公司 一种图像伪影的去除方法
CN112509001A (zh) * 2020-11-24 2021-03-16 河南工业大学 一种多尺度和多特征融合的特征金字塔网络盲复原方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8548218B2 (en) * 2010-09-21 2013-10-01 Dimitris Metaxas Image reconstruction
CN110378844B (zh) * 2019-06-14 2021-04-09 杭州电子科技大学 基于循环多尺度生成对抗网络的图像盲去运动模糊方法
CN110969589B (zh) * 2019-12-03 2023-06-02 重庆大学 基于多流注意对抗网络的动态场景模糊图像盲复原方法
CN111223062B (zh) * 2020-01-08 2023-04-07 西安电子科技大学 基于生成对抗网络的图像去模糊方法
CN112435187A (zh) * 2020-11-23 2021-03-02 浙江工业大学 一种基于聚集残差生成对抗网络的单图像盲去运动模糊方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110880165A (zh) * 2019-10-15 2020-03-13 杭州电子科技大学 一种基于轮廓和颜色特征融合编码的图像去雾方法
CN111199522A (zh) * 2019-12-24 2020-05-26 重庆邮电大学 一种基于多尺度残差生成对抗网络的单图像盲去运动模糊方法
CN112509001A (zh) * 2020-11-24 2021-03-16 河南工业大学 一种多尺度和多特征融合的特征金字塔网络盲复原方法
CN112446873A (zh) * 2020-12-11 2021-03-05 深圳高性能医疗器械国家研究院有限公司 一种图像伪影的去除方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Deep Multi-scale Convolutional Neural Network for Dynamic Scene Deblurring;Seungjun Nah;《2017 IEEE Conference on Computer Vision and Pattern Recognition》;20171231;第257-265页 *
基于多尺度残差的图像去模糊;翟方兵;《计算机与数字工程》;20201231;第48卷(第3期);第658-662页 *
基于多注意力多尺度特征融合的图像描述生成算法;陈龙杰;《计算机应用》;20190210;第39卷(第2期);第354-359页 *
多尺度特征的融合操作;skyfengye;《https://blog.csdn.net/nijiayan123/article/details/106851331/》;20200619;全文 *
多模态融合的高分遥感图像语义分割方法;李万琦等;《中南民族大学学报(自然科学版)》;20200804(第04期);全文 *

Also Published As

Publication number Publication date
CN113129237A (zh) 2021-07-16

Similar Documents

Publication Publication Date Title
CN111583109B (zh) 基于生成对抗网络的图像超分辨率方法
CN110378844B (zh) 基于循环多尺度生成对抗网络的图像盲去运动模糊方法
Liu et al. An attention-based approach for single image super resolution
CN112001847A (zh) 相对生成对抗超分辨率重建模型生成高质量图像的方法
CN111709895A (zh) 基于注意力机制的图像盲去模糊方法及系统
CN111754446A (zh) 一种基于生成对抗网络的图像融合方法、系统及存储介质
CN112634429B (zh) 基于混合深度生成模型的岩心三维图像重建方法
CN105657402A (zh) 一种深度图恢复方法
CN112580473B (zh) 一种融合运动特征的视频超分辨率重构方法
CN107680116A (zh) 一种监测视频图像中运动目标的方法
CN111681188B (zh) 基于结合图像像素先验和图像梯度先验的图像去模糊方法
CN112950480A (zh) 一种融合多感受野和密集残差注意的超分辨率重建方法
CN117274059A (zh) 基于图像编码-解码的低分辨率图像重构方法及其系统
Zhang et al. Dense haze removal based on dynamic collaborative inference learning for remote sensing images
CN115880158A (zh) 一种基于变分自编码的盲图像超分辨率重建方法及系统
CN116029902A (zh) 一种基于知识蒸馏的无监督真实世界图像超分辨方法
CN115661459A (zh) 一种使用差异信息的2D mean teacher模型
CN113344110A (zh) 一种基于超分辨率重建的模糊图像分类方法
CN116385281A (zh) 一种基于真实噪声模型与生成对抗网络的遥感图像去噪方法
CN114331913B (zh) 基于残差注意力块的运动模糊图像复原方法
Karthick et al. Deep RegNet-150 Architecture for Single Image Super Resolution of Real-time Unpaired Image Data
CN116309178A (zh) 一种基于自适应注意力机制网络的可见光图像去噪方法
CN113129237B (zh) 基于多尺度融合编码网络的深度图像去模糊方法
CN116823627A (zh) 一种基于图像复杂度评价的超大尺寸图像快速去噪方法
Song et al. Dual perceptual loss for single image super-resolution using esrgan

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant