CN113240605A - 基于对称神经网络进行正反双向学习的图像增强方法 - Google Patents
基于对称神经网络进行正反双向学习的图像增强方法 Download PDFInfo
- Publication number
- CN113240605A CN113240605A CN202110554790.8A CN202110554790A CN113240605A CN 113240605 A CN113240605 A CN 113240605A CN 202110554790 A CN202110554790 A CN 202110554790A CN 113240605 A CN113240605 A CN 113240605A
- Authority
- CN
- China
- Prior art keywords
- image
- low
- neural network
- characteristic
- quality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 18
- 230000002457 bidirectional effect Effects 0.000 title claims abstract description 12
- 230000002441 reversible effect Effects 0.000 claims abstract description 16
- 238000006243 chemical reaction Methods 0.000 claims abstract description 8
- 230000000694 effects Effects 0.000 claims abstract description 8
- 238000013507 mapping Methods 0.000 claims abstract description 7
- 230000007246 mechanism Effects 0.000 claims abstract description 7
- 238000012360 testing method Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 abstract description 4
- 238000002474 experimental method Methods 0.000 abstract description 2
- 238000003062 neural network model Methods 0.000 abstract description 2
- 230000000644 propagated effect Effects 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 description 4
- 235000008733 Citrus aurantifolia Nutrition 0.000 description 3
- 235000011941 Tilia x europaea Nutrition 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 239000004571 lime Substances 0.000 description 3
- FKOQWAUFKGFWLH-UHFFFAOYSA-M 3,6-bis[2-(1-methylpyridin-1-ium-4-yl)ethenyl]-9h-carbazole;diiodide Chemical compound [I-].[I-].C1=C[N+](C)=CC=C1C=CC1=CC=C(NC=2C3=CC(C=CC=4C=C[N+](C)=CC=4)=CC=2)C3=C1 FKOQWAUFKGFWLH-UHFFFAOYSA-M 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 239000003623 enhancer Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
一种基于对称神经网络进行正反双向学校的图像增强方法。目的是将欠曝的图像进行曝光增强,包括对图像的美化和恢复。该方法设计了一种可双向传播的对称神经网络模型,模型在训练过程中同时进行正反双向学习,学习低质量图像到高质量图像的映射的同时,也学习高质量图像向低质量图像的映射,由此保证了图像特征的一致性。模型包含两对编码器,两对解码器和一个特征转换器,其中编码器和解码器完成图像与特征之间的相互转换,特征转换器完成正反双向的特征转换操作。特征转换器中可适配通道注意力机制以及递归学习等机制来提高图像增强的效果。经实验证明,该模型可以在保证图像结构纹理特征的同时,合理地抑制常用方法在细节增强时引入的图像噪声。
Description
技术领域
本发明属于图像增强领域,特别涉及到一种基于对称神经网络进行正反双向学习的图像增强方法。
背景技术
由于数码相机在日常生活中的广泛应用,数码摄影越来越受欢迎。然而,糟糕的拍摄环境,不合适的相机参数,或缺乏摄影技巧都可能导致不满意的图像质量。很多时候,需要后期对图像进行增强。图像增强是指有目的地强调图像的整体或局部特征,将原本不清晰的低质量图像整体变得清晰或强调图像中感兴趣的区域(例如脸部增强)。本发明中考虑的图像增强,是指增强图像的对比度,颜色等,使图像的整体特征得到改善。
一个好的图像增强方法在对图像的颜色,对比度和细节进行调整的同时,要保证图像的结构纹理特征不变。许多传统算法通常直接对图像进行全局的调整(如直方图均衡化、对比度调节和伽马矫正等),但这些方法都很难对图像的细节信息做出编辑或调整,效果也不甚理想。
近年来,许多基于深度神经网络的方法试图对图像的局部特征进行改善。然而,这些方法在复杂的曝光不足情况下,结果会产生颜色偏差和人工痕迹。特别是在光线较暗的环境下拍摄的图像,其有明显的噪声并且视觉特征被隐藏在黑暗区域中。为了应对这种情况,不仅需要对图像颜色进行调整,还需要图像的去噪和恢复。
上述问题可以理解为在保证原始图像特征分布的同时,对图像进行调整。针对此问题,近年来陆续有很多方法被提出。例如,Ruixing Wang在2019年CVPR上发表论文“Underexposedphoto enhancementusing deep illumination estimation.”,他们设计了一个图像—光照映射模型来学习复杂的图像调整过程。但是该方法没有对图像进行全局上的调节,并且会产生人工噪声。Sean Moran在2020年CVPR上发表论文“Deeplpf:Deep localparametricfilters for image enhancement.”,他们提供一种新的方法,通过学习空间局部滤波器来增强图像。然而,由于没有对全局滤波器进行考虑,所以结果有颜色偏差。
图像增强需要保证生成的图像没有颜色上的偏差,并且不会生成人工噪声。除此之外,针对极度欠曝的情况,更是需要对噪声,图像内容等多方面进行考虑。如何在改善图像质量的同时使生成图像的视觉效果真实是学术界和工业界一直以来追求的目标。
发明内容
本发明目的是在保证图像不产生色偏和人工噪声的前提下,对欠曝光(包含极度欠曝情况)的图像进行增强。
本发明的技术方案
基于对称神经网络进行正反双向学习的图像增强方法,在保证图像结构纹理特征不变的同时,对图像的细节,对比度等进行增强。该方法涉及的对称模型包含了两对编码器和两对解码器和一个特征转换器,其中编码器和解码器完成图像和特征之间的相互转换,特征转换器完成正反双向的特征转换操作。除此之外,特征转换器中能够适配应用通道注意力机制以及递归学习等方法来进一步提高该对称模型的图像增强效果。
具体包含以下步骤:
a.输入需要增强的低质量图像和高质量的参考图像:经由第一编码器得到输入低质量图像对应的第一特征,经由第二编码器得到高质量参考图像对应的第二特征;
b.特征转换:将第一特征输入到特征转换器得到高质量图像域对应的第三特征,同理第二特征输入到特征转换器得到低质量图像域对应的第四特征;
c.生成增强后图像和虚拟低清图像:将第三特征输入到第一解码器获得增强后图像,将第四特征输入到第二解码器获得虚拟低清图像;
d.将生成的增强后图像与参考图做损失,虚拟低清图像与输入的低质量图像做损失,将损失相加作为整体损失,对网络同时进行双向的训练,充分的保证图像特征的一致性;
e.在测试时,直接输入低质量图像获得生成图像即可。
本发明包含了两对编码—解码器,和一个特征转换器。其中编码器和解码器为预训练的网络,并且它们均共享参数来保证特征域的同一性。特征转换器级联多个包含深度神经网络的可逆模块,能够进行双向的传播,且前向和反向映射共享所有参数,实现低质量图像特征与高质量图像特征的相互转换。而每个可逆模块中包含通道注意力机制,并且用递归学习的方式来提升模型的效果。该网络正向传播时,输入低质量图像,生成增强后的图像。该网络逆向传播时,输入高质量参考图像,生成虚拟的低清图像。在训练时,网络同时进行双向的传播来保证特征的一致性。在测试时,仅输入低质量图像,获得增强后结果即可。
本发明的优点和有益效果:
本发明的图像增强方法利用了双向传播的对称神经网络,保证了图像的特征一致性。在可逆模块中,可以使用通道注意力机制与递归学习等方法来有效提升对称模型的图像增强效果。实验表明,该模型生成的图像效果理想且较为真实,超越了目前的其他神经网络模型。
附图说明
图1为本发明设计的对称神经网络的整体模型示意图。
图2为本发明设计的特征转换器的模型示意图。
图3为特征转换器中使用的通道注意力机制的具体架构。
图4为特征转换器中利用的递归学习方法的具体实现。
图5为本发明与其余方法对比的视觉效果示意图,其中(a)输入的低清图像,(b)Zero-DCE[1]方法的结果,(c)RetinexNet[2]方法的结果,(d)LIME[3]方法的结果,(e)EnlightenGAN[4]方法的结果,(f)HDRNet[5]方法的结果,(g)DPE-paired[6]方法的结果,(h)Distort-and-Recover[7]方法的结果,(i)White-Box[8]方法的结果,(j)CSRNet[9]方法的结果,(k)DeepUPE[10]方法的结果,(l)DeepLPF[11]方法的结果,(m)本方法没有添加递归学习的结果,(n)本方法的结果,(o)参考的高清图像。
具体实施方式
下面结合附图,对本发明的具体实施方式作进一步详细描述。以下实例用于说明本发明,但不用来限制本发明的范围。
参照图1,表示整个对称神经网络的模型架构,在训练过程中,网络同时进行双向的传播,正向传播时输入低质量图像经过编码,特征转换和解码后得到生成的增强图像,逆向传播时输入高质量参考图像经过编码,特征转换和解码后得到虚拟低清图像。生成的增强图像与高质量参考图像做损失,虚拟低清图像与低质量图像做损失,相加作为整体损失进行网络的训练。在测试时,只输入低质量图像获得增强后图像即可。
基于对称神经网络进行正反双向学习的图像增强方法如下:
a.输入低质量需要增强的图像和高质量的参考图像:将大小为H×W×3的低质量图像xLQ输入第一编码器中得到对应的大小为H×W×64的低质量图像第一特征,将大小为H×W×3的高质量参考图像xHQ输入到第二编码器中得到对应的大小为H×W×64的高质量图像第二特征。
其中Ti,2(·),Ti,3(·)和ES(·)代表图2中的卷积块。经过8个可逆块后,两个大小为H×W×32的特征进行级联得到高质量图像域对应的大小为H×W×64的第三特征。同理第二特征逆向输入到特征转换器,在可逆块中进行逆向的传播,由公式(1)不难得出每个可逆块逆向传播公式为:
得到低质量图像域对应的大小为H×W×64的第四特征。
参照图3,每个可逆块由注意力模块构成,在可逆块中有分支对通道注意力图进行学习,由H×W×C的输入学习到1×1×C的通道注意力图,再将通道注意力图与输入的H×W×C的特征相乘,且模型进行了残差学习,即输入特征与学习到的特征相加得到最终输出。
参照图4,注意力模块进行递归学习,针对于较复杂的情况,可以对特征进行逐步的学习,以此来提升模型效果。
像特征的一致性;
e.在测试时,直接输入低质量图像单向传播获得生成图像即可。
参照图5,本发明所提方法与其他方法在增强欠曝光图像时的可视化比较,其中(b)Zero-DCE[1]和(i)White-Box[8]有颜色上的偏差,(c)RetinexNet[2],(e)EnlightenGAN[4],(g)DPE-paired[6]和(j)CSRNet[9]没有很好的调整图像的亮度,(d)LIME[3]和(l)DeepLPF[11]对图像的细节信息复原失败,(f)HDRNet[5],(h)Distort-and-Recover[7]和(k)DeepUPE[10]生成了人工噪声,由此模糊了图像的纹理信息。本发明设计的基于对称神经网络进行正反双向学些的图像增强方法可以有效的去除图像噪声并且恢复图像内容,与其他方法相比取得最好的视觉效果。
参考文献:
[1]Chunle Guo,Chongyi Li,JichangGuo,Chen ChangeLoy,JunhuiHou,SamKwong,andRunmin Cong.Zero-referencedeep curve estimation forlow-lightimage enhancement.InCVPR,pages 1780–1789,2020.
[2]ChenWei,WenjingWang,WenhanYang,andJiayingLiu.Deepretinexdecomposition forlow-light enhancement.BMVC,2018.
[3]Xiaojie Guo,YuLi,andHaibinLing.Lime:Low-light imageenhancementviaillumination map estimation.IEEETIP,26(2):982–993,2016.
[4]YifanJiang,Xinyu Gong,DingLiu,Yu Cheng,ChenFang,Xiaohui Shen,Jianchao Yang,Pan Zhou,and Zhangyang
Wang.Enlightengan:Deep lightenhancementwithoutpairedsupervision.arXivpreprintarXiv:1906.06972,2019.
[5]Micha¨elGharbi,Jiawen Chen,JonathanT Barron,SamuelWHasinoff,andFr′edo Durand.Deep bilateral learning forrealtimeimage enhancement.ACM TOG,36(4):1–12,2017.
[6]Yu-Sheng Chen,Yu-ChingWang,Man-HsinKao,andYung-Yu Chuang.Deepphotoenhancer:Unpaired learning forimage enhancement fromphotographs with gans.InCVPR,pages 6306–6314,June 2018.
[7]JongchanPark,Joon-YoungLee,DonggeunYoo,andInSo Kweon.Distort-and-recover:Color enhancementusingdeep reinforcementlearning.In CVPR,pages 5928–5936,2018.\
[8]YuanmingHu,Hao He,Chenxi Xu,BaoyuanWang,andStephenLin.Exposure:Awhite-boxphoto post-processingframework.ACM TOG,37(2):1–17,2018.
[9]JingwenHe,Yihao Liu,Yu Qiao,andChaoDong.Conditionalsequentialmodulation for efficientglobal image retouching.InECCV,2020.
[10]RuixingWang,QingZhang,Chi-WingFu,Xiaoyong Shen,Wei-Shi Zheng,andJiayaJia.Underexposed photo enhancementusing deep illuminationestimation.In CVPR,pages6849–6857,2019.
[11]SeanMoran,PierreMarza,StevenMcDonagh,SarahParisot,andGregorySlabaugh.Deeplpf:Deep local parametricfilters for image enhancement.In CVPR,pages12826–12835,2020.
Claims (4)
1.一种基于对称神经网络进行正反双向学习的图像增强方法,其特征在于在保证图像结构纹理特征不变的同时,对图像的细节,对比度进行增强,所述方法包括如下步骤:
a.输入需要增强的低质量图像和高质量的参考图像:经由第一编码器得到输入低质量图像对应的第一特征,经由第二编码器得到高质量参考图像对应的第二特征;
b.特征转换:将第一特征输入到特征转换器得到高质量图像域对应的第三特征,同理,将第二特征输入到特征转换器得到低质量图像域对应的第四特征;
c.生成增强后图像和虚拟低清图像:将第三特征输入到第一解码器获得增强后图像,将第四特征输入到第二解码器获得虚拟低清图像;
d.将生成的增强后图像与参考图做损失,虚拟低清图像与输入的低质量图像做损失,将损失相加作为整体损失,对网络同时进行双向的训练,充分的保证图像特征的一致性;
e.在测试时,直接输入低质量图像获得生成图像即可。
2.根据权利要求1所述的利用对称神经网络进行正反双向学习的图像增强方法,其特征在于:步骤b中所述的特征转换器,能够进行双向的传播,且前向和反向映射共享所有参数;该特征转换器能够适配主流神经网络架构中通道注意力机制和递归学习方法来进一步提升效果。
3.根据权利要求1所述的利用对称神经网络进行正反双向学习的图像增强方法,其特征在于:步骤b中所述的特征转换器,是由多个包含神经网络的可逆模块级联而成的。
4.根据权利要求1至3任一项所述的利用对称神经网络进行正反双向学习的图像增强方法,其特征在于:步骤a中所述的编码器和解码器均为预训练的网络,且所有的编码器和解码器都共享参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110554790.8A CN113240605A (zh) | 2021-05-21 | 2021-05-21 | 基于对称神经网络进行正反双向学习的图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110554790.8A CN113240605A (zh) | 2021-05-21 | 2021-05-21 | 基于对称神经网络进行正反双向学习的图像增强方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113240605A true CN113240605A (zh) | 2021-08-10 |
Family
ID=77138013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110554790.8A Pending CN113240605A (zh) | 2021-05-21 | 2021-05-21 | 基于对称神经网络进行正反双向学习的图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113240605A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116091337A (zh) * | 2022-11-29 | 2023-05-09 | 北京大学 | 一种基于事件信号神经编码方式的图像增强方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109671018A (zh) * | 2018-12-12 | 2019-04-23 | 华东交通大学 | 一种基于生成式对抗网络和ResNets技术的图像转换方法及系统 |
US20190124348A1 (en) * | 2017-10-19 | 2019-04-25 | Samsung Electronics Co., Ltd. | Image encoder using machine learning and data processing method of the image encoder |
CN109978792A (zh) * | 2019-03-28 | 2019-07-05 | 厦门美图之家科技有限公司 | 一种生成图像增强模型的方法 |
CN110929033A (zh) * | 2019-11-26 | 2020-03-27 | 深圳市信联征信有限公司 | 长文本分类方法、装置、计算机设备及存储介质 |
CN111626917A (zh) * | 2020-04-13 | 2020-09-04 | 上海交通大学 | 一种基于深度学习的双向图像转换系统及方法 |
CN111783705A (zh) * | 2020-07-08 | 2020-10-16 | 厦门商集网络科技有限责任公司 | 一种基于注意力机制的文字识别方法及系统 |
CN111798400A (zh) * | 2020-07-20 | 2020-10-20 | 福州大学 | 基于生成对抗网络的无参考低光照图像增强方法及系统 |
CN112150400A (zh) * | 2020-10-10 | 2020-12-29 | 清华大学 | 图像增强方法、装置和电子设备 |
CN112598579A (zh) * | 2020-12-28 | 2021-04-02 | 苏州科达特种视讯有限公司 | 面向监控场景的图像超分辨率方法、装置及存储介质 |
-
2021
- 2021-05-21 CN CN202110554790.8A patent/CN113240605A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190124348A1 (en) * | 2017-10-19 | 2019-04-25 | Samsung Electronics Co., Ltd. | Image encoder using machine learning and data processing method of the image encoder |
CN109671018A (zh) * | 2018-12-12 | 2019-04-23 | 华东交通大学 | 一种基于生成式对抗网络和ResNets技术的图像转换方法及系统 |
CN109978792A (zh) * | 2019-03-28 | 2019-07-05 | 厦门美图之家科技有限公司 | 一种生成图像增强模型的方法 |
CN110929033A (zh) * | 2019-11-26 | 2020-03-27 | 深圳市信联征信有限公司 | 长文本分类方法、装置、计算机设备及存储介质 |
CN111626917A (zh) * | 2020-04-13 | 2020-09-04 | 上海交通大学 | 一种基于深度学习的双向图像转换系统及方法 |
CN111783705A (zh) * | 2020-07-08 | 2020-10-16 | 厦门商集网络科技有限责任公司 | 一种基于注意力机制的文字识别方法及系统 |
CN111798400A (zh) * | 2020-07-20 | 2020-10-20 | 福州大学 | 基于生成对抗网络的无参考低光照图像增强方法及系统 |
CN112150400A (zh) * | 2020-10-10 | 2020-12-29 | 清华大学 | 图像增强方法、装置和电子设备 |
CN112598579A (zh) * | 2020-12-28 | 2021-04-02 | 苏州科达特种视讯有限公司 | 面向监控场景的图像超分辨率方法、装置及存储介质 |
Non-Patent Citations (2)
Title |
---|
WENQI REN; SIFEI LIU; LIN MA; QIANQIAN XU; XIANGYU XU; XIAOCHUN: "《Low-Light Image Enhancement via a Deep Hybrid Network》", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
XIAOXUE CHEN;TIANWEI WANG;YUANZHI ZHU;LIANWEN JIN;CANJIE LUO: "《Adaptive embedding gate for attention-based scene text recognition》", 《NEUROCOMPUTING》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116091337A (zh) * | 2022-11-29 | 2023-05-09 | 北京大学 | 一种基于事件信号神经编码方式的图像增强方法及装置 |
CN116091337B (zh) * | 2022-11-29 | 2024-02-02 | 北京大学 | 一种基于事件信号神经编码方式的图像增强方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110378859B (zh) | 一种新的高动态范围图像生成方法 | |
Fu et al. | Learning a simple low-light image enhancer from paired low-light instances | |
CN113313644B (zh) | 一种基于残差双注意力网络的水下图像增强方法 | |
Wang et al. | Joint iterative color correction and dehazing for underwater image enhancement | |
CN110390646B (zh) | 一种细节保持图像去噪方法 | |
CN111986084A (zh) | 一种基于多任务融合的多相机低光照图像质量增强方法 | |
CN111612707B (zh) | 一种基于小波变换的神经网络图像去噪方法 | |
CN113160178A (zh) | 一种基于注意力模块的高动态范围去重影成像系统及方法 | |
CN112767286A (zh) | 一种基于密集深度学习的暗光图像自适应增强方法 | |
CN107527325A (zh) | 一种基于暗通道优先的单目水下视觉增强方法 | |
CN114219722A (zh) | 一种利用时频域层级处理的低光照图像增强方法 | |
CN113240605A (zh) | 基于对称神经网络进行正反双向学习的图像增强方法 | |
CN116109509A (zh) | 基于逐像素伽马矫正的实时低光照图像增强方法及系统 | |
Yang et al. | Underwater image enhancement based on structure-texture decomposition | |
Jiang et al. | DEANet: Decomposition enhancement and adjustment network for low-light image enhancement | |
CN116863320B (zh) | 基于物理模型的水下图像增强方法及系统 | |
CN115829868B (zh) | 基于光照与噪声残差图的水下暗光图像增强方法 | |
CN116579940A (zh) | 一种基于卷积神经网络的实时低照度图像增强方法 | |
CN104599241A (zh) | 全自动高效计算的颜色一致性方法 | |
CN111861940A (zh) | 一种基于条件连续调节的图像调色增强方法 | |
CN113837963B (zh) | 基于深度网络在lab颜色空间下的水下图像增强方法 | |
Omrani et al. | High dynamic range image reconstruction using multi-exposure Wavelet HDRCNN | |
CN116228550A (zh) | 一种基于生成对抗网络的图像自增强去雾算法 | |
Ma et al. | TPE: Lightweight transformer photo enhancement based on curve adjustment | |
Zhou et al. | Disentangled Feature Distillation for Light Field Super-Resolution with Degradations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210810 |