CN115619682A - 基于深度学习的去噪色调映射方法及装置 - Google Patents

基于深度学习的去噪色调映射方法及装置 Download PDF

Info

Publication number
CN115619682A
CN115619682A CN202211375364.9A CN202211375364A CN115619682A CN 115619682 A CN115619682 A CN 115619682A CN 202211375364 A CN202211375364 A CN 202211375364A CN 115619682 A CN115619682 A CN 115619682A
Authority
CN
China
Prior art keywords
tone mapping
denoising
image
network
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211375364.9A
Other languages
English (en)
Inventor
岳涛
刘汉樵
陈鑫
胡雪梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN202211375364.9A priority Critical patent/CN115619682A/zh
Publication of CN115619682A publication Critical patent/CN115619682A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)

Abstract

本发明提出了一种基于深度学习的去噪色调映射方法及装置。该方法包括以下步骤:S1,标定相机噪声参数;S2,搭建去噪色调映射网络模型;S3,将训练集中的高动态图像分解为一系列不同曝光的低动态图像并分别加入噪声,重新合成带噪高动态图像,对所述带噪高动态图像进行预处理后作为所述去噪色调映射网络的输入;S4,使用结构损失函数和感知损失函数,通过反向传播对去噪色调映射网络进行训练,直到网络收敛。本发明可以端对端地实现去噪色调映射,直接将带噪高动态图像转换为高质量的去噪色调映射图像,有效地解决高动态图像噪声分布不均匀的问题。

Description

基于深度学习的去噪色调映射方法及装置
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于深度学习的去噪色调映射方法及其装置。
背景技术
高动态范围图像/视频可以表现出更多的亮度和颜色强度,从而更好地反映真实环境的视觉效果。然而,常见的显示仪器只有非常有限的动态范围,并不足以显示这些图像/视频。色调映射可以将这些跨度巨大的像素值压缩到普通设备可以显示的范围内,并且保证令人满意的视觉效果。尽管色调映射方法在过去的几年里得到了很好的研究,但在实际应用中仍然存在问题。
首先,各种高动态范围来源的复杂噪声分布可能会影响表现。在实际应用中,最广泛使用的高动态相机使用包围曝光的方式通过非均匀加权组合来生成高动态图像,因此生成的高动态图像中的噪声分布不再满足常用的噪声假设(如高斯分布或泊松分布)。此外,现有研究没有考虑到后续的通常是高度非线性的色调映射过程,这一过程可能放大噪声。色调映射图像的噪声分布可能是非常不均匀的。直接对色调映射图像进行图像去噪并不是最优选择,因为通常的去噪方法很难同时处理小和大的噪声。另外,在高动态合成之前进行去噪可能会恶化许多细节,导致不必要的信息丢失。
发明内容
针对上述现有技术中存在的问题,本发明提出了一种基于深度学习的去噪色调映射方法及其装置。
本发明采用的技术方案如下:
基于深度学习的去噪色调映射方法,该方法包括以下步骤:
S1,标定相机噪声参数;
S2,搭建去噪色调映射网络模型;
S3,将训练集中的高动态图像分解为一系列不同曝光的低动态图像并分别加入噪声,重新合成带噪高动态图像,对所述带噪高动态图像进行预处理后作为所述去噪色调映射网络的输入;
S4,使用结构损失函数和感知损失函数,通过反向传播对去噪色调映射网络进行训练,直到网络收敛。
本发明还提供一种基于深度学习的去噪色调映射装置,该装置包括:
相机标定模块,用于标定相机噪声参数;
去噪色调映射网络,用于将带噪高动态图像转换为去噪的色调映射图像;
图像处理模块,用于将高动态图像分解为一系列不同曝光的低动态图像并分别加入噪声,重新合成带噪高动态图像,进行预处理后输入所述去噪色调映射网络;
训练模块,用于通过反向传播对所述去噪色调映射网络进行训练。
本发明方法不需要任何手调参数,可以快速将各种场景的带噪高动态图像直接转换为高分辨率、高质量的去噪的色调映射图像,有效地解决高动态图像噪声分布不均匀的问题。具体效果如下:
(1)空间自适应去噪模块(SADM)由多个级联的去噪单元组成,这些单元中的空洞卷积核逐渐扩大以增大感受野,可以更好地应对更大范围的噪声。
(2)去噪单元中的注意力机制能使网络自适应地对高动态图像中不同等级的噪声做出合适的处理。
(3)本发明中的相机标定方法只需拍摄暗场,相比其他标定方法更为简单,且拥有很好的准确性。
(4)本发明方法中的图像分解及噪声添加方法,可以更真实地引入高动态图像噪声。
附图说明
图1是本发明去噪色调映射网络框架图;
图2是本发明去噪色调映射网络中的模块图;
图3是本发明去噪色调映射方法的流程图。
具体实施方式
为详细描述本发明的目的及方法,下面结合附图进行详细描述。请同时参阅图1-图3,本发明提供了一种基于深度学习的去噪色调映射方法的一些实施例。
本发明的出发点在于,当获得的低动态图像堆栈带有噪声时,如果分别对这些低动态图像进行去噪(这些图像的噪声分布符合本领域常规的假设),再进行高动态合成和色调映射后,生成的色调映射图像会丢失较多细节,因为去噪将不可避免地模糊一些结构信息。去噪过程中产生的伪影也会影响图像质量。当只有一幅图像需要去噪时,这种方法是可以接受的。但是一个堆栈通常包含多幅图像,因此多幅图像去噪所产生的模糊信息和伪影将导致累积影响,严重降低最终色调映射图像的质量。如果对色调映射后的带噪图像进行去噪,由于高动态图像中的噪声是非均匀分布的,较强的噪声会通过色调映射进一步放大。不同的色调映射方法对噪声的放大程度不同,但放大后的噪声在随后的去噪过程中都不能很好地去除。这是因为普通的去噪方法并没有针对这种分布极不均匀的噪声,因此没有能力正确地去除它们。
以往的色调映射方法主要关注于如何获得适应人类视觉系统的高质量输出,而忽略了图像噪声,之前的高动态去噪方法也没有考虑到后续色调映射引起的噪声放大,因此并不能有效地去除强噪声。本发明的方法旨在去噪的同时进行色调映射,直接将带噪的高动态图像转换为无噪的、高质量的色调映射图像。
如图2所示,本发明提出的一种基于深度学习的去噪色调映射方法,包括以下步骤:
1、标定相机噪声参数。
相机噪声的模型为:
Vi=g(Si+Di)+Ri
其中,V是像素值,S是光子噪声,D是暗电流噪声,R是读出噪声,i是像素位置索引,g是相机增益。其中,
Figure BDA0003926481010000031
其中,Nd是光电效应激发出的电子数,Ne是暗电流产生的电子数,
Figure BDA0003926481010000032
是读出噪声的方差,P(·)表示泊松分布,N(·)表示高斯分布。
使用相机拍摄暗帧可得:
Figure BDA0003926481010000033
其中,E[·]表示均值,Var[·]表示方差。由上式可推出
Figure BDA0003926481010000041
拍摄多张不同曝光时间的暗帧,可拟合出一条直线,截距为
Figure BDA0003926481010000042
斜率为g。并可以推出单位曝光时间的暗电流噪声Nd。另外,当曝光时间t趋近于0时,暗电流噪声也趋近于0,图像方差即读出噪声方差
Figure BDA0003926481010000043
综上,读出噪声方差为
Figure BDA0003926481010000044
向干净图像中添加期望为
Figure BDA0003926481010000045
的泊松噪声(光子噪声和暗电流噪声),乘g后加入均值为0,方差为
Figure BDA0003926481010000046
的高斯噪声(读出噪声)。
2、搭建去噪色调映射网络模型。
构建去噪色调映射网络结构,本实施例的网络是一个端到端的U-net类架构,主要由一个编码器网络、几个空间自适应去噪模块和解码器网络组成。具体来说,首先使用卷积层提取图像特征,然后经过由一组下采样层组成的编码器网络,用于学习输入高动态图像的深度特征,并将其反馈给去噪模块以去除非均匀分布的噪声。为了更好地提取特征,在编码器中引入了残差块(RB),然后,将特征输入到空间自适应去噪模块SADM中进行去噪。最后,将去噪模块的输出结果输入由一系列上采样层组成的解码器网络,并将其融合到最后的解码层中,生成色调映射图像。另外还使用跳跃连接来帮助网络更好地利用更完整的信息并产生更清晰的结果。
本发明的SADM模块引入了注意力机制。高水平的噪声倾向于出现在图像的较亮区域。因此SADM模块帮助网络关注噪声较强的区域(较亮的区域),并压缩这些区域的值,引导后续网络更好地自动去除噪声。此外,注意机制也有利于调节亮度,确保全局和局部对比度。
3、将训练集中的高动态图像分解为一系列不同曝光的低动态图像并分别加入噪声,重新合成带噪高动态图像,对带噪高动态图像进行预处理后作为去噪色调映射网络的输入。
将干净的高动态图像分解为一系列不同曝光的低动态堆栈,分别向这些低动态图像中加入噪声。其中,高动态图像分解的具体过程为:将高动态图像像素值过高的部分截断,并进行归一化;使用牛顿迭代法,找到一个α,使得avg(floor(clamp((αV)12.2)·255))=127,其中avg(·)为求均值操作,floor(·)为向下取整,clamp(·)将取值范围限定在[0,1],V是像素值;以当前图片为基准图像,假设当前图像曝光时间为1,增加或减少曝光时间来得到低动态图像堆栈,则第j张图像的像素值为floor(clamp((αtjV)12.2)·255),tj是第j张图像的曝光时间。
重新合成带噪高动态图像的计算式为:
Figure BDA0003926481010000051
其中
Figure BDA0003926481010000052
其中,v是像素值,t是曝光时间,i是曝光时间的索引,总曝光张数为n,f-1代表相机响应函数,ω是任意加权函数。
对带噪高动态图像进行预处理:对输入图像对进行随机裁剪和水平翻转、垂直翻转等几何变换来扩充数据集;将高动态图像进行归一化处理:
Figure BDA0003926481010000053
其中,I代表高动态图像像素值,Imin代表图像的最小像素值,Imax代表图像的最大像素值。
4、使用结构损失函数和感知损失函数,通过反向传播对去噪色调映射网络进行训练,直到网络收敛。
其中,结构损失函数为:
Figure BDA0003926481010000054
其中,
Figure BDA0003926481010000055
和y分别是网络输出的色调映射图像和真值,
Figure BDA0003926481010000056
Figure BDA0003926481010000057
的平均值,μy为y的平均值,
Figure BDA0003926481010000058
Figure BDA0003926481010000059
的方差,
Figure BDA00039264810100000510
为y的方差,
Figure BDA00039264810100000511
Figure BDA00039264810100000512
和y的协方差,c1和c2是两个用来避免除零的常数。
感知损失函数为:
Figure BDA0003926481010000061
其中,其中φ表示用于提取图像特征的网络,i是层M的索引,U是元素总和。
总损失函数为:
Figure BDA0003926481010000062
其中,λ为权重系数。
本实施例提出的网络结构具体如下:
(1)高动态图像输入去噪色调映射网络,图像首先进入一个步长为1,输出通道为64,卷积核大小为3*3的卷积层,然后经过ReLU激活函数。
(2)输入残差块RB用于提取浅层特征。RB的具体结构见图3。特征层(步骤(1)的输出)首先进入一个步长为1,输出通道为64,卷积核大小为3*3的卷积层,然后经过实例归一化和ReLU激活函数。再经过一个步长为1,输出通道为64,卷积核大小为3*3的卷积层和实例归一化后,输出与RB的输入相加,引入残差连接以更好地传递特征和预防梯度消失。再经过一个ReLU和一个步长为1,输出通道为64,卷积核大小为1*1的卷积层后经ReLU激活函数得到RB的最终输出。RB使用残差连接更好得提取特征,在不同深度上使用RB可以提取不同深度的特征。
(3)步骤(2)的输出特征进入一个步长为1,输出通道为64,卷积核大小为3*3的卷积层,然后经过实例归一化和ReLU激活函数。
(4)输入所述RB模块提取较深层特征。
(5)步骤(4)的输出进入一个步长为2,输出通道为128,卷积核大小为3*3的卷积层,然后经过实例归一化和ReLU激活函数。
(6)进入一个步长为2,输出通道为256,卷积核大小为3*3的卷积层,然后经过实例归一化和ReLU激活函数。
(7)经过3个SADM模块。具体结构见图3。SADM模块由多个级联的去噪单元组成。首先进入一个步长为1,输出通道为256的空洞卷积层和ReLU激活函数,然后经过一个步长为1,输出通道为256,卷积核大小为1*1的卷积层和Sigmoid激活函数,该输出与前面ReLU的输出相乘,再与最初的特征层拼接起来,得到一个去噪单元的输出。Sigmoid激活函数可以输出一个值在[0,1]之间的注意力图,用以引导网络对不均匀分布的噪声分配不同的注意力,来得到更好的去噪效果。SADM中的这些去噪单元由稠密连接相连,这些级联的单元可以大大增加网络的感受野,配合注意力机制实现优秀的去噪与色调映射效果。3个SADM模块中空洞卷积的卷积核大小分别为1,3,5。
(7)进入一个步长为1,输出通道为256,卷积核大小为3*3的反卷积层,然后经过实例归一化和ReLU激活函数。
(8)进入一个步长为2,输出通道为128,卷积核大小为3*3的反卷积层,然后经过实例归一化和ReLU激活函数。
(9)进入一个步长为2,输出通道为64,卷积核大小为3*3的反卷积层,然后经过实例归一化和ReLU激活函数。
(10)进入一个步长为1,输出通道为64,卷积核大小为3*3的卷积层,然后经过ReLU激活函数。
(11)进入一个步长为1,输出通道为64,卷积核大小为1*1的卷积层,然后经过Sigmoid激活函数。
网络输出的色调映射图像与色调映射图像真值利用上述结构损失函数计算损失。
本发明中的神经网络模型,可是实现端到端的高动态图像去噪及色调映射,直接获得高质量的色调映射图像。
需要说明的是,本发明的应用不限于上述的实施例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (10)

1.基于深度学习的去噪色调映射方法,其特征在于,该方法包括以下步骤:
S1,标定相机噪声参数;
S2,搭建去噪色调映射网络模型;
S3,将训练集中的高动态图像分解为一系列不同曝光的低动态图像并分别加入噪声,重新合成带噪高动态图像,对所述带噪高动态图像进行预处理后作为所述去噪色调映射网络的输入;
S4,使用结构损失函数和感知损失函数,通过反向传播对去噪色调映射网络进行训练,直到网络收敛。
2.根据权利要求1所述的基于深度学习的去噪色调映射方法,其特征在于,步骤S1具体包括:向干净图像中添加期望为
Figure FDA0003926479000000011
的泊松噪声,再乘g后加入均值为0且方差为
Figure FDA0003926479000000012
的高斯噪声;其中,V是像素值,i是像素位置索引,g是相机增益,Nd是光电效应激发出的电子数,t是曝光时间。
3.根据权利要求1所述的基于深度学习的去噪色调映射方法,其特征在于,步骤S2中,所述去噪色调映射网络包括编码器网络、空间自适应去噪模块和解码器网络;首先使用卷积层提取图像特征,然后经过由一组下采样层组成的编码器网络,用于学习输入高动态图像的深度特征,并将其反馈给空间自适应去噪模块以去除非均匀分布的噪声;最后,将空间自适应去噪模块的输出结果输入由一系列上采样层组成的解码器网络,并将其融合到最后的解码层中,生成色调映射图像。
4.根据权利要求3所述的基于深度学习的去噪色调映射方法,其特征在于,步骤S2中,所述编码器网络中引入残差块。
5.根据权利要求3所述的基于深度学习的去噪色调映射方法,其特征在于,步骤S2中,所述空间自适应去噪模块由多个去噪单元级联构成。
6.根据权利要求1所述的基于深度学习的去噪色调映射方法,其特征在于,步骤S3中,将训练集中的高动态图像分解具体包括:
将高动态图像像素值过高的部分截断,并进行归一化;
使用牛顿迭代法,找到一个α,使得avg(floor(clamp((αV)12.2)·255))=127,其中avg(·)为求均值操作,floor(·)为向下取整,clamp(·)将取值范围限定在[0,1],V是像素值;
以当前图片为基准图像,假设当前图像曝光时间为1,增加或减少曝光时间来得到低动态图像堆栈,则第j张图像的像素值为floor(clamp((αtjV)12.2)·255),tj是第j张图像的曝光时间。
7.根据权利要求1所述的基于深度学习的去噪色调映射方法,其特征在于,步骤S3中,重新合成带噪高动态图像的计算式为:
Figure FDA0003926479000000021
其中
Figure FDA0003926479000000022
其中,v是像素值,t是曝光时间,i是曝光时间的索引,总曝光张数为n,f-1代表相机响应函数,ω是任意加权函数。
8.根据权利要求1所述的基于深度学习的去噪色调映射方法,其特征在于,步骤S4中,所述结构损失函数为:
Figure FDA0003926479000000023
其中,
Figure FDA0003926479000000024
和y分别是网络输出的色调映射图像和真值,
Figure FDA0003926479000000025
Figure FDA0003926479000000026
的平均值,μy为y的平均值,
Figure FDA0003926479000000027
Figure FDA0003926479000000028
的方差,
Figure FDA0003926479000000029
为y的方差,
Figure FDA00039264790000000210
Figure FDA00039264790000000211
和y的协方差,c1和c2是两个用来避免除零的常数。
9.根据权利要求1所述的基于深度学习的去噪色调映射方法,其特征在于,步骤S4中,所述感知损失函数为:
Figure FDA00039264790000000212
其中,其中φ表示用于提取图像特征的网络,
Figure FDA00039264790000000213
和y分别是网络输出的色调映射图像和真值,i是层M的索引,U是元素总和。
10.基于深度学习的去噪色调映射装置,其特征在于,该装置包括:
相机标定模块,用于标定相机噪声参数;
去噪色调映射网络,用于将带噪高动态图像转换为去噪的色调映射图像;
图像处理模块,用于将高动态图像分解为一系列不同曝光的低动态图像并分别加入噪声,重新合成带噪高动态图像,进行预处理后输入所述去噪色调映射网络;
训练模块,用于通过反向传播对所述去噪色调映射网络进行训练。
CN202211375364.9A 2022-11-04 2022-11-04 基于深度学习的去噪色调映射方法及装置 Pending CN115619682A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211375364.9A CN115619682A (zh) 2022-11-04 2022-11-04 基于深度学习的去噪色调映射方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211375364.9A CN115619682A (zh) 2022-11-04 2022-11-04 基于深度学习的去噪色调映射方法及装置

Publications (1)

Publication Number Publication Date
CN115619682A true CN115619682A (zh) 2023-01-17

Family

ID=84876453

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211375364.9A Pending CN115619682A (zh) 2022-11-04 2022-11-04 基于深度学习的去噪色调映射方法及装置

Country Status (1)

Country Link
CN (1) CN115619682A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117474816A (zh) * 2023-12-26 2024-01-30 中国科学院宁波材料技术与工程研究所 高动态范围图像色调映射方法、系统及可读存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117474816A (zh) * 2023-12-26 2024-01-30 中国科学院宁波材料技术与工程研究所 高动态范围图像色调映射方法、系统及可读存储介质
CN117474816B (zh) * 2023-12-26 2024-03-12 中国科学院宁波材料技术与工程研究所 高动态范围图像色调映射方法、系统及可读存储介质

Similar Documents

Publication Publication Date Title
CN111968044B (zh) 基于Retinex和深度学习的低照度图像增强方法
JP5543605B2 (ja) 空間画像事前確率を用いたぼけ画像修正
US7302110B2 (en) Image enhancement methods and apparatus therefor
CN110544213B (zh) 一种基于全局和局部特征融合的图像去雾方法
EP1341124B1 (en) Method for sharpening a digital image with signal to noise estimation
CN110111269B (zh) 基于多尺度上下文聚合网络的低照度成像算法及装置
CN111553867B (zh) 一种图像去模糊方法、装置、计算机设备及存储介质
US20030161544A1 (en) Method for sharpening a digital image without amplifying noise
US11948278B2 (en) Image quality improvement method and image processing apparatus using the same
CN110047055A (zh) 一种红外图像细节增强及去噪方法
CN117593235B (zh) 基于深度CNN去噪先验的Retinex变分水下图像增强方法和装置
US20060013503A1 (en) Methods of preventing noise boost in image contrast enhancement
CN115619682A (zh) 基于深度学习的去噪色调映射方法及装置
Yang et al. Low-light image enhancement based on Retinex theory and dual-tree complex wavelet transform
JP2023532228A (ja) ノイズ除去および低精度画像処理のための非線形画像強度変換のシステムおよび方法
CN114418873B (zh) 一种暗光图像降噪方法及装置
CN115965544A (zh) 自适应亮度调节的图像增强方法及系统
KR20190113889A (ko) 이미징 잡음 감소 시스템 및 방법
RU2448367C1 (ru) Способ повышения визуальной информативности цифровых полутоновых изображений
KR102277005B1 (ko) 비지도 학습을 이용한 저조도 영상 처리 방법 및 장치
US20120106842A1 (en) Method for image enhancement based on histogram modification and specification
CN108460723A (zh) 基于邻域相似性的双边全变分图像超分辨率重建方法
CN117392036A (zh) 基于照明幅度的低光图像增强方法
CN109949233B (zh) 滤除x射线图像中散射线的方法、系统、设备及存储介质
CN116363015A (zh) 一种基于Retinex理论和卷积神经网络的低照度图像增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination