CN115619682A - 基于深度学习的去噪色调映射方法及装置 - Google Patents
基于深度学习的去噪色调映射方法及装置 Download PDFInfo
- Publication number
- CN115619682A CN115619682A CN202211375364.9A CN202211375364A CN115619682A CN 115619682 A CN115619682 A CN 115619682A CN 202211375364 A CN202211375364 A CN 202211375364A CN 115619682 A CN115619682 A CN 115619682A
- Authority
- CN
- China
- Prior art keywords
- tone mapping
- denoising
- image
- network
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000013135 deep learning Methods 0.000 title claims abstract description 19
- 230000006870 function Effects 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 230000008447 perception Effects 0.000 claims abstract description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 11
- 230000003044 adaptive effect Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 238000005316 response function Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims 1
- 238000009826 distribution Methods 0.000 abstract description 11
- 230000004913 activation Effects 0.000 description 13
- 238000010606 normalization Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种基于深度学习的去噪色调映射方法及装置。该方法包括以下步骤:S1,标定相机噪声参数;S2,搭建去噪色调映射网络模型;S3,将训练集中的高动态图像分解为一系列不同曝光的低动态图像并分别加入噪声,重新合成带噪高动态图像,对所述带噪高动态图像进行预处理后作为所述去噪色调映射网络的输入;S4,使用结构损失函数和感知损失函数,通过反向传播对去噪色调映射网络进行训练,直到网络收敛。本发明可以端对端地实现去噪色调映射,直接将带噪高动态图像转换为高质量的去噪色调映射图像,有效地解决高动态图像噪声分布不均匀的问题。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于深度学习的去噪色调映射方法及其装置。
背景技术
高动态范围图像/视频可以表现出更多的亮度和颜色强度,从而更好地反映真实环境的视觉效果。然而,常见的显示仪器只有非常有限的动态范围,并不足以显示这些图像/视频。色调映射可以将这些跨度巨大的像素值压缩到普通设备可以显示的范围内,并且保证令人满意的视觉效果。尽管色调映射方法在过去的几年里得到了很好的研究,但在实际应用中仍然存在问题。
首先,各种高动态范围来源的复杂噪声分布可能会影响表现。在实际应用中,最广泛使用的高动态相机使用包围曝光的方式通过非均匀加权组合来生成高动态图像,因此生成的高动态图像中的噪声分布不再满足常用的噪声假设(如高斯分布或泊松分布)。此外,现有研究没有考虑到后续的通常是高度非线性的色调映射过程,这一过程可能放大噪声。色调映射图像的噪声分布可能是非常不均匀的。直接对色调映射图像进行图像去噪并不是最优选择,因为通常的去噪方法很难同时处理小和大的噪声。另外,在高动态合成之前进行去噪可能会恶化许多细节,导致不必要的信息丢失。
发明内容
针对上述现有技术中存在的问题,本发明提出了一种基于深度学习的去噪色调映射方法及其装置。
本发明采用的技术方案如下:
基于深度学习的去噪色调映射方法,该方法包括以下步骤:
S1,标定相机噪声参数;
S2,搭建去噪色调映射网络模型;
S3,将训练集中的高动态图像分解为一系列不同曝光的低动态图像并分别加入噪声,重新合成带噪高动态图像,对所述带噪高动态图像进行预处理后作为所述去噪色调映射网络的输入;
S4,使用结构损失函数和感知损失函数,通过反向传播对去噪色调映射网络进行训练,直到网络收敛。
本发明还提供一种基于深度学习的去噪色调映射装置,该装置包括:
相机标定模块,用于标定相机噪声参数;
去噪色调映射网络,用于将带噪高动态图像转换为去噪的色调映射图像;
图像处理模块,用于将高动态图像分解为一系列不同曝光的低动态图像并分别加入噪声,重新合成带噪高动态图像,进行预处理后输入所述去噪色调映射网络;
训练模块,用于通过反向传播对所述去噪色调映射网络进行训练。
本发明方法不需要任何手调参数,可以快速将各种场景的带噪高动态图像直接转换为高分辨率、高质量的去噪的色调映射图像,有效地解决高动态图像噪声分布不均匀的问题。具体效果如下:
(1)空间自适应去噪模块(SADM)由多个级联的去噪单元组成,这些单元中的空洞卷积核逐渐扩大以增大感受野,可以更好地应对更大范围的噪声。
(2)去噪单元中的注意力机制能使网络自适应地对高动态图像中不同等级的噪声做出合适的处理。
(3)本发明中的相机标定方法只需拍摄暗场,相比其他标定方法更为简单,且拥有很好的准确性。
(4)本发明方法中的图像分解及噪声添加方法,可以更真实地引入高动态图像噪声。
附图说明
图1是本发明去噪色调映射网络框架图;
图2是本发明去噪色调映射网络中的模块图;
图3是本发明去噪色调映射方法的流程图。
具体实施方式
为详细描述本发明的目的及方法,下面结合附图进行详细描述。请同时参阅图1-图3,本发明提供了一种基于深度学习的去噪色调映射方法的一些实施例。
本发明的出发点在于,当获得的低动态图像堆栈带有噪声时,如果分别对这些低动态图像进行去噪(这些图像的噪声分布符合本领域常规的假设),再进行高动态合成和色调映射后,生成的色调映射图像会丢失较多细节,因为去噪将不可避免地模糊一些结构信息。去噪过程中产生的伪影也会影响图像质量。当只有一幅图像需要去噪时,这种方法是可以接受的。但是一个堆栈通常包含多幅图像,因此多幅图像去噪所产生的模糊信息和伪影将导致累积影响,严重降低最终色调映射图像的质量。如果对色调映射后的带噪图像进行去噪,由于高动态图像中的噪声是非均匀分布的,较强的噪声会通过色调映射进一步放大。不同的色调映射方法对噪声的放大程度不同,但放大后的噪声在随后的去噪过程中都不能很好地去除。这是因为普通的去噪方法并没有针对这种分布极不均匀的噪声,因此没有能力正确地去除它们。
以往的色调映射方法主要关注于如何获得适应人类视觉系统的高质量输出,而忽略了图像噪声,之前的高动态去噪方法也没有考虑到后续色调映射引起的噪声放大,因此并不能有效地去除强噪声。本发明的方法旨在去噪的同时进行色调映射,直接将带噪的高动态图像转换为无噪的、高质量的色调映射图像。
如图2所示,本发明提出的一种基于深度学习的去噪色调映射方法,包括以下步骤:
1、标定相机噪声参数。
相机噪声的模型为:
Vi=g(Si+Di)+Ri
其中,V是像素值,S是光子噪声,D是暗电流噪声,R是读出噪声,i是像素位置索引,g是相机增益。其中,
使用相机拍摄暗帧可得:
其中,E[·]表示均值,Var[·]表示方差。由上式可推出拍摄多张不同曝光时间的暗帧,可拟合出一条直线,截距为斜率为g。并可以推出单位曝光时间的暗电流噪声Nd。另外,当曝光时间t趋近于0时,暗电流噪声也趋近于0,图像方差即读出噪声方差综上,读出噪声方差为
2、搭建去噪色调映射网络模型。
构建去噪色调映射网络结构,本实施例的网络是一个端到端的U-net类架构,主要由一个编码器网络、几个空间自适应去噪模块和解码器网络组成。具体来说,首先使用卷积层提取图像特征,然后经过由一组下采样层组成的编码器网络,用于学习输入高动态图像的深度特征,并将其反馈给去噪模块以去除非均匀分布的噪声。为了更好地提取特征,在编码器中引入了残差块(RB),然后,将特征输入到空间自适应去噪模块SADM中进行去噪。最后,将去噪模块的输出结果输入由一系列上采样层组成的解码器网络,并将其融合到最后的解码层中,生成色调映射图像。另外还使用跳跃连接来帮助网络更好地利用更完整的信息并产生更清晰的结果。
本发明的SADM模块引入了注意力机制。高水平的噪声倾向于出现在图像的较亮区域。因此SADM模块帮助网络关注噪声较强的区域(较亮的区域),并压缩这些区域的值,引导后续网络更好地自动去除噪声。此外,注意机制也有利于调节亮度,确保全局和局部对比度。
3、将训练集中的高动态图像分解为一系列不同曝光的低动态图像并分别加入噪声,重新合成带噪高动态图像,对带噪高动态图像进行预处理后作为去噪色调映射网络的输入。
将干净的高动态图像分解为一系列不同曝光的低动态堆栈,分别向这些低动态图像中加入噪声。其中,高动态图像分解的具体过程为:将高动态图像像素值过高的部分截断,并进行归一化;使用牛顿迭代法,找到一个α,使得avg(floor(clamp((αV)12.2)·255))=127,其中avg(·)为求均值操作,floor(·)为向下取整,clamp(·)将取值范围限定在[0,1],V是像素值;以当前图片为基准图像,假设当前图像曝光时间为1,增加或减少曝光时间来得到低动态图像堆栈,则第j张图像的像素值为floor(clamp((αtjV)12.2)·255),tj是第j张图像的曝光时间。
重新合成带噪高动态图像的计算式为:
其中,v是像素值,t是曝光时间,i是曝光时间的索引,总曝光张数为n,f-1代表相机响应函数,ω是任意加权函数。
对带噪高动态图像进行预处理:对输入图像对进行随机裁剪和水平翻转、垂直翻转等几何变换来扩充数据集;将高动态图像进行归一化处理:其中,I代表高动态图像像素值,Imin代表图像的最小像素值,Imax代表图像的最大像素值。
4、使用结构损失函数和感知损失函数,通过反向传播对去噪色调映射网络进行训练,直到网络收敛。
其中,结构损失函数为:
感知损失函数为:
其中,其中φ表示用于提取图像特征的网络,i是层M的索引,U是元素总和。
总损失函数为:
其中,λ为权重系数。
本实施例提出的网络结构具体如下:
(1)高动态图像输入去噪色调映射网络,图像首先进入一个步长为1,输出通道为64,卷积核大小为3*3的卷积层,然后经过ReLU激活函数。
(2)输入残差块RB用于提取浅层特征。RB的具体结构见图3。特征层(步骤(1)的输出)首先进入一个步长为1,输出通道为64,卷积核大小为3*3的卷积层,然后经过实例归一化和ReLU激活函数。再经过一个步长为1,输出通道为64,卷积核大小为3*3的卷积层和实例归一化后,输出与RB的输入相加,引入残差连接以更好地传递特征和预防梯度消失。再经过一个ReLU和一个步长为1,输出通道为64,卷积核大小为1*1的卷积层后经ReLU激活函数得到RB的最终输出。RB使用残差连接更好得提取特征,在不同深度上使用RB可以提取不同深度的特征。
(3)步骤(2)的输出特征进入一个步长为1,输出通道为64,卷积核大小为3*3的卷积层,然后经过实例归一化和ReLU激活函数。
(4)输入所述RB模块提取较深层特征。
(5)步骤(4)的输出进入一个步长为2,输出通道为128,卷积核大小为3*3的卷积层,然后经过实例归一化和ReLU激活函数。
(6)进入一个步长为2,输出通道为256,卷积核大小为3*3的卷积层,然后经过实例归一化和ReLU激活函数。
(7)经过3个SADM模块。具体结构见图3。SADM模块由多个级联的去噪单元组成。首先进入一个步长为1,输出通道为256的空洞卷积层和ReLU激活函数,然后经过一个步长为1,输出通道为256,卷积核大小为1*1的卷积层和Sigmoid激活函数,该输出与前面ReLU的输出相乘,再与最初的特征层拼接起来,得到一个去噪单元的输出。Sigmoid激活函数可以输出一个值在[0,1]之间的注意力图,用以引导网络对不均匀分布的噪声分配不同的注意力,来得到更好的去噪效果。SADM中的这些去噪单元由稠密连接相连,这些级联的单元可以大大增加网络的感受野,配合注意力机制实现优秀的去噪与色调映射效果。3个SADM模块中空洞卷积的卷积核大小分别为1,3,5。
(7)进入一个步长为1,输出通道为256,卷积核大小为3*3的反卷积层,然后经过实例归一化和ReLU激活函数。
(8)进入一个步长为2,输出通道为128,卷积核大小为3*3的反卷积层,然后经过实例归一化和ReLU激活函数。
(9)进入一个步长为2,输出通道为64,卷积核大小为3*3的反卷积层,然后经过实例归一化和ReLU激活函数。
(10)进入一个步长为1,输出通道为64,卷积核大小为3*3的卷积层,然后经过ReLU激活函数。
(11)进入一个步长为1,输出通道为64,卷积核大小为1*1的卷积层,然后经过Sigmoid激活函数。
网络输出的色调映射图像与色调映射图像真值利用上述结构损失函数计算损失。
本发明中的神经网络模型,可是实现端到端的高动态图像去噪及色调映射,直接获得高质量的色调映射图像。
需要说明的是,本发明的应用不限于上述的实施例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (10)
1.基于深度学习的去噪色调映射方法,其特征在于,该方法包括以下步骤:
S1,标定相机噪声参数;
S2,搭建去噪色调映射网络模型;
S3,将训练集中的高动态图像分解为一系列不同曝光的低动态图像并分别加入噪声,重新合成带噪高动态图像,对所述带噪高动态图像进行预处理后作为所述去噪色调映射网络的输入;
S4,使用结构损失函数和感知损失函数,通过反向传播对去噪色调映射网络进行训练,直到网络收敛。
3.根据权利要求1所述的基于深度学习的去噪色调映射方法,其特征在于,步骤S2中,所述去噪色调映射网络包括编码器网络、空间自适应去噪模块和解码器网络;首先使用卷积层提取图像特征,然后经过由一组下采样层组成的编码器网络,用于学习输入高动态图像的深度特征,并将其反馈给空间自适应去噪模块以去除非均匀分布的噪声;最后,将空间自适应去噪模块的输出结果输入由一系列上采样层组成的解码器网络,并将其融合到最后的解码层中,生成色调映射图像。
4.根据权利要求3所述的基于深度学习的去噪色调映射方法,其特征在于,步骤S2中,所述编码器网络中引入残差块。
5.根据权利要求3所述的基于深度学习的去噪色调映射方法,其特征在于,步骤S2中,所述空间自适应去噪模块由多个去噪单元级联构成。
6.根据权利要求1所述的基于深度学习的去噪色调映射方法,其特征在于,步骤S3中,将训练集中的高动态图像分解具体包括:
将高动态图像像素值过高的部分截断,并进行归一化;
使用牛顿迭代法,找到一个α,使得avg(floor(clamp((αV)12.2)·255))=127,其中avg(·)为求均值操作,floor(·)为向下取整,clamp(·)将取值范围限定在[0,1],V是像素值;
以当前图片为基准图像,假设当前图像曝光时间为1,增加或减少曝光时间来得到低动态图像堆栈,则第j张图像的像素值为floor(clamp((αtjV)12.2)·255),tj是第j张图像的曝光时间。
10.基于深度学习的去噪色调映射装置,其特征在于,该装置包括:
相机标定模块,用于标定相机噪声参数;
去噪色调映射网络,用于将带噪高动态图像转换为去噪的色调映射图像;
图像处理模块,用于将高动态图像分解为一系列不同曝光的低动态图像并分别加入噪声,重新合成带噪高动态图像,进行预处理后输入所述去噪色调映射网络;
训练模块,用于通过反向传播对所述去噪色调映射网络进行训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211375364.9A CN115619682A (zh) | 2022-11-04 | 2022-11-04 | 基于深度学习的去噪色调映射方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211375364.9A CN115619682A (zh) | 2022-11-04 | 2022-11-04 | 基于深度学习的去噪色调映射方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115619682A true CN115619682A (zh) | 2023-01-17 |
Family
ID=84876453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211375364.9A Pending CN115619682A (zh) | 2022-11-04 | 2022-11-04 | 基于深度学习的去噪色调映射方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115619682A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117474816A (zh) * | 2023-12-26 | 2024-01-30 | 中国科学院宁波材料技术与工程研究所 | 高动态范围图像色调映射方法、系统及可读存储介质 |
-
2022
- 2022-11-04 CN CN202211375364.9A patent/CN115619682A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117474816A (zh) * | 2023-12-26 | 2024-01-30 | 中国科学院宁波材料技术与工程研究所 | 高动态范围图像色调映射方法、系统及可读存储介质 |
CN117474816B (zh) * | 2023-12-26 | 2024-03-12 | 中国科学院宁波材料技术与工程研究所 | 高动态范围图像色调映射方法、系统及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111968044B (zh) | 基于Retinex和深度学习的低照度图像增强方法 | |
JP5543605B2 (ja) | 空間画像事前確率を用いたぼけ画像修正 | |
US7302110B2 (en) | Image enhancement methods and apparatus therefor | |
CN110544213B (zh) | 一种基于全局和局部特征融合的图像去雾方法 | |
EP1341124B1 (en) | Method for sharpening a digital image with signal to noise estimation | |
CN110111269B (zh) | 基于多尺度上下文聚合网络的低照度成像算法及装置 | |
CN111553867B (zh) | 一种图像去模糊方法、装置、计算机设备及存储介质 | |
US20030161544A1 (en) | Method for sharpening a digital image without amplifying noise | |
US11948278B2 (en) | Image quality improvement method and image processing apparatus using the same | |
CN110047055A (zh) | 一种红外图像细节增强及去噪方法 | |
CN117593235B (zh) | 基于深度CNN去噪先验的Retinex变分水下图像增强方法和装置 | |
US20060013503A1 (en) | Methods of preventing noise boost in image contrast enhancement | |
CN115619682A (zh) | 基于深度学习的去噪色调映射方法及装置 | |
Yang et al. | Low-light image enhancement based on Retinex theory and dual-tree complex wavelet transform | |
JP2023532228A (ja) | ノイズ除去および低精度画像処理のための非線形画像強度変換のシステムおよび方法 | |
CN114418873B (zh) | 一种暗光图像降噪方法及装置 | |
CN115965544A (zh) | 自适应亮度调节的图像增强方法及系统 | |
KR20190113889A (ko) | 이미징 잡음 감소 시스템 및 방법 | |
RU2448367C1 (ru) | Способ повышения визуальной информативности цифровых полутоновых изображений | |
KR102277005B1 (ko) | 비지도 학습을 이용한 저조도 영상 처리 방법 및 장치 | |
US20120106842A1 (en) | Method for image enhancement based on histogram modification and specification | |
CN108460723A (zh) | 基于邻域相似性的双边全变分图像超分辨率重建方法 | |
CN117392036A (zh) | 基于照明幅度的低光图像增强方法 | |
CN109949233B (zh) | 滤除x射线图像中散射线的方法、系统、设备及存储介质 | |
CN116363015A (zh) | 一种基于Retinex理论和卷积神经网络的低照度图像增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |