CN112734655A - 一种基于卷积神经网络图像对crm增强的低光图像增强方法 - Google Patents
一种基于卷积神经网络图像对crm增强的低光图像增强方法 Download PDFInfo
- Publication number
- CN112734655A CN112734655A CN202011548115.6A CN202011548115A CN112734655A CN 112734655 A CN112734655 A CN 112734655A CN 202011548115 A CN202011548115 A CN 202011548115A CN 112734655 A CN112734655 A CN 112734655A
- Authority
- CN
- China
- Prior art keywords
- convolution
- crm
- neural network
- convolutional neural
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 26
- 230000002708 enhancing effect Effects 0.000 title claims abstract description 12
- 238000005286 illumination Methods 0.000 claims abstract description 38
- 230000004927 fusion Effects 0.000 claims abstract description 12
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 8
- 238000011068 loading method Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 20
- 230000004913 activation Effects 0.000 claims description 16
- 230000015654 memory Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 11
- 238000011049 filling Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000002776 aggregation Effects 0.000 claims description 5
- 238000004220 aggregation Methods 0.000 claims description 5
- 238000011426 transformation method Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims description 2
- 150000002148 esters Chemical class 0.000 claims 1
- 238000002310 reflectometry Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本公开提供了一种基于卷积神经网络图像对CRM增强的低光图像增强方法,包括:步骤(1):首先将图片加载进分解网络,得到光照分量和反射分量;步骤(2):将分解好的光照分量输入CRM函数中进行增强;步骤(3):对步骤(1)中的反射分量进行去噪;步骤(4):将增强后的光照分量输入融合增强系统;步骤(5):将去噪后的反射分量和处理后的光照分量进行多尺度融合,输出结果。
Description
技术领域
本公开计算机视觉中的图像处理领域,尤其涉及一种基于卷积神经网络对低光照图像进行增强的方法。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
在图像捕获中,光照不足会显著降低图像的可见性。细节的丢失和低对比度不仅会造成不愉快的主观感受,而且会损害许多为正常光线图像设计的计算机视觉系统的性能。在照明不足的情况下,如低光照环境、摄影设备性能有限、设备配置不当等,都需要进行弱光图像增强,以使隐藏的细节显现出来,提高当前计算机视觉系统的主观体验和可用性。在过去的几十年里,许多研究者致力于解决微光图像增强的问题。许多技术已经发展,以提高主观和客观质量的微光图像。
传统的线性、非线性方法只能增强图像特定特征,容易降低其他方面的显示效果,例如出现色彩失真或细节丢失等。
Retinex理论假设真实世界没有颜色,所有对颜色的感知都是光与物质的相互作用产生的;每个颜色区域可以由固定波长的红、绿、蓝三原色构成;上述三种三原色决定每个颜色的色彩。在该理论基础上诞生了很多的算法,并取得了很多不俗的成果。
将机器学习与Retinex相结合的低光图像增强技术越来越受到人们的青睐。它的效率更高、提取特征更显著、效果更好。深度学习方法已经成为了机器学习领域最热门的方法,在计算机视觉、NLP(自然语言处理)及图像处理领域取得了不错的研究成果,目前最主流的方法就是深度神经网络与Retinex相结合的方法:有从图像中计算出对应像素值的变换系数,然后再使用另一个神经网络计算求变换系数对应的像素位置,再经过计算得到增强结果的方法;有使用传统的深度卷积网络对输入的夜晚图像进行尺度对数变换得到图像,然后将图像输入神经网络得到增强结果的方法;有先将图片进行分解,然后用CRM(Camera Response Model相机响应模型)对分解出来的光照分量进行处理,再将处理后的光照分量和反射分量送入卷积神经网络进行处理的方法。但是往往消耗的资源比较多、训练周期长,而且反射率图像非常容易受到低光和噪声的影响,因此当前技术无法准确的分解出反射率图片,使用不准确的反射率分量进行图片增强的效果也经常会出现噪声多、增强效果不理想的情况。
此外,现有技术中只能采用CRM技术对单张图片进行处理,进行先分解出反射率分量和光照分量,然后再用CRM对光照分量进行处理,将处理后的光照分量和反射分量输入网络进行处理的过程。显然,现有技术中无法采用CRM技术对多张图片进行处理。
针对现有技术中存在的问题,本公开采用将两张成对的图片中的低光图像先经过CRM技术处理,处理后将两张图片一起送进网络,用卷积进行处理,提取出反射率分量和光照分量的技术方案。
发明内容
本公开为了解决上述问题,提出了一种基于卷积神经网络图像对CRM增强的低光图像增强方法,本公开通过将成对的图片(除了光照情况不一样,其他均一样)通过卷积神经网络对图片进行分解,分解之后使用CRM方法对光照分量进行处理、对反射分量进行去噪操作,处理之后通过卷积神经网络进行融合,可以获得更少的色彩和亮度失真的增强结果,进而获得更好的反射率图像,最终提高图片在低光下的质量。
根据一些实施例,本公开采用如下技术方案:
第一方面,本公开提供了一种基于卷积神经网络图像对CRM增强的低光图像增强方法;
如图1所示,一种基于卷积神经网络图像对CRM增强的低光图像增强方法,包括:
步骤(1):首先将图片加载进分解网络,得到光照分量和反射分量;
步骤(2):将分解好的光照分量输入CRM函数中进行增强;
步骤(3):对步骤(1)中的反射分量进行去噪;
步骤(4):将增强后的光照分量输入融合增强系统;
步骤(5):将去噪后的反射分量和处理后的光照分量进行多尺度融合,输出结果。
第二方面,本公开提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述第一方面所述的基于卷积神经网络图像对CRM增强的低光图像增强方法。
第三方面,本公开还提供了一种计算机程序(产品),包括计算机程序,所述计算机程序当在一个或多个处理器上运行的时候用于实现前述第一方面所述的基于卷积神经网络图像对CRM增强的低光图像增强方法。
与现有技术相比,本公开的有益效果为:
本公开和传统的方法不同,本公开使用CRM对成对(除图片亮度不同,其他都相同)的图片的光照分量进行增强,减弱了噪声、低光等环境条件对图片造成的干扰,可以获得更少的色彩和亮度失真的光照分量增强结果,进而获得更好的光照分量,并且对反射率进行去噪操作,去除反射率噪声,然后对去噪后的图片的反射分量和光照分量进行多尺度融合,提高了图片的质感,更好的恢复了图片原本的色彩和形状。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1是本公开的基于卷积神经网络图像对CRM增强的低光图像增强方法的流程图;
图2是本公开的图像分解图;
图3是本公开的融合增强网络图;
图4是本公开的反射率去噪图。
具体实施方式:
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一
本实施例提供了一种基于卷积神经网络图像对CRM增强的低光图像增强方法;
一种基于卷积神经网络图像对CRM增强的低光图像增强方法,包括:
步骤(1):首先将图片加载进分解网络,得到光照分量和反射分量;
图2是图像分解图,如图2所示:首先,对输入的数字照片中的RGB(红、绿、蓝)三通道中的每个像素点取一个最大值,组成一个一维张量,然后将该张量与原图片连接成为一个新的四维张量;将该张量先进行一次卷积操作,再进行经过relu激活函数的五次卷积操作;将卷积后的结果变为4通道模式以便于分解;然后将该四通道张量经过sigmoid函数取出前三通道作为反射分量,最后一通道作为光照分量。至此,完成图片的分解。
示例的,步骤(1)实现的具体过程为:
步骤(1-1):选取数字图像中R、G、B三通道中的最大值进行堆叠,使其变成4通道,并将该4通道矩阵与原矩阵进行连接;
步骤(1-2):将连接后的矩阵数据格式转变为张量,使用64个卷积核、卷积核大小为3*3的、无激活函数、填充边界的卷积进行1次卷积操作,然后再用增加relu激活函数的卷积进行5次卷积操作;
步骤(1-3):将卷积后的张量变为4通道,取出前三通道作为R、G、B通道的反射分量,最后一通道作为光照分量。
图3是融合增强网络图,如图3所示:
步骤(2):将分解好的光照分量输入CRM函数中进行增强;
CRM(INI,Input)=eb(1-k)Inputk得到最终的结果,这里K就是上一步得出的结果,b是一个常量,将最终结果压缩在0、1之间。
示例的,步骤(2)实现的具体过程为:
步骤(2-2):将K值及反射分量带入公式:
CRM(INI,Input)=eb(1-k)Inputk中求解结果;
步骤(2-3):将结果限制在0与1之间,输出结果。
图4是反射率去噪图,如图4所示:
步骤(3):对步骤(1)中的反射分量进行去噪;
Basic estimate与Final estimate两步操作。首先通过Grouping为目标块找到相似块,块集合无顺序限制;然后Collaborative hard-thresholding使用某种域变换方法,得到“变换后的相似块集合”,采用协同(由相似块共同确定)硬阈值策略“弱化”相似块的噪声,后反变换回原始块域;然后使用Aggregation加权平均相似块(Collaborative hard-thresholding处理后),叠加后得到basic estimate后的目标块;Grouping使用Aggregation处理后的basic estimate后的目标块,以及已由Basic estimate处理后的图像重新计算块集合;Collaborative Wiener filtering域变换后,使用维纳滤波;最后用Aggregation对滤波后的图片进行处理。
示例的,步骤(3)实现的具体过程为:
步骤(3-1):Grouping为目标块找到相似块,块集合无顺序限制;
具体的步骤(3-1)实现的过程为:
步骤(3-1-1):采用a normalized 2D linear transform与hard-thresholding对块距离进行预处理操作,公式如下:
根据距离就可以找到相似块集合,公式为:
SxR ht={x∈X:d(ZxR,Zx)≤Tmatch ht}
其中,λmatch ht确定是否相似的超参数,SxR ht为x∈SxR ht的相似块集合。
步骤(3-2):Collaborative hard-thresholding使用某种域变换方法,得到“变换后的相似块集合”,采用协同硬阈值策略“弱化”相似块的噪声,后反变换回原始块域;
具体的步骤(3-2)实现的过程为:
步骤(3-2-1):Collaborative hard-thresholding相似块降噪,使用归一化的3D线性变换来降低相似块的噪声,然后使用反变换得到处理后的相似块其中为归一化的3D线性变换,为其反变换,γ为硬阈值操作,阈值设为λ3Dσ,为处理后的相似块集合。
步骤(3-3):Aggregation加权平均相似块,叠加后得到basic estimate后的目标块;
具体的步骤(3-3)实现的过程为:
步骤(3-3-1):为了降低相似块的信息冗余与自身噪声,加权平均后得到目标块的像素值,公式如下:
其中,ωxR ht为权重,Nhar xR为硬阈值操作后的非0系数的个数,Xxm:X→{0,1},在实际搜索相似块时,需要对原图padding,由padding得到的相似块不纳入加权平均中。
步骤(3-4):Grouping使用(3-1)中Grouping找到的块集合,以及已由Basicestimate处理后的图像重新计算块集合;
步骤(3-5):Collaborative Wiener filtering域变换后,使用维纳滤波去除噪声。
步骤(4):将增强后的光照分量输入融合增强系统;
首先将增强后的光照分量和反射分量进行连接,连接之后进行一次卷积操作,再进行三次经过relu激活函数的下采样操作,让深度卷积网络了解大尺度光照的分布情况;然后采用最近邻插值的方法进行三次上采样,重构局部光照分布。
示例的,步骤(4)实现的具体过程为:
步骤(4-1):使用64个卷积核、卷积核大小为3*3的、步长为2、无激活函数、填充边界的卷积进行1次卷积操作,然后进行3次下采样;使用增加relu激活函数的卷积进行3次卷积操作;
步骤(4-2):进行三次上采样操作:使用最近邻插值的方法对卷积后缩小的图片进行扩充,然后再使用64个卷积核、卷积核大小为3*3的、激活函数为relu、填充边界的卷积进行1次卷积操作;重复以上步骤两次。
步骤(5):将去噪后的反射分量和处理后的光照分量进行多尺度融合,输出结果。
进行多尺度特征融合,在不同尺度上对光照分量进行恢复。
示例的,步骤(5)实现的具体过程为:
步骤(5-1):首先将步骤(1-2)中的前两次上采样操作以后的图片调整大小使其和最后上采样以后的图片大小一致,然后将它们互相连接,对连接后的张量使用64个卷积核、卷积核大小为1*1、填充边界、无激活函数的卷积操作,使其进行融合;
步骤(5-2):对融合后的张量进行1个卷积核、卷积核大小为3*3、填充边界、无激活函数的卷积操作,并输出最终结果。
实施例二
本实施例还提供了一种电子设备包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述实施例一所述的基于卷积神经网络图像对CRM增强的低光图像增强方法。
本公开通过将成对的图片(除了光照情况不一样,其他均一样)通过卷积神经网络对图片进行分解,分解之后使用CRM方法对光照分量进行处理、对反射分量进行去噪操作,处理之后通过卷积神经网络进行融合,可以获得更少的色彩和亮度失真的增强结果,进而获得更好的反射率图像,最终提高图片在低光下的质量。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。
Claims (10)
1.一种基于卷积神经网络图像对CRM增强的低光图像增强方法,其特征在于,包括:
步骤(1):首先将图片加载进分解网络,得到光照分量和反射分量;
步骤(2):将分解好的光照分量输入CRM函数中进行增强;
步骤(3):对步骤(1)中的反射分量进行去噪;
步骤(4):将增强后的光照分量输入融合增强系统;
步骤(5):将去噪后的反射分量和处理后的光照分量进行多尺度融合,输出结果。
2.根据权利要求1所述的基于卷积神经网络图像对CRM增强的低光图像增强方法,其特征在于,所述步骤(1)包括:
步骤(1-1):选取数字图像中R、G、B三通道中的最大值进行堆叠,使其变成4通道,并将该4通道矩阵与原矩阵进行连接;
步骤(1-2):将连接后的矩阵数据格式转变为张量,使用64个卷积核、卷积核大小为3*3的、无激活函数、填充边界的卷积进行1次卷积操作,然后再用增加relu激活函数的卷积进行5次卷积操作;
步骤(1-3):将卷积后的张量变为4通道,取出前三通道作为R、G、B通道的反射分量,最后一通道作为光照分量。
4.根据权利要求1所述的基于卷积神经网络图像对CRM增强的低光图像增强方法,其特征在于,所述步骤(3)包括:
步骤(3-1):Grouping为目标块找到相似块,块集合无顺序限制;
步骤(3-2):Collaborative hard-thresholding使用某种域变换方法,得到“变换后的相似块集合”,采用协同硬阈值策略“弱化”相似块的噪声,后反变换回原始块域;
步骤(3-3):Aggregation加权平均相似块,叠加后得到basic estimate后的目标块;
步骤(3-4):Grouping使用(3-1)中Grouping找到的块集合,以及已由Basic estimate处理后的图像重新计算块集合;
步骤(3-5):Collaborative Wiener filtering域变换后,使用维纳滤波去除噪声。
5.根据权利要求4所述的基于卷积神经网络图像对CRM增强的低光图像增强方法,其特征在于,所述步骤(3-1)包括:
步骤(3-1-1):采用a normalized 2D linear transform与hard-thresholding对块距离进行预处理操作,公式如下:
根据距离就可以找到相似块集合,公式为:
SxR ht={x∈X:d(ZxR,Zx)≤Tmatch ht}
其中,λmatch ht确定是否相似的超参数,SxR ht为x∈SxR ht的相似块集合。
8.根据权利要求1所述的基于卷积神经网络图像对CRM增强的低光图像增强方法,其特征在于,所述步骤(4)包括:
步骤(4-1):使用64个卷积核、卷积核大小为3*3的、步长为2、无激活函数、填充边界的卷积进行1次卷积操作,然后进行3次下采样;使用增加relu激活函数的卷积进行3次卷积操作;
步骤(4-2):进行三次上采样操作:使用最近邻插值的方法对卷积后缩小的图片进行扩充,然后再使用64个卷积核、卷积核大小为3*3的、激活函数为relu、填充边界的卷积进行1次卷积操作;重复以上步骤两次。
9.根据权利要求2所述的基于卷积神经网络图像对CRM增强的低光图像增强方法,其特征在于,所述步骤(5)包括:
步骤(5-1):首先将步骤(1-2)中的前两次上采样操作以后的图片调整大小使其和最后上采样以后的图片大小一致,然后将它们互相连接,对连接后的张量使用64个卷积核、卷积核大小为1*1、填充边界、无激活函数的卷积操作,使其进行融合;
步骤(5-2):对融合后的张量进行1个卷积核、卷积核大小为3*3、填充边界、无激活函数的卷积操作,并输出最终结果。
10.一种电子设备,其特征在于,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述权利要求1-9任一项所述的基于卷积神经网络图像对CRM增强的低光图像增强方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011548115.6A CN112734655B (zh) | 2020-12-24 | 2020-12-24 | 一种基于卷积神经网络图像对crm增强的低光图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011548115.6A CN112734655B (zh) | 2020-12-24 | 2020-12-24 | 一种基于卷积神经网络图像对crm增强的低光图像增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112734655A true CN112734655A (zh) | 2021-04-30 |
CN112734655B CN112734655B (zh) | 2022-12-27 |
Family
ID=75605298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011548115.6A Active CN112734655B (zh) | 2020-12-24 | 2020-12-24 | 一种基于卷积神经网络图像对crm增强的低光图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112734655B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116128768A (zh) * | 2023-04-17 | 2023-05-16 | 中国石油大学(华东) | 一种带有去噪模块的无监督图像低照度增强方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175964A (zh) * | 2019-05-30 | 2019-08-27 | 大连海事大学 | 一种基于拉普拉斯金字塔的Retinex图像增强方法 |
CN110232661A (zh) * | 2019-05-03 | 2019-09-13 | 天津大学 | 基于Retinex和卷积神经网络的低光照彩色图像增强方法 |
CN110675336A (zh) * | 2019-08-29 | 2020-01-10 | 苏州千视通视觉科技股份有限公司 | 一种低照度图像增强方法及装置 |
CN112001863A (zh) * | 2020-08-28 | 2020-11-27 | 太原科技大学 | 一种基于深度学习的欠曝光图像恢复方法 |
-
2020
- 2020-12-24 CN CN202011548115.6A patent/CN112734655B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110232661A (zh) * | 2019-05-03 | 2019-09-13 | 天津大学 | 基于Retinex和卷积神经网络的低光照彩色图像增强方法 |
CN110175964A (zh) * | 2019-05-30 | 2019-08-27 | 大连海事大学 | 一种基于拉普拉斯金字塔的Retinex图像增强方法 |
CN110675336A (zh) * | 2019-08-29 | 2020-01-10 | 苏州千视通视觉科技股份有限公司 | 一种低照度图像增强方法及装置 |
CN112001863A (zh) * | 2020-08-28 | 2020-11-27 | 太原科技大学 | 一种基于深度学习的欠曝光图像恢复方法 |
Non-Patent Citations (3)
Title |
---|
CHEN WEI 等: ""Deep Retinex Decomposition for Low-Light Enhancement"", 《ARXIV:1808.04560V1 [CS.CV]》 * |
JUNYI WANG 等: ""RDGAN: RETINEX DECOMPOSITION BASED ADVERSARIAL LEARNING FOR LOW-LIGHT ENHANCEMENT"", 《IEEE》 * |
KOSTADIN DABOV 等: ""Image denoising with block-matching and 3D filtering"", 《RESEARCHGATE》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116128768A (zh) * | 2023-04-17 | 2023-05-16 | 中国石油大学(华东) | 一种带有去噪模块的无监督图像低照度增强方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112734655B (zh) | 2022-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | A fusion adversarial underwater image enhancement network with a public test dataset | |
CN112233038B (zh) | 基于多尺度融合及边缘增强的真实图像去噪方法 | |
Kim et al. | Representative color transform for image enhancement | |
CN108875935B (zh) | 基于生成对抗网络的自然图像目标材质视觉特征映射方法 | |
Huang et al. | Deep hyperspectral image fusion network with iterative spatio-spectral regularization | |
CN108416745B (zh) | 一种具有色彩恒常性的图像自适应去雾增强方法 | |
Liu et al. | Image de-hazing from the perspective of noise filtering | |
Wang et al. | Joint iterative color correction and dehazing for underwater image enhancement | |
CN111161360A (zh) | 基于Retinex理论的端到端网络的图像去雾方法 | |
CN112288011A (zh) | 一种基于自注意力深度神经网络的图像匹配方法 | |
Shen et al. | Convolutional neural pyramid for image processing | |
CN113284061B (zh) | 一种基于梯度网络的水下图像增强方法 | |
CN113870124B (zh) | 基于弱监督的双网络互激励学习阴影去除方法 | |
Garg et al. | LiCENt: Low-light image enhancement using the light channel of HSL | |
Lepcha et al. | A deep journey into image enhancement: A survey of current and emerging trends | |
Zheng et al. | An unsupervised deep learning approach for real-world image denoising | |
CN115546505A (zh) | 一种基于深度学习的无监督单目图像深度估计方法 | |
Wang et al. | Single Underwater Image Enhancement Based on $ L_ {P} $-Norm Decomposition | |
Zhao et al. | Deep pyramid generative adversarial network with local and nonlocal similarity features for natural motion image deblurring | |
Zheng et al. | T-net: Deep stacked scale-iteration network for image dehazing | |
Wang et al. | Underwater color disparities: Cues for enhancing underwater images toward natural color consistencies | |
CN115272437A (zh) | 一种基于全局与局部特征的图像深度估计方法及装置 | |
CN112734655B (zh) | 一种基于卷积神经网络图像对crm增强的低光图像增强方法 | |
Dey | Python image processing cookbook: over 60 recipes to help you perform complex image processing and computer vision tasks with ease | |
Pan et al. | ChebyLighter: Optimal Curve Estimation for Low-light Image Enhancement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |