CN113643202A - 一种基于噪声注意力图指导的微光图像增强方法 - Google Patents

一种基于噪声注意力图指导的微光图像增强方法 Download PDF

Info

Publication number
CN113643202A
CN113643202A CN202110863117.2A CN202110863117A CN113643202A CN 113643202 A CN113643202 A CN 113643202A CN 202110863117 A CN202110863117 A CN 202110863117A CN 113643202 A CN113643202 A CN 113643202A
Authority
CN
China
Prior art keywords
image
layer
size
output
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110863117.2A
Other languages
English (en)
Inventor
孙帮勇
赵兴运
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202110863117.2A priority Critical patent/CN113643202A/zh
Publication of CN113643202A publication Critical patent/CN113643202A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于噪声注意力图指导的微光图像增强方法,步骤包括:步骤1、构建噪声估计模块,该噪声估计模块的输入为原始微光图像,大小为H*W*3;该噪声估计模块的输出是大小为H*W*1的特征图;步骤2、构建增强网络模块,该增强网络模块的输入数据是步骤1的输出特征与原始微光图像,大小为H*W*4;该增强网络模块的输出是增强后的图像,大小为H*W*3;增强网络模块包含了编码器、ResidualBlock以及解码器。本发明的方法,可以有效对单张微光图像进行增强,在噪声注意力图指导下拥有良好的去噪性能,且不会出现颜色失真以及能保留原图纹理细节,在不同数据集上具有很好的泛化能力。

Description

一种基于噪声注意力图指导的微光图像增强方法
技术领域
本发明属于图像处理技术领域,具体属于RGB真彩色图像恢复技术,涉及一种基于噪声注意力图指导的微光图像增强方法。
背景技术
当今,图像可以提供大量的动态信息,通过图像传递信息在人们生活中扮演越来越重要的角色。在微光条件下获取的图像具有低对比度,低亮度以及低信噪比的“三低特性”,严重限制了图像内容的识别和判读;同时也会影响后续的图像处理任务,如图像分割、目标识别和视频监控等。尽管通过延长摄像机的曝光时间可以在一定程度上提高图像亮度,但在此期间易产生大量的图像噪声,因此,如何提高在微光环境下获取到的图像的质量,是计算机视觉领域近年来一个研究热点。
早期微光图像增强方法主要基于直方图均衡化(HE)和Retinex理论。HE图像增强是以累计分布函数为基础的直方图修改方法,将图像直方图调整为均衡分布以拉伸图像动态范围,从而提高图像对比度;该类方法操作简单、效率高,但生成的图像易受伪影影响、真实感不强。而基于视网膜理论方法试图通过将输入图像分解为反射分量和照明分量来照亮图像,反射分量是场景的固有属性,而照明分量受环境照度的影响;基于视网膜理论方法通常增强微光图像的照明分量,以近似对应的正常光图像。模型中的参数需人工设定,无法自适应处理图像的多样性,并且针对较高噪声的图像处理效果较差,存在局部细节曝光不足或曝光过度等情况。伴随着人工智能理论的快速发展,近年来基于深度学习的微光图像增强算法陆续提出。尽管,基于深度学习的方法一定程度上弥补了传统方法的不足,对某一类图像集取得较好的增强效果,但是大多数深度学习微光增强方法严重依赖于数据集质量,且多假定暗光区域没有噪声,或者不考虑噪声在不同照明区域的分布。
实际上,以上先验知识与真实图像存在偏差,且完备的现实图像数据集获取难度大,这些都导致现有深度学习模型不能有效地抑制真实图像噪声,难以产生令人满意的视觉质量。
发明内容
本发明的目的是提供一种基于噪声注意力图指导的微光图像增强方法,解决了现有技术中存在的微光图像低可见度、噪声污染严重的问题。
本发明所采用的技术方案是,一种基于噪声注意力图指导的微光图像增强方法,按照以下步骤具体实施:
步骤1、构建噪声估计模块,该噪声估计模块的输入为原始微光图像,大小为H*W*3;该噪声估计模块的输出是大小为H*W*1的特征图;
步骤2、构建增强网络模块,该增强网络模块的输入数据是步骤1的输出特征与原始微光图像,大小为H*W*4;该增强网络模块的输出是增强后的图像,大小为H*W*3;
增强网络模块包含了编码器、Residual Block以及解码器,编码器在噪声注意力图指导下提取图像的浅层特征;Residual Block在编码器的基础上继续提取图像深层特征,为图像恢复提供有效的高级语义信息;解码器是在语义信息中恢复高分辨率图像,并进行通道压缩,输出增强结果。
本发明的有益效果是,能够有效的将微光图像恢复到正常光照条件下获取的图像,并有效去除图像中的噪声。本发明能够有效对单张微光图像进行增强,在噪声注意力图指导下拥有良好的去噪性能,且不会出现颜色失真以及能保留原图纹理细节,在不同数据集上具有很好的泛化能力。
附图说明
图1是本发明方法的流程框图;
图2是本发明方法中构建的噪声估计模块的结构流程图;
图3是本发明方法中构建的编码器的结构流程图;
图4是本发明方法中构建的Residual Block的结构流程图;
图5是本发明方法中构建的解码器的结构流程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明主要基于噪声注意力图指导增强网络而提出的一种微光图像增强方法,整体思路为:首先,将原始微光图像输入噪声估计模块,噪声估计模块利用空间注意力机制有效地学习空间位置权重以聚焦原始微光图像不同区域中不同程度的噪声。将噪声估计模块得到的空间噪声位置权重和原始微光图像共同作为增强网络的输入,噪声估计模块得到的空间噪声位置权重用于指导增强网络更有效的去除图像中的噪声。增强网络在空间噪声位置权重图的指导下,对图像进行特征提取并恢复图像,并输出增强后的结果。
参照图1,本发明的方法基于噪声注意力图指导增强网络的微光图像增强网络(以下简称为网络),由噪声估计模块、增强网络模块组成。噪声估计模块利用空间注意力机制,将图像空间信息通过空间转换模型变换到另一个空间中提取关键位置信息,为每个位置生成权重掩码加权输出,从而将图像数据中噪声特征标记出来,为增强网络模块提供更有效的噪声信息。增强网络模块包含了编码器、3个Residual Block以及解码器,编码器以原始微光图像和噪声注意力图作为输入,在噪声注意力图的指导下提取图像的浅层特征。3个Residual Block用于提取图像深层特征,解码器采用反卷积将提取的语义信息恢复高分辨率图像,并输出增强结果。
本发明的方法,利用上述的网络框架及原理,按照以下步骤具体实施:
步骤1、构建噪声估计模块,该噪声估计模块的输入为原始微光图像,大小为H*W*3;该噪声估计模块的输出是大小为H*W*1的特征图。
参照图2,噪声估计模块主要作用就是对原始图像利用空间注意力机制,以权重的形式将图像数据中噪声特征标记出来。噪声估计模块的结构依次为:原始微光图像(Input_image)作为输入图像→Avg Polling层(将Avg Polling层得到的特征图复制成3等份,每1等份分别输入不同的Conv分支中)→Conv分支层(包含3个相同结构的Conv分支)→Softmax层(将Conv1分支与Conv2分支的像素级相加,并采用Softmax函数激活)→Conv层(将Softmax层输出与Conv3分支的像素级相加,并进行卷积)→Interpolate层→输出特征。
其中,Avg Polling层为全局平均池化运算,用于增大感受野,便于获取更多的信息,卷积核大小为2*2,卷积步长为2,特征映射总数为3个;3个Conv分支层均为卷积运算,获取三个代表不同信息的特征图,卷积核大小均为3*3,卷积步长均为1,特征映射总数均为32个;Softmax层为Softmax激活函数;Conv层为卷积运算,卷积核大小为3*3,卷积步长为1,特征映射总数为1个;Interpolate层为线性插值运算,将图像特征尺寸通过线性插值恢复至H*W。
步骤2、构建增强网络模块,该增强网络模块的输入数据是步骤1的输出特征与原始微光图像,大小为H*W*4;该增强网络模块的输出是增强后的图像,大小为H*W*3。
增强网络模块包含了编码器、Residual Block以及解码器三部分。编码器在噪声注意力图指导下提取图像的浅层特征;Residual Block在编码器的基础上继续提取图像深层特征,为图像恢复提供有效的高级语义信息,本发明实施例中循环运行3次ResidualBlock;解码器主要是在语义信息中恢复高分辨率图像,并进行通道压缩,输出增强结果。
参照图3,编码器的输入数据是步骤1的输出特征与原始微光图像,大小为H*W*4;编码器的输出的是提取的浅层图像特征,大小为H/6*W/6*128。
编码器的结构依次为:原始微光图像和步骤1的输出特征(Input_image(feature))共同作为输入→Conv1层→Conv2层→Conv3层→输出特征(Output_feature)。
其中,Conv1层、Conv2层、Conv3层均为卷积运算,卷积核大小均为3*3,卷积步长均为2,特征映射总数分别为32、64、128个。
参照图4,Residual Block的输入数据是编码器的输出特征,大小为H/6*W/6*128;Residual Block的输出是提取的深层图像特征,大小为H/6*W/6*128。
Residual Block的结构依次为:编码器的输出特征(Input_feature)作为输入→BN层→ReLU层→第一个Conv层→BN层→ReLU层→第二个Conv层→输出特征(Output_feature)。
其中,BN层为利用批量归一化函数对输入特征进行了归一化处理;ReLU层为激活函数处理;两个Conv层均为卷积运算,卷积核大小均为3*3,卷积步长均为1。最后将输入的浅层特征与提取到的深层特征进行相加,共同作为Residual Block的输出。
参照图5,解码器的输入数据是Residual Block的输出特征,大小为H/6*W/6*128;解码器的输出为增强的图像,大小为H*W*3。
解码器的结构依次为:Residual Block的输出特征(Input_feature)作为输入→Deconv1层→Deconv2层→Deconv3层→输出图像(Output_image),即成。
其中,Deconv1、Deconv2、Deconv3层均为反卷积运算,卷积核大小均为3*3,反卷积步长均为2,特征映射总数分别为64、32、3个。
在训练基于噪声注意力图指导的微光图像增强网络时,考虑到L1损失函数在目标轮廓的对比度、均匀区域的平滑效果方面表现较好,同时SSIM损失函数引入结构约束能够很好地恢复图像的结构和局部细节,感知损失函数能够约束真实图像和预测图像之间的差异,保持图像感知和细节的保真度。感知颜色损失旨在测量欧几里得空间中两幅图像之间的色差,促使网络生成与参考图像相似的颜色。本步骤中,将L1+SSIM损失函数+感知损失函数+感知颜色函数组合在一起,作为基于噪声注意力图指导的微光图像增强网络的总损失函数,表示为:
Ltotal=(1-λsp)L1sLssimpLperccLcolour
式中,L1表示像素级别的L1范数损失,Lssim表示结构相似性损失,Lperc表示感知损失,Lcolour表示感知颜色损失函数;λs、λp、λc是相对应的系数,
取值区间为[0,1],优选λs=0.2、λp=0.1、λc=0.1;
L1范数损失公式为:
Figure BDA0003186436430000061
其中的Igt代表真实图像,Ih代表预测图像,l代表非零常数,取10-6
SSIM结构相似性损失公式为
Figure BDA0003186436430000062
μx、μy分别代表图像x、y的像素平均值;σxy代表图像x、y乘积的标准差;
Figure BDA0003186436430000063
分别代表图像x、y的方差;N代表图像样本总数,C1、C2为常量;
感知损失函数公式为:
Figure BDA0003186436430000071
其中,Igt代表真实图像,Ih代表预测图像,Cj代表通道,Hj和Wj分别代表第j特征图的高度和宽度,
Figure BDA0003186436430000072
代表在预先训练的VGG16模型中第j卷积层获得的特征图;
感知颜色损失函数公式为Lcolour=ΔE(Igt,Ih),Igt代表真实图像,Ih代表预测图像,ΔE代表CIEDE2000颜色色差计算。

Claims (6)

1.一种基于噪声注意力图指导的微光图像增强方法,其特征在于,按照以下步骤具体实施:
步骤1、构建噪声估计模块,该噪声估计模块的输入为原始微光图像,大小为H*W*3;该噪声估计模块的输出是大小为H*W*1的特征图;
步骤2、构建增强网络模块,该增强网络模块的输入数据是步骤1的输出特征与原始微光图像,大小为H*W*4;该增强网络模块的输出是增强后的图像,大小为H*W*3;
增强网络模块包含了编码器、Residual Block以及解码器,编码器在噪声注意力图指导下提取图像的浅层特征;Residual Block在编码器的基础上继续提取图像深层特征,为图像恢复提供有效的高级语义信息;解码器是在语义信息中恢复高分辨率图像,并进行通道压缩,输出增强结果。
2.根据权利要求1所述的基于噪声注意力图指导的微光图像增强方法,其特征在于:所述的步骤1中,噪声估计模块的结构依次为:原始微光图像作为输入图像→Avg Polling层→Conv分支层→Softmax层→Conv层→Interpolate层→输出特征,
其中,Avg Polling层为全局平均池化运算,卷积核大小为2*2,卷积步长为2,特征映射总数为3个;3个Conv分支层均为卷积运算,获取三个代表不同信息的特征图,卷积核大小均为3*3,卷积步长均为1,特征映射总数均为32个;Softmax层为Softmax激活函数;Conv层为卷积运算,卷积核大小为3*3,卷积步长为1,特征映射总数为1个;Interpolate层为线性插值运算,将图像特征尺寸通过线性插值恢复至H*W。
3.根据权利要求1所述的基于噪声注意力图指导的微光图像增强方法,其特征在于:所述的步骤2中,编码器的输入数据是步骤1的输出特征与原始微光图像,大小为H*W*4;编码器的输出的是提取的浅层图像特征,大小为H/6*W/6*128;
编码器的结构依次为:原始微光图像和步骤1的输出特征共同作为输入→Conv1层→Conv2层→Conv3层→输出特征;
其中,Conv1层、Conv2层、Conv3层均为卷积运算,卷积核大小均为3*3,卷积步长均为2,特征映射总数分别为32、64、128个。
4.根据权利要求1所述的基于噪声注意力图指导的微光图像增强方法,其特征在于:所述的步骤2中,Residual Block的输入数据是编码器的输出特征,大小为H/6*W/6*128;Residual Block的输出是提取的深层图像特征,大小为H/6*W/6*128;
Residual Block的结构依次为:编码器的输出特征作为输入→BN层→ReLU层→第一个Conv层→BN层→ReLU层→第二个Conv层→输出特征;
其中,BN层为利用批量归一化函数对输入特征进行了归一化处理;ReLU层为激活函数处理;两个Conv层均为卷积运算,卷积核大小均为3*3,卷积步长均为1;最后将输入的浅层特征与提取到的深层特征进行相加,共同作为ResidualBlock的输出。
5.根据权利要求1所述的基于噪声注意力图指导的微光图像增强方法,其特征在于:所述的步骤2中,解码器的输入数据是Residual Block的输出特征,大小为H/6*W/6*128;解码器的输出为增强的图像,大小为H*W*3;
解码器的结构依次为:Residual Block的输出特征作为输入→Deconv1层→Deconv2层→Deconv3层→输出图像;
其中,Deconv1、Deconv2、Deconv3层均为反卷积运算,卷积核大小均为3*3,反卷积步长均为2,特征映射总数分别为64、32、3个。
6.根据权利要求1所述的基于噪声注意力图指导的微光图像增强方法,其特征在于:所述的步骤2中,将L1+SSIM损失函数+感知损失函数+感知颜色函数组合在一起,作为基于噪声注意力图指导的微光图像增强网络的总损失函数,表示为:
Ltotal=(1-λsp)L1sLssimpLperccLcolour
式中,L1表示像素级别的L1范数损失,Lssim表示结构相似性损失,Lperc表示感知损失,Lcolour表示感知颜色损失函数;λs、λp、λc是相对应的系数,取值区间为[0,1],优选λs=0.2、λp=0.1、λc=0.1;
其中,L1范数损失公式为
Figure FDA0003186436420000031
Igt代表真实图像,Ih代表预测图像,l代表非零常数,取10-6
SSIM结构相似性损失公式为
Figure FDA0003186436420000032
μx、μy分别代表图像x、y的像素平均值;σxy代表图像x、y乘积的标准差;
Figure FDA0003186436420000033
分别代表图像x、y的方差;N代表图像样本总数,C1、C2为常量;
感知损失函数公式为
Figure FDA0003186436420000034
Igt代表真实图像,Ih代表预测图像,Cj代表通道,Hj和Wj分别代表第j特征图的高度和宽度,
Figure FDA0003186436420000035
代表在预先训练的VGG16模型中第j卷积层获得的特征图;
感知颜色损失函数公式为Lcolour=ΔE(Igt,Ih),Igt代表真实图像,Ih代表预测图像,ΔE代表CIEDE2000颜色色差计算。
CN202110863117.2A 2021-07-29 2021-07-29 一种基于噪声注意力图指导的微光图像增强方法 Pending CN113643202A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110863117.2A CN113643202A (zh) 2021-07-29 2021-07-29 一种基于噪声注意力图指导的微光图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110863117.2A CN113643202A (zh) 2021-07-29 2021-07-29 一种基于噪声注意力图指导的微光图像增强方法

Publications (1)

Publication Number Publication Date
CN113643202A true CN113643202A (zh) 2021-11-12

Family

ID=78418838

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110863117.2A Pending CN113643202A (zh) 2021-07-29 2021-07-29 一种基于噪声注意力图指导的微光图像增强方法

Country Status (1)

Country Link
CN (1) CN113643202A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115456903A (zh) * 2022-09-23 2022-12-09 南京大学 一种基于深度学习的全彩夜视增强方法和系统

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170237961A1 (en) * 2015-04-17 2017-08-17 Google Inc. Hardware-Based Convolutional Color Correction in Digital Images
KR20190036442A (ko) * 2017-09-27 2019-04-04 한국과학기술원 인공 지능을 이용한 초분광 영상 재구성 방법 및 장치
CN109636741A (zh) * 2018-11-14 2019-04-16 建湖云飞数据科技有限公司 一种图像去噪处理方法
CN109919869A (zh) * 2019-02-28 2019-06-21 腾讯科技(深圳)有限公司 一种图像增强方法、装置及存储介质
CN110807742A (zh) * 2019-11-21 2020-02-18 西安工业大学 一种基于一体式网络的微光图像增强方法
CN111028163A (zh) * 2019-11-28 2020-04-17 湖北工业大学 一种基于卷积神经网络的联合图像去噪与弱光增强方法
CN111080541A (zh) * 2019-12-06 2020-04-28 广东启迪图卫科技股份有限公司 基于比特分层和注意力融合机制的彩色图像去噪方法
CN111260579A (zh) * 2020-01-17 2020-06-09 北京理工大学 一种基于物理噪声生成模型的微光图像去噪增强方法
CN111402306A (zh) * 2020-03-13 2020-07-10 中国人民解放军32801部队 一种基于深度学习的微光/红外图像彩色融合方法及系统
CN111489303A (zh) * 2020-03-27 2020-08-04 武汉理工大学 一种低照度环境下海事图像增强方法
CN111667424A (zh) * 2020-05-28 2020-09-15 武汉大学 一种基于无监督的真实图像去噪方法
US10831417B1 (en) * 2019-06-17 2020-11-10 Kyocera Document Solutions Inc. Convolutional neural network based copy or print wizard
CN111932471A (zh) * 2020-07-24 2020-11-13 山西大学 用于低照度图像增强的双路曝光度融合网络模型及方法
CN111968044A (zh) * 2020-07-16 2020-11-20 中国科学院沈阳自动化研究所 基于Retinex和深度学习的低照度图像增强方法
CN112634176A (zh) * 2021-01-05 2021-04-09 西南石油大学 基于多感知对抗生成网络的手机拍摄图像去噪方法
CN113052814A (zh) * 2021-03-23 2021-06-29 浙江工业大学 基于Retinex和注意力机制的暗光图像增强方法

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170237961A1 (en) * 2015-04-17 2017-08-17 Google Inc. Hardware-Based Convolutional Color Correction in Digital Images
KR20190036442A (ko) * 2017-09-27 2019-04-04 한국과학기술원 인공 지능을 이용한 초분광 영상 재구성 방법 및 장치
CN109636741A (zh) * 2018-11-14 2019-04-16 建湖云飞数据科技有限公司 一种图像去噪处理方法
CN109919869A (zh) * 2019-02-28 2019-06-21 腾讯科技(深圳)有限公司 一种图像增强方法、装置及存储介质
US10831417B1 (en) * 2019-06-17 2020-11-10 Kyocera Document Solutions Inc. Convolutional neural network based copy or print wizard
CN110807742A (zh) * 2019-11-21 2020-02-18 西安工业大学 一种基于一体式网络的微光图像增强方法
CN111028163A (zh) * 2019-11-28 2020-04-17 湖北工业大学 一种基于卷积神经网络的联合图像去噪与弱光增强方法
CN111080541A (zh) * 2019-12-06 2020-04-28 广东启迪图卫科技股份有限公司 基于比特分层和注意力融合机制的彩色图像去噪方法
CN111260579A (zh) * 2020-01-17 2020-06-09 北京理工大学 一种基于物理噪声生成模型的微光图像去噪增强方法
CN111402306A (zh) * 2020-03-13 2020-07-10 中国人民解放军32801部队 一种基于深度学习的微光/红外图像彩色融合方法及系统
CN111489303A (zh) * 2020-03-27 2020-08-04 武汉理工大学 一种低照度环境下海事图像增强方法
CN111667424A (zh) * 2020-05-28 2020-09-15 武汉大学 一种基于无监督的真实图像去噪方法
CN111968044A (zh) * 2020-07-16 2020-11-20 中国科学院沈阳自动化研究所 基于Retinex和深度学习的低照度图像增强方法
CN111932471A (zh) * 2020-07-24 2020-11-13 山西大学 用于低照度图像增强的双路曝光度融合网络模型及方法
CN112634176A (zh) * 2021-01-05 2021-04-09 西南石油大学 基于多感知对抗生成网络的手机拍摄图像去噪方法
CN113052814A (zh) * 2021-03-23 2021-06-29 浙江工业大学 基于Retinex和注意力机制的暗光图像增强方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
BANGYONG SUN , QINSEN LIU, NIANZENG YUAN, JIAHAI TAN, XIAOMEI GAO, AND TAO YU: "Spectral Token Guidance Transformer for Multisource Images Change Detection", 《IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING》, vol. 16, 30 December 2023 (2023-12-30) *
BANGYONG SUN , YUTAO REN , AND XIAOQIANG LU: "Semisupervised Consistent Projection Metric Learning for Person Reidentification", 《IEEE TRANSACTIONS ON CYBERNETICS》, vol. 52, no. 2, 28 February 2022 (2022-02-28) *
HUAILIN LI1, QINSEN LIU, MENGNAN LIU, BANGYONG SUN: "Robust Deadlock Control for Reconfigurable Printing Manufacturing System Based on Process Algebra", 《BMC GENOMICS》, 31 May 2023 (2023-05-31) *
MING MA AND BANGYONG SUN: "A Cross-Level Interaction Network Based on Scale-Aware Augmentation for Camouflaged Object Detection", 《IEEE TRANSACTIONS ON EMERGING TOPICS IN COMPUTATIONAL INTELLIGENCE》, vol. 8, no. 1, 29 February 2024 (2024-02-29), XP011958669, DOI: 10.1109/TETCI.2023.3299305 *
SUN BANGYONG,LI YANLEI: "Study on the ICC Data Processing Technique Based on 3D Interpolation Method", 《《INTERNATIONAL CONFERENCE ON COMPUTER ENGINEERING AND TECHNOLOGY》, 28 February 2010 (2010-02-28) *
赵兴运, 孙帮勇: "融合注意力机制和上下文信息的微光图像增强", 《中国图像图形学报》, vol. 27, no. 5, 28 February 2022 (2022-02-28) *
赵兴运: "弱光条件下低照度图像增强方法研究", 中国知网, 30 June 2023 (2023-06-30) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115456903A (zh) * 2022-09-23 2022-12-09 南京大学 一种基于深度学习的全彩夜视增强方法和系统
CN115456903B (zh) * 2022-09-23 2023-05-09 南京大学 一种基于深度学习的全彩夜视增强方法和系统

Similar Documents

Publication Publication Date Title
CN111968044B (zh) 基于Retinex和深度学习的低照度图像增强方法
CN113793275A (zh) 一种Swin Unet低照度图像增强方法
CN113658057A (zh) 一种Swin Transformer微光图像增强方法
CN113284064B (zh) 一种基于注意力机制跨尺度上下文低照度图像增强方法
CN107798661B (zh) 一种自适应的图像增强方法
Liu et al. Survey of natural image enhancement techniques: Classification, evaluation, challenges, and perspectives
CN113450290B (zh) 基于图像修补技术的低照度图像增强方法及系统
CN112465727A (zh) 基于HSV色彩空间和Retinex理论的无正常光照参考的低照度图像增强方法
CN115223004A (zh) 基于改进的多尺度融合生成对抗网络图像增强方法
CN113284061B (zh) 一种基于梯度网络的水下图像增强方法
Wang et al. Single Underwater Image Enhancement Based on $ L_ {P} $-Norm Decomposition
CN112927160B (zh) 一种基于深度Retinex的单张低光图像增强方法
CN115035011A (zh) 一种融合策略下自适应RetinexNet的低照度图像增强方法
CN112614063B (zh) 用于楼宇内低照度环境的图像增强和噪声自适应去除方法
CN113643202A (zh) 一种基于噪声注意力图指导的微光图像增强方法
Zhuang et al. Image enhancement by deep learning network based on derived image and Retinex
Wen et al. A survey of image dehazing algorithm based on retinex theory
CN116681627B (zh) 一种跨尺度融合的自适应水下图像生成对抗增强方法
CN112308793A (zh) 一种新型的非均匀光照图像对比度和细节增强方法
WO2023110880A1 (en) Image processing methods and systems for low-light image enhancement using machine learning models
CN114556897B (zh) 原始到rgb的图像转换
CN117280709A (zh) 屏下摄像头的图像恢复
Kumari et al. Image fusion techniques based on pyramid decomposition
CN117808721B (zh) 基于深度学习的低照度图像增强方法、装置、设备及介质
US20230186612A1 (en) Image processing methods and systems for generating a training dataset for low-light image enhancement using machine learning models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination