CN117635478A - 一种基于空间通道注意力的低光照图像增强方法 - Google Patents

一种基于空间通道注意力的低光照图像增强方法 Download PDF

Info

Publication number
CN117635478A
CN117635478A CN202410093432.5A CN202410093432A CN117635478A CN 117635478 A CN117635478 A CN 117635478A CN 202410093432 A CN202410093432 A CN 202410093432A CN 117635478 A CN117635478 A CN 117635478A
Authority
CN
China
Prior art keywords
attention
low
image
layer
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410093432.5A
Other languages
English (en)
Other versions
CN117635478B (zh
Inventor
凌强
李湘生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202410093432.5A priority Critical patent/CN117635478B/zh
Priority claimed from CN202410093432.5A external-priority patent/CN117635478B/zh
Publication of CN117635478A publication Critical patent/CN117635478A/zh
Application granted granted Critical
Publication of CN117635478B publication Critical patent/CN117635478B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明提供一种基于空间通道注意力的低光照图像增强方法,首先输入待增强的低光照图像,将其归一化到0到1之间;接着,经输入层处理,获得低光照图像的初步的图像特征;然后,在编码‑解码模型中编码部分的浅层,经空间注意力处理,获得包含准确空间信息的特征,在编码部分的深层,经通道注意力处理,获得包含丰富语义信息的特征;接着,在编码‑解码模型中解码部分,进行与在编码部分相同的对称操作,获得经空间通道注意力处理的最后特征;最后,将该最后特征使用输出层进行映射,输出低光照图像增强结果。本发明能够更好处理低光照环境下的图像内容恢复和噪声抑制难题,能够增强模型的表征能力以处理更广泛的实际低光照情形。

Description

一种基于空间通道注意力的低光照图像增强方法
技术领域
本发明涉及图像处理中图像增强技术,具体涉及一种基于空间通道注意力的低光照图像增强方法。
背景技术
低光照图像增强,是图像处理领域的一个关键问题,近年来受到研究者们的大量关注。它涉及到在光线条件不佳下拍摄的图像的增强,这种情况下图像的质量通常受到错误曝光、噪声、模糊、偏色和低对比度的影响。低光照条件可能源自各种因素,包括天气、环境光线、设备限制等。解决低光照图像增强问题对于许多应用来说至关重要,如监控摄像头、夜间摄影、医学影像处理和自动驾驶等。在监控系统中,低光图像增强可以帮助识别安全威胁或犯罪行为,提高夜间监控的效率。在夜间摄影中,它可以改善照片的质量,为摄影师提供更多创作空间。在医学影像处理中,它有助于提高影像诊断的准确性。在自动驾驶系统中,低光图像增强有助于提高车辆在夜间或恶劣天气条件下的感知能力,从而提高道路安全。因此,低光照图像增强在众多应用中具有广泛的意义。
低光图像增强的任务目标是改善这些图像的质量,以便更清晰地显示关键信息,包括增加图像的亮度、增强细节、减少噪声和提高对比度。最终目标是使图像更适合人眼观察和计算机视觉算法处理,从而提高图像的可用性。近年来,研究人员们开发了丰富的算法来处理低光照图像增强问题,取得了重要的进展,然而,低光图像增强仍然面临一些重要问题:1)噪声和纹理混杂的问题。噪声的抑制和纹理的增强是增强过程中极其重要的需要平衡的问题,否则,可能导致噪声的放大或是图像内容的平滑,这对图像质量不利;2)结果的自然性问题。许多低光图像增强方法容易引入伪影,使图像看起来不自然。保持图像的自然性是一个重要目标,特别是在摄影和医学应用中。3)泛化性能。某些深度学习方法在处理与训练数据集不同的场景时表现不佳,然而,这也是一个关键问题,因为实际的低光照情形可以因环境、设备和场景而异。
近年来,深度学习技术,特别是卷积神经网络(CNN),已经成为低光照图像增强的重要工具。然而,增强结果的自然性和算法的泛化性依然是潜在的问题。
发明内容
本发明具有以下两个目的,1)引入空间注意力机制,以帮助模型利用图像的不同区域,恢复图像的细节纹理以及抑制噪声,处理各种退化情况,提升模型在极暗条件下的增强性能。2)引入通道注意力机制,增强模型在图像的特征空间中进行特征交互的能力,提升模型的表达能力,从而提升模型的泛化性能。
本发明提出一种基于空间通道注意力的低光照图像增强方法,所述方法包括以下步骤:
步骤 1): 输入待增强的低光照图像;
步骤 2): 将输入的低光照图像归一化到0到1之间;
步骤 3): 低光照图像经输入层处理,被映射到对应的特征空间,获得初步的图像特征;
步骤4): 在编码-解码模型中编码部分的浅层,初步的图像特征经由卷积层以及空间注意力进行处理,获得包含准确空间信息的特征;
步骤 5): 在编码-解码模型中编码部分的深层,包含准确空间信息的特征被下采样到一定尺度,通道注意力使各个特征进行充分的交互,获得包含丰富语义信息的特征;
步骤 6): 在编码-解码模型中解码部分,进行与在编码部分相同的对称操作,即在解码部分的深层进行相同的通道注意力操作,将深层的特征经上采样到浅层后,进行相同的空间注意力操作,获得经空间通道注意力处理的最后特征;
步骤 7): 将经过空间通道注意力处理的最后特征使用输出层进行映射,从特征空间映射回图像空间;
步骤 8): 输出最终的低光照图像增强结果。
进一步,编码-解码模型由输入层、输出层以及堆叠的卷积层和跳连接组成,多次的下采样和上采样操作将特征的尺寸进行缩小和放大;相同尺度的特征之间使用跳连接进行特征拼接,使用池化层进行下采样,使用转置卷积进行上采样;每次下采样,特征图的长宽均减半,而通道数加倍,上采样则反之;通道数自浅到深为64,128,256以及512;所采用的卷积核大小均为3×3,除输出层输入层之外的所有卷积层的激活函数均为PReLU,输出层的激活函数为Sigmoid;编码-解码模型的输入为低光照图像,输出为增强后的图像。
进一步,空间注意力在高分辨率的特征空间中执行,采用十字交叉注意力在空间上计算相关性,该空间注意力计算了空间中行上的注意力和列上的注意力,经过两个卷积层,对于每一个像素,输出有关其所在行上的长度为W的行空间注意力权重以及有关其所在列上的长度为H的列空间注意力权重,其中H为图像的纵向分辨率,W为图像的横向分辨率,将获得的空间注意力权重施加在经一个卷积层处理的特征图上,每个像素的新值为其相同行列上像素的加权和,参考了空间中行和列位置上的信息用于增强;此外,该空间注意力连续计算两次,将感受野扩展到全图,且两次计算中卷积层的参数共享。
进一步,通道注意力在低分辨率的特征空间中执行,采用通道注意力计算通道间的相关性,模型通过两个卷积层学习得到C×C的通道注意力图,其中C为通道数,该通道注意力图包含了每个通道与所有通道之间的相关性,将获得的通道注意力施加在经一个卷积层处理的特征图上,每个通道的新值为所有通道的加权和,其参考了所有通道的特征信息进行特征间交互。
进一步,所述编码-解码模型使用一个混合损失函数来训练模型,该损失函数包含逐像素的损失和结构损失,逐像素的损失由L1损失和L2损失组成,其表达式如下:
其中,和/>为L1损失和L2损失的权重,/>表示网络输出的增强图像,Y表示对应的正常光图像,/>和/>分别表示L1范数和L2范数;
结构损失表达式如下:
其中,表示计算/>和Y之间的结构相似度,其值在0到1之间,值越大表示二者的结构相似度越高,其计算方程由下式给出:
其中,和/>为待计算结构相似度的两张输入图片,/>和/>分别为图片/>和/>的局部均值,/>为局部总像素数,/>和/>为各自窗口内的像素值,/>和/>分别为图片/>和/>的局部标准差,/>为/>和/>之间的局部协方差;/>和/>是常量,用于避免公式中某些值趋近0时计算不稳定的现象;
最终的损失函数是/>和/>的加权和,即/>,其中/>和/>分别为逐像素损失和结构损失的权重。
本发明技术方案的优点和积极效果:
1)能够更好处理低光照环境下的图像内容恢复和噪声抑制难题;
在分辨率与原图像相近的特征空间中,特征包含准确的空间信息。对这些特征进行空间注意力操作,有助于模型利用自然图像的自相似性,参考图像中的相似块,对图像的微弱纹理进行恢复以及进行合理的去噪,在恢复细节的同时抑制噪声,保证在低光照环境下增强的准确性。
2)能够增强模型的表征能力以处理更广泛的实际低光照情形;
在经过多次下采样的特征空间中,特征包含丰富的语义信息。这些语义信息能够引导增强,通过通道注意力对这些特征进行聚合以及交互,模型的表征能力能够得到一定的提升。在处理现实中多变的低光照情况时,模型强大的表征能力能够使得算法具有良好的鲁棒性和泛化性。
附图说明
图1为基于空间通道注意力的低光照图像增强流程图;
图 2为本发明提出的编码-解码模型示意图;
图 3为空间注意力计算示例图;
图 4为通道注意力计算示例图;
图5(a)为低光照图像,图5(b)为一种基于对抗生成网络的方法生成的图像;图5(c)为一种基于可学习的Retinex模型的方法生成的图像;图5(d)为一种基于归一化流的方法生成的图像;图5(e)为一种基于深度展开网络的方法生成的图像,图5(f)为本发明提出的基于空间通道注意力的方法生成的图像。
具体实施方式
本发明的技术方案:如图1所示,基于空间通道注意力的低光照图像增强流程图;首先输入待增强的低光照图像,将其归一化到0到1之间;接着,低光照图像经输入层处理,被映射到对应的特征空间,获得初步的图像特征;然后,在编码-解码模型中编码部分的浅层,初步的图像特征经由卷积层以及空间注意力进行处理,获得包含准确空间信息的特征,在编码-解码模型中编码部分的深层,包含准确空间信息的特征被下采样到一定尺度,通道注意力使各个特征进行充分的交互,获得包含丰富语义信息的特征;接着,在编码-解码模型中解码部分,进行与在编码部分相同的对称操作,即在解码部分的深层进行相同的通道注意力操作,将深层的特征经上采样到浅层后,进行相同的空间注意力操作,获得经空间通道注意力处理的最后特征;最后,将经过空间通道注意力处理的最后特征使用输出层进行映射,从特征空间映射回图像空间,输出最终的低光照图像增强结果。
步骤 1): 输入待增强的低光照图像;
步骤 2): 将输入的低光照图像归一化到0到1之间;
步骤 3): 低光照图像经输入层处理,被映射到对应的特征空间,获得初步的图像特征;
步骤4): 在编码-解码模型中编码部分的浅层,初步的图像特征经由卷积层以及空间注意力进行处理,获得包含准确空间信息的特征;
步骤 5): 在编码-解码模型中编码部分的深层,包含准确空间信息的特征被下采样到一定尺度,通道注意力使各个特征进行充分的交互,获得包含丰富语义信息的特征;
步骤 6): 在编码-解码模型中解码部分,进行与在编码部分相同的对称操作,即在解码部分的深层进行相同的通道注意力操作,将深层的特征经上采样到浅层后,进行相同的空间注意力操作,获得经空间通道注意力处理的最后特征;
步骤 7): 将经过空间通道注意力处理的最后特征使用输出层进行映射,从特征空间映射回图像空间;
步骤 8): 输出最终的低光照图像增强结果。
本发明提出的基于空间通道注意力的低光照图像增强方法使用的骨干网络模型结构为常用的编码-解码模型,如图2所示。在方法的输入部分和输出部分,使用卷积层将图像映射到特征空间或是将特征映射到图像空间。模型的主干部分由堆叠的卷积层组成,多次的下采样和上采样操作将特征的尺寸进行缩小和放大,赋予模型多尺度学习的能力。相同尺度的特征之间使用跳连接保证训练的稳定和合理的残差学习。使用池化层进行下采样,使用转置卷积进行上采样;每次下采样,特征图的长宽均减半,而通道数加倍,上采样则反之。通道数自浅到深为64,128,256以及512。所采用的卷积核大小均为3×3,中间层的激活函数均为PReLU,输出层的激活函数为Sigmoid。模型的输入为低光照图像,输出为增强后的图像。
本发明引入空间注意力来利用自然图像的自相似性,帮助恢复图像细节。考虑到随着摄影设备的发展,图像的分辨率越来越高,且本发明中的空间注意力在高分辨率的特征空间中执行,需要采用轻量级的空间注意力计算方式保证良好的效率。本发明采用十字交叉注意力在空间上计算相关性,只需要线性复杂度,如图3所示。该空间注意力计算了行上的注意力和列上的注意力,因此对于每一个像素,其参考了空间中行和列位置上的信息用于增强;此外,该空间注意力连续计算了两次,将感受野扩展到全图而非局限在十字范围中,两次计算中卷积层的参数共享,因此并不带来额外的参数量。
具体实施方法:经过编码或解码部分的浅层的卷积层提取的尺寸为N×C×H×W特征图作为输入,其中N为批大小,C为特征图通道数,H为特征图的长,W为特征图的宽。经过三个卷积层的变换后,获得有关输入的查询(query),键(key)和值(value),尺寸与输入大小一致。以行上的注意力权重计算为例,经过reshape操作调整维度后,查询和键的尺寸分别变为(NH)×W×C以及(NH)×C×W,将查询和键进行矩阵相乘并调整维度,得到 N×H×W×W的有关行的注意力图,该注意力图包含了所有的H×W个像素与其对应行上所有W个像素的相似度权重。同理,可以获得N×H×W×H的有关列的注意力图。行列的注意力图拼接起来,并进行Softmax、分离以及调整维度的操作,生成了最终的行注意力图和列注意力图,尺寸分别为NH×W×W以及NW×H×H。将这两张注意力图与值(value)进行矩阵相乘并调整维度相加,每个像素位置将参考其对应行列上的空间信息用于增强。上述操作将重复两次,每次的卷积层参数共享,两次注意力计算之后即可输出经空间注意力处理的特征图,其尺寸与输入特征图尺寸相同大小,即N×C×H×W。
本发明引入通道注意力来增强特征之间的聚合和交互,从而提升模型的表达能力,最终达到提升模型泛化性能的目的。在编码-解码模型的深层,特征的空间分辨率低,通道数多,包含大量的语义信息。早期的通道注意力基于池化层和全连接层,学习逐通道的权重,这种方式虽然有效,但无法实现通道间的交互。更好的方式是引入通道间的自注意力计算,由于通道数一般小于空间像素数,因此通道自注意力的计算是可以负担的。本发明引入的通道自注意力计算流程如图4所示,模型通过两个卷积层学习得到C×C的通道注意力图,其中C为通道数,将特征图与通道注意力进行矩阵乘法,实现了通道注意力的计算,该计算有助于学习通道之间的相关性,更好地实现了特征之间的聚合和交互。
具体实施方法:经过编码或解码部分的深层的卷积层提取的尺寸为N×C×H×W特征图作为输入,经过三个卷积层的变换后,获得有关输入的查询(query),键(key)和值(value),尺寸与输入大小一致。经过reshape操作调整维度后,查询和键的尺寸分别变为N×C×(HW)以及N×(HW)×C,将查询和键进行矩阵相乘并进行Softmax,得到 N×C×C的通道注意力图,该注意力图包含了每个通道与所有C个通道的相似度权重。将该注意力图与值(value)进行矩阵相乘并调整维度,每个通道得以和所有通道进行特征交互,即可输出经通道注意力处理的特征图,其尺寸与输入特征图尺寸相同大小,即N×C×H×W。
本发明提出使用一个混合损失函数来训练模型,保证增强结果拥有良好的纹理、结构和色彩。该损失函数包含逐像素的损失和结构损失。逐像素的损失由L1损失和L2损失组成,其表达式如下:
其中,和/>为L1损失和L2损失的权重,/>表示网络输出的增强图像,Y表示对应的正常光图像,/>和/>分别表示L1范数和L2范数。
结构损失表达式如下:
其中,表示计算/>和Y之间的结构相似度,其值在0到1之间,值越大表示二者的结构相似度越高,其计算方程由下式给出:
其中,和/>为待计算结构相似度的两张输入图片,/>和/>分别为图片/>和/>的局部均值,/>为局部总像素数,/>和/>为各自窗口内的像素值,/>和/>分别为图片/>和/>的局部标准差,/>为/>和/>之间的局部协方差;/>和/>是常量,用于避免公式中某些值趋近0时计算不稳定的现象;
最终的损失函数是/>和/>的加权和,即/>,其中/>和/>分别为逐像素损失和结构损失的权重。其中,图5(a)为低光照图像,图5(b)为一种基于对抗生成网络的方法生成的图像;图5(c)为一种基于可学习的Retinex模型的方法生成的图像;图5(d)为一种基于归一化流的方法生成的图像;图5(e)为一种基于深度展开网络的方法生成的图像,图5(f)为本发明提出的基于空间通道注意力的方法生成的图像。以上展示了本发明提出的基于空间通道注意力的低光照图像增强方法的与其他基于深度学习方法的增强性能对比。可以看出本发明提出的方法能够更好地恢复低光照中的纹理细节和结构,保证了准确的颜色,并有优异的去噪性能,整体的增强效果更佳。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于空间通道注意力的低光照图像增强方法,其特征在于,所述方法包括以下步骤:
步骤 1): 输入待增强的低光照图像;
步骤 2): 将输入的低光照图像归一化到0到1之间;
步骤 3): 低光照图像经输入层处理,被映射到对应的特征空间,获得初步的图像特征;
步骤4): 在编码-解码模型中编码部分的浅层,初步的图像特征经由卷积层以及空间注意力进行处理,获得包含准确空间信息的特征;
步骤 5): 在编码-解码模型中编码部分的深层,包含准确空间信息的特征被下采样到一定尺度,通道注意力使各个特征进行充分的交互,获得包含丰富语义信息的特征;
步骤 6): 在编码-解码模型中解码部分,进行与在编码部分相同的对称操作,即在解码部分的深层进行相同的通道注意力操作,将深层的特征经上采样到浅层后,进行相同的空间注意力操作,获得经空间通道注意力处理的最后特征;
步骤 7): 将经过空间通道注意力处理的最后特征使用输出层进行映射,从特征空间映射回图像空间;
步骤 8): 输出最终的低光照图像增强结果。
2.根据权利要求1所述的方法,其特征在于,编码-解码模型由输入层、输出层以及堆叠的卷积层和跳连接组成,多次的下采样和上采样操作将特征的尺寸进行缩小和放大;相同尺度的特征之间使用跳连接进行特征拼接,使用池化层进行下采样,使用转置卷积进行上采样;每次下采样,特征图的长宽均减半,而通道数加倍,上采样则反之;通道数自浅到深为64,128,256以及512;所采用的卷积核大小均为3×3,除输出层输入层之外的所有卷积层的激活函数均为PReLU,输出层的激活函数为Sigmoid;编码-解码模型的输入为低光照图像,输出为增强后的图像。
3.根据权利要求1所述的方法,其特征在于,空间注意力在高分辨率的特征空间中执行,采用十字交叉注意力在空间上计算相关性,该空间注意力计算了空间中行上的注意力和列上的注意力,经过两个卷积层,对于每一个像素,输出有关其所在行上的长度为W的行空间注意力权重以及有关其所在列上的长度为H的列空间注意力权重,其中H为图像的纵向分辨率,W为图像的横向分辨率,将获得的空间注意力权重施加在经一个卷积层处理的特征图上,每个像素的新值为其相同行列上像素的加权和,参考了空间中行和列位置上的信息用于增强;此外,该空间注意力连续计算两次,将感受野扩展到全图,且两次计算中卷积层的参数共享。
4.根据权利要求1所述的方法,其特征在于,通道注意力在低分辨率的特征空间中执行,采用通道注意力计算通道间的相关性,模型通过两个卷积层学习得到C×C的通道注意力图,其中C为通道数,该通道注意力图包含了每个通道与所有通道之间的相关性,将获得的通道注意力施加在经一个卷积层处理的特征图上,每个通道的新值为所有通道的加权和,其参考了所有通道的特征信息进行特征间交互。
5.根据权利要求1所述的方法,其特征在于,所述编码-解码模型使用一个混合损失函数来训练模型,该损失函数包含逐像素的损失和结构损失,逐像素的损失由L1损失和L2损失组成,其表达式如下:
其中,和/>为L1损失和L2损失的权重,/>表示网络输出的增强图像,Y表示对应的正常光图像,/>和/>分别表示L1范数和L2范数;
结构损失表达式如下:
其中,表示计算/>和Y之间的结构相似度,其值在0到1之间,值越大表示二者的结构相似度越高,其计算方程由下式给出:
其中,和/>为待计算结构相似度的两张输入图片,/>和/>分别为图片/>和/>的局部均值,/>为局部总像素数,/>和/>为各自窗口内的像素值,/>和/>分别为图片/>和/>的局部标准差,/>为/>和/>之间的局部协方差;/>和/>是常量,用于避免公式中某些值趋近0时计算不稳定的现象;
最终的损失函数是/>和/>的加权和,即/>,其中/>分别为逐像素损失和结构损失的权重。
CN202410093432.5A 2024-01-23 一种基于空间通道注意力的低光照图像增强方法 Active CN117635478B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410093432.5A CN117635478B (zh) 2024-01-23 一种基于空间通道注意力的低光照图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410093432.5A CN117635478B (zh) 2024-01-23 一种基于空间通道注意力的低光照图像增强方法

Publications (2)

Publication Number Publication Date
CN117635478A true CN117635478A (zh) 2024-03-01
CN117635478B CN117635478B (zh) 2024-05-17

Family

ID=

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111951235A (zh) * 2020-07-31 2020-11-17 湘潭大学 基于深度学习的皮肤图像处理方法
CN112347859A (zh) * 2020-10-15 2021-02-09 北京交通大学 一种光学遥感图像显著性目标检测方法
CN113344951A (zh) * 2021-05-21 2021-09-03 北京工业大学 一种边界感知双重注意力引导的肝段分割方法
CN113610778A (zh) * 2021-07-20 2021-11-05 武汉工程大学 一种基于语义分割的桥梁表面裂纹检测方法与系统
CN113793275A (zh) * 2021-08-27 2021-12-14 西安理工大学 一种Swin Unet低照度图像增强方法
CN114359073A (zh) * 2021-12-16 2022-04-15 华南理工大学 一种低光照图像增强方法、系统、装置及介质
CN115205647A (zh) * 2022-07-21 2022-10-18 南京农业大学 一种基于注意力机制与多尺度特征融合的植物图像分割方法
CN116012243A (zh) * 2022-12-26 2023-04-25 合肥工业大学 面向真实场景的暗光图像增强去噪方法、系统和存储介质
CN116109509A (zh) * 2023-02-13 2023-05-12 中国科学技术大学 基于逐像素伽马矫正的实时低光照图像增强方法及系统
CN116433516A (zh) * 2023-03-30 2023-07-14 电子科技大学 一种基于注意力机制的低照度图像去噪增强方法
CN116797488A (zh) * 2023-07-07 2023-09-22 大连民族大学 一种基于特征融合与注意力嵌入的低照度图像增强方法
CN117011194A (zh) * 2023-10-07 2023-11-07 暨南大学 一种基于多尺度双通道注意力网络的低光图像增强方法
WO2023236445A1 (zh) * 2022-06-09 2023-12-14 北京大学 一种使用长曝光补偿的低光照图像增强方法
CN117314787A (zh) * 2023-11-14 2023-12-29 河北工业大学 基于自适应多尺度融合和注意力机制的水下图像增强方法
CN117408924A (zh) * 2023-10-19 2024-01-16 桂林电子科技大学 一种基于多重语义特征融合网络的低光照图像增强方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111951235A (zh) * 2020-07-31 2020-11-17 湘潭大学 基于深度学习的皮肤图像处理方法
CN112347859A (zh) * 2020-10-15 2021-02-09 北京交通大学 一种光学遥感图像显著性目标检测方法
CN113344951A (zh) * 2021-05-21 2021-09-03 北京工业大学 一种边界感知双重注意力引导的肝段分割方法
CN113610778A (zh) * 2021-07-20 2021-11-05 武汉工程大学 一种基于语义分割的桥梁表面裂纹检测方法与系统
CN113793275A (zh) * 2021-08-27 2021-12-14 西安理工大学 一种Swin Unet低照度图像增强方法
CN114359073A (zh) * 2021-12-16 2022-04-15 华南理工大学 一种低光照图像增强方法、系统、装置及介质
WO2023236445A1 (zh) * 2022-06-09 2023-12-14 北京大学 一种使用长曝光补偿的低光照图像增强方法
CN115205647A (zh) * 2022-07-21 2022-10-18 南京农业大学 一种基于注意力机制与多尺度特征融合的植物图像分割方法
CN116012243A (zh) * 2022-12-26 2023-04-25 合肥工业大学 面向真实场景的暗光图像增强去噪方法、系统和存储介质
CN116109509A (zh) * 2023-02-13 2023-05-12 中国科学技术大学 基于逐像素伽马矫正的实时低光照图像增强方法及系统
CN116433516A (zh) * 2023-03-30 2023-07-14 电子科技大学 一种基于注意力机制的低照度图像去噪增强方法
CN116797488A (zh) * 2023-07-07 2023-09-22 大连民族大学 一种基于特征融合与注意力嵌入的低照度图像增强方法
CN117011194A (zh) * 2023-10-07 2023-11-07 暨南大学 一种基于多尺度双通道注意力网络的低光图像增强方法
CN117408924A (zh) * 2023-10-19 2024-01-16 桂林电子科技大学 一种基于多重语义特征融合网络的低光照图像增强方法
CN117314787A (zh) * 2023-11-14 2023-12-29 河北工业大学 基于自适应多尺度融合和注意力机制的水下图像增强方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZILONG HUANG ET AL.: "CCNet: Criss-Cross Attention for Semantic", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCEIEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, 9 July 2020 (2020-07-09), pages 3 - 5 *
韩慧慧;李帷韬;王建平;焦点;孙百顺;: "编码―解码结构的语义分割", 中国图象图形学报, no. 02, 16 February 2020 (2020-02-16) *

Similar Documents

Publication Publication Date Title
CN112233038B (zh) 基于多尺度融合及边缘增强的真实图像去噪方法
CN112308200B (zh) 神经网络的搜索方法及装置
EP4109392A1 (en) Image processing method and image processing device
EP4198875A1 (en) Image fusion method, and training method and apparatus for image fusion model
CN111028177A (zh) 一种基于边缘的深度学习图像去运动模糊方法
CN112001914A (zh) 深度图像补全的方法和装置
CN113284051B (zh) 一种基于频率分解多注意力机制的人脸超分辨方法
US20240062530A1 (en) Deep perceptual image enhancement
CN109389667B (zh) 一种基于深度学习的高效全局光照明绘制方法
Afifi et al. Cie xyz net: Unprocessing images for low-level computer vision tasks
CN112465727A (zh) 基于HSV色彩空间和Retinex理论的无正常光照参考的低照度图像增强方法
CN112581379A (zh) 图像增强方法以及装置
CN111914997A (zh) 训练神经网络的方法、图像处理方法及装置
CN112614061A (zh) 基于双路编解码器的低照度图像亮度增强及超分辨率方法
CN113673545A (zh) 光流估计方法、相关装置、设备及计算机可读存储介质
CN114627034A (zh) 一种图像增强方法、图像增强模型的训练方法及相关设备
Zhang et al. Learning to restore light fields under low-light imaging
CN116958534A (zh) 一种图像处理方法、图像处理模型的训练方法和相关装置
CN116934592A (zh) 一种基于深度学习的图像拼接方法、系统、设备及介质
CN113379606B (zh) 一种基于预训练生成模型的人脸超分辨方法
CN112150363B (zh) 一种基于卷积神经网络的图像夜景处理方法及运行该方法的计算模块与可读存储介质
Tang et al. Structure-embedded ghosting artifact suppression network for high dynamic range image reconstruction
CN113724134A (zh) 一种基于残差蒸馏网络的航拍图像盲超分辨率重建方法
CN113066089A (zh) 一种基于注意力引导机制的实时图像语义分割网络
CN117635478B (zh) 一种基于空间通道注意力的低光照图像增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant