CN114399431A - 一种基于注意力机制的暗光图像增强方法 - Google Patents
一种基于注意力机制的暗光图像增强方法 Download PDFInfo
- Publication number
- CN114399431A CN114399431A CN202111475305.4A CN202111475305A CN114399431A CN 114399431 A CN114399431 A CN 114399431A CN 202111475305 A CN202111475305 A CN 202111475305A CN 114399431 A CN114399431 A CN 114399431A
- Authority
- CN
- China
- Prior art keywords
- image
- dim
- normal light
- network
- light image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 95
- 230000007246 mechanism Effects 0.000 title claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 36
- 230000008569 process Effects 0.000 claims abstract description 24
- 230000000007 visual effect Effects 0.000 claims abstract description 18
- 125000004122 cyclic group Chemical group 0.000 claims abstract description 11
- 238000005286 illumination Methods 0.000 claims abstract description 9
- 230000008447 perception Effects 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 23
- 230000000694 effects Effects 0.000 claims description 13
- 230000002708 enhancing effect Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 2
- 238000013434 data augmentation Methods 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 claims description 2
- 238000005065 mining Methods 0.000 claims description 2
- 238000012795 verification Methods 0.000 claims description 2
- 238000004904 shortening Methods 0.000 claims 1
- 230000004044 response Effects 0.000 abstract description 6
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 230000004438 eyesight Effects 0.000 abstract description 3
- 230000005764 inhibitory process Effects 0.000 abstract description 3
- 230000035945 sensitivity Effects 0.000 abstract description 3
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000053 physical method Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001915 proofreading effect Effects 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Abstract
本发明涉及一种基于注意力机制的暗光图像增强方法,属于计算机视觉技术领域。本方法使用非监督式循环对抗生成网络,通过内容无关联的暗光/正常亮度图像对,得到视觉效果明显改善的预测结果,并进一步利用身份不变损失对其施加亮度约束,将自适应真实暗光图像不同亮度水平区域的过程整合到网络训练学习阶段中,提高了模型的鲁棒性和泛化能力;采用编解码结构网络模型作为主干生成器网络,通过施加光照感知注意力机制方式,提高网络对空间和全局特征信息的敏感度和学习能力,能充分利用多尺度特征信息选择性强调真实暗光图像中有益的特征响应并抑制用处不大的响应,获得噪声抑制明显、颜色估计正确、亮度水平合理、视觉效果良好的高质量增强结果。
Description
技术领域
本发明涉及一种暗光图像增强方法,具体涉及一种基于注意力机制的暗光图像增强方法,属于计算机视觉技术领域。
背景技术
在暗光环境下,由于光照条件的限制,图像传感器在既定曝光时间内接收到的光子较少。受限于图像传感器的物理特性与成像原理,会导致所拍摄图像质量下降严重,包括亮度低、噪声明显、细节退化和信噪比低等问题,进而明显影响图像的视觉效果和信息含量,并极大地降低下游计算机视觉算法(如目标检测、分割等)在其上的效果。尽管通过增大光圈、增加曝光时间或使用闪光灯等物理方法增加采集的光子数能在一定程度上提高获取图像质量,但是,依然会受到偏色、噪声等问题的影响,无法有效解决暗光环境下的成像问题。
暗光增强技术,是指利用后处理算法,将暗光图像转变成正常光照图像,并去除噪声,从而提高图像信噪比的计算成像技术。该技术可以有效提高图像视觉质量,增强图像细节,并提升下游视觉任务算法性能。
传统的暗光增强技术,主要利用统计学原理以及人工先验模型,对暗光图像进行处理,并借助优化策略和规则来提高图像质量,改变其对比度,增加亮度和信噪比,被广泛用于图像采集设备的底层处理流程中。然而,传统暗光增强方法在很大程度上取决于其手工制作先验假设的精度,且很难在暗度程度较高的真实图像上实现令人满意的性能,甚至可能生成额外的伪影破坏视觉效果。
随着深度学习方法的快速发展,利用卷积神经网络解决暗光增强问题,逐渐成为主流,其效果远超基于人工先验模型的传统方法。根据其是否使用具有标记的训练样本,利用卷积神经网络的方法可以进一步划分为有监督和无监督方法。目前,大部分的研究集中在有监督方法上,需要通过利用场景和内容上完全匹配对应的成对暗光/正常亮度图像来训练深度卷积神经网络。由于该类方法的性能高度受限于训练配对数据,且实际情况下采集成对的暗光图像和对应正常光照图像又难度较大且成本过高,因此,现有研究一般通过采用伽马变换或线性变化来调低自然光照图像亮度的方式合成训练数据,但这导致实验数据和真实暗光数据情况差异较大。
因此,尽管现有的监督方法在合成数据上可以取得较好结果,但通常难以很好地泛化到真实暗光图像上,会出现伪影或颜色失真等问题。相较之下,数据要求更低的无监督方法目前尚未得到充分研究,仅有的一些相关研究,也未能充分挖掘暗光图像的隐藏信息,且没有很好地考虑到真实暗光图像不同区域间的亮度水平差异,因此,这类图像增强网络在直接处理暗光图像时会出现噪声严重、颜色偏差、过曝光等问题,进而导致增强结果视觉质量较差,难以支持后续应用。
为了获得稳定且高质量的真实暗光图像增强结果,并且克服现有技术在配对图像数据集采集困难的问题,迫切需要有一种鲁棒且泛化能力强的暗光图像增强方法,能够利用无需配对的暗光/正常光照图像数据,解决噪声、颜色偏差和过曝光现象的问题。
发明内容
本发明的目的是针对现有技术在配对暗光/正常光训练数据不足的缺陷,为解决现有的无监督图像增强方法在进行暗光图像增强时存在的噪声严重、颜色偏差、过曝光等技术问题,创造性地提出一种基于注意力机制的暗光图像增强方法。
注意力机制,是一种基于原有数据找到其间关联性,然后根据输入重要程度自适应加权特征的资源分配的机制,可以引导算法将注意力转移到图像中最重要的区域并忽略不相关部分。将注意力机制引入计算机视觉,目的是模仿人类视觉系统,实现自然有效地在复杂场景中找到显著区域的特性。结合深度卷积神经网络(CNN),使用注意力机制能够充分利用图像各级特征的分层多尺度信息,对更广泛的全局上下文信息进行编码,挖掘出更具辨别力的图像特征,并提高其间的相关性,从而增强网络特征提取能力,显著提高了视觉任务的完成质量。
本方法,通过对常规图像传感器采集的低弱光图像数据进行处理,深入挖掘更多的图像特征信息,在不使用成对图像数据集的情况下,解决了现有暗光图像增强模型对于训练数据要求严格,以及难以有效处理噪声、颜色偏差和过曝光现象等问题。
本方法使用非监督式循环对抗生成网络,通过内容完全无关联的暗光/正常亮度图像对,得到视觉效果明显改善的预测结果,并进一步利用身份不变损失对其施加亮度约束,将自适应真实暗光图像不同亮度水平区域的过程整合到网络训练学习阶段中,提高了网络模型的鲁棒性和泛化能力。同时,采用编解码结构网络模型作为主干生成器网络,通过施加光照感知注意力机制的方式,提高网络对空间和全局特征信息的敏感度和学习能力,能够充分利用有限的多尺度特征信息选择性强调真实暗光图像中有益的特征响应并抑制用处不大的响应,以获取噪声抑制明显、颜色估计正确、亮度水平合理且视觉效果良好的高质量增强结果,满足实际应用中对性能与泛化性的需求。
此外,为了从主客观两个角度合理评判所提方法在真实暗光数据上的增强效果,本方法还提出了一种配对暗光/正常光数据的采集方案,以便于判断对比与现有模型的效果优劣。
有益效果
本发明能够在不需要场景和内容上完全匹配的成对暗光/正常亮度图像的前提下,提高无监督卷积神经网络处理暗光图像的鲁棒性和泛化性,并解决了噪声、颜色偏差和过曝光现象等问题,显著提高了处理图像的视觉质量。
与现有技术相比,具有以下优点:
1.本发明,采用非监督式循环对抗生成网络,通过内容完全无关联的暗光/正常亮度图像对得到视觉效果明显改善的预测结果,突破有监督暗光增强算法需要严格成对图像、性能严重依赖于训练数据质量的训练学习层面的瓶颈;同时进一步利用身份不变损失对网络施加亮度约束,将自适应真实暗光图像不同亮度水平区域的过程整合到网络训练学习阶段中,解决了无监督方法常见的过曝光问题,提高了网络模型的鲁棒性和泛化能力,其生成增强结果的质量明显高于已有技术中的无监督方法。
2.本发明,使用编解码结构网络模型作为主干生成器网络,并创造性地通过施加光照感知注意力机制的方式,提高网络对空间和全局特征信息的敏感度和学习能力,能够对更广泛的全局上下文信息进行编码,充分利用有限的多尺度特征信息选择性强调真实暗光图像中有益的特征响应并抑制用处不大的响应,显著提升网络特征提取能力,进而有效获取噪声抑制明显、颜色估计正确、亮度水平合理且视觉效果良好的高质量增强结果。
3.本发明提出的一种数据采集方案,能够有效获取场景和内容上完全匹配的成对暗光/正常亮度图像,同时允许与现有真实暗光/正常光配对数据相结合,支持现有有监督和无监督暗光增强方法进行训练学习和评估,有助于进一步提高暗光图像处理效果,可以作为规范化标准流程。
4.本发明方法数据限制小、增强质量高,适用于自动驾驶、视频监控、安防巡检、夜视成像等多个领域。
附图说明
图1为本发明方法的流程图;
图2为本发明方法所述核心暗光图像增强算法模型的网络架构示意图;
图3为本发明方法的暗光图像增强网络结构中所添加的光照感知注意力机制模块的内部结构示意图。
具体实施方式
下面结合附图对本发明方法做进一步详细说明。
如图1所示,一种基于注意力机制的暗光图像增强方法,包括以下步骤:
步骤1:数据采集阶段,利用图像采集设备(如单反相机、手机等),采集真实的配对暗光/正常光图像数据。
对于每一对数据,首先利用图像采集设备采集正常光图像,可以通过改变曝光时间和ISO模拟暗光条件,获取场景和内容上与之前正常光图像相匹配的暗光图像。
由于暗光图像需要与其对应的正常光对照图像的场景内容几乎完全一致,因此,在选取目标场景时,尽可能保证场景内目标与周围环境静止,在配对采集图像时,要注意避免微风或多余目标与干扰物等对采集场景的影响。
进一步地,为了从主客观两个角度合理评判所提方法在真实暗光数据上的增强效果,本方法提出了一种配对暗光/正常光数据的采集方法,以便于判断对比与现有模型的效果优劣。但本领域技术人员不限于使用该采集方法采集数据。
一种配对暗光/正常光数据的采集方法,包括以下步骤:
步骤1.1:选定预拍摄场景,确保无环境或人为因素干扰,同时保证所采集图像数据的场景和内容的丰富度,如尽可能覆盖如屋内、城市、郊外、山区等常见室内外场景,囊括车辆、植物、建筑、家具、艺术品等常见静态对象。
其中,所选场景可以是室外夜间、室内微光环境等。令图像采集设备(如相机)采集到符合标准的正常光图像及其对应的暗光图像,避免局部过曝光。
步骤1.2:设置图像采集设备(如相机)的参数,确保所采集暗光数据的质量与真实性。
例如,在采集前,将图像采集设备(如相机)的分辨率设置为最高分辨率,将拍摄模式设置为手动挡,其他拍摄相关设置均使用自动或默认参数。同时,可以通过有线或无线方式(例如打开设备内置的蓝牙或WIFI等),将采集设备与远程控制设备之间进行连接。
步骤1.3:借助辅助设备,配合高性能拍摄设备进行配对拍摄,确保获取可以获取场景和内容上完全匹配的成对暗光/正常亮度图像。
具体如下:
将设置好的设备固定(如设置在稳固的三脚架上),并通过程控制设备对图像采集设备进行控制操作,从而避免因直接操作图像采集设备(如按快门等)动作导致的设备抖动。同时,图像采集设备在正常光和暗光光图像拍摄之间不会被接触或移动,从而尽可能确保对应场景的成对暗光/正常光图像目标信息像素级对应。
在每个含目标对象的场景中,通过调整曝光时间和ISO这两个参数并固定其他参数来获取正常光图像及其对应的暗光图像。在具体采集时,在既定ISO设置下,仅调整图像采集设备的曝光时间参数,以尽可能保证正常光图像的视觉质量(可以肉眼清晰辨明目标细节信息)。每次采集在先获取目标场景的正常光参考图像,然后通过远程控制设备,将图像采集设备的曝光时间缩短10至100倍,从而实现实际暗光条件的图像拍摄。
优选地,为更好地实现暗光图像采集,可以选用以下四个ISO参数:800、1600、3200、6400,以及6个曝光时间倍数:10、20、30、40、50、100,来捕获真实的暗光/正常光图像。
步骤1.4:对采集的图像进行校对检查,确保符合预期设定,能够正常输入网络进行训练与学习,且无敏感信息。
具体方法如下:
对采集所得的每对暗光/正常光图像进行校对检查,每次配对采集后,需要校对两点:
①正常光图像中的目标是否清晰可见,要求没有出现影响图像视觉质量的现象,包括模糊、抖动或过曝光;
②该场景下的暗光/正常光图像的ISO和曝光时间比是否符合预期设定。
当检查均无误后,确定完成一对数据的采集,并保存备用。重复上述操作,直至确认所有采集数据无误。
步骤2:模型学习阶段,对暗光图像增强模型进行训练。
如图2所示,利用步骤1获取的真实的暗光/正常光图像数据,结合已有的真实暗光图像数据集,对原本配对的数据进行随机打乱,使图像对内容上不配对。在划分训练集与测试集后,以无监督的方式对暗光图像增强模型,即基于注意力机制的循环对抗生成网络(一种卷积神经网络)进行训练,直至模型训练完成。
进一步地,本发明给出了步骤2的一种具体实现方法。本领域技术人员也可以采用其他方式实现。
包括以下步骤:
步骤2.1:对划分为训练集的暗光/正常光图像数据进行预处理,包括旋转、翻转、随机裁剪,进行数据增广,目的是提高网络训练数据的规模和丰富程度,充分利用有限的真实数据训练资源。
步骤2.2:以无监督的方式,对暗光图像增强模型进行训练。
具体地,循环交替地让两对生成器和判别器:GX→Y和DX→Y、GY→X和DY→X,进行互相博弈和对抗学习。生成器结构如图3所示。对输入的暗光、正常光图像进行处理,循环得到相应生成结果。然后,将其与真实的暗光/正常光照图像进行对比判别,计算暗光增强任务的损失函数及亮度约束的损失函数,并据此更新模型中的参数。优选地,可以采用以下方法:
从步骤2.1预处理过后的训练数据中,首先随机选取一张暗光图像,输入至暗光图像增强模型。
设输入暗光图像为X,设通过网络模型中的生成器GX→Y生成的正常亮图像为此时,生成器GX→Y的作用是利用光照感知注意力机制充分挖掘图像X中的特征信息,学习全局特征关系,再通过编解码结构利用所得特征图,生成逼真的正常亮图像。然后,将图像和一张随机的真实正常光图像N分别输入判别器DX→Y,对图像进行判断,可以通过是否在阈值范围内接近真实正常光图的分布的方式,区分输入是真的正常光图还是假的正常光图。
其中,GX→Y(X)表示用于生成正常光图像的生成器GX→Y对于暗光图像X的处理生成结果。
其中,DX→Y(N)表示根据输入的真实正常光图像N所得的判别结果。
对于生成器GX→Y,其目标是要将暗图转换为正常光图,此处为GX→Y再额外输入n个随机的真实正常光图,使其输出保持为正常光图,表示为:
对于生成器GY→X,额外输入l个随机的真实暗图,表示为:
其中,λ1、λ2分别为调节亮度约束和循环一致性约束强度的超参数,其根据任务情况进行调节。
步骤2.3:重复步骤2.2,直到满足设定的终止条件。当达到预期的平衡点后,将网络的结构与暗光图像增强网络模型参数进行保存。
具体地,在训练过程中,不断重复向暗光图像增强网络模型随机输入暗光图像和正常光图像,并根据损失函数动态调整模型中的参数,直到满足预设条件。如:训练轮次达到一定量或某个评估指标优于某个预设值。
当生成器与判别器互相达到平衡点后,训练过程停止,并将暗光图像增强网络模型参数进行储存。
步骤3:模型使用阶段,利用步骤2训练好的暗光图像增强网络模型,对需要处理的暗光图像进行增强。
具体地,将需要处理的暗光图像逐张输入暗光图像增强网络模型,模型将逐张获得增强结果,得到噪声抑制明显、颜色估计正确、亮度水平合理的高质量增强结果。
作为优选,可以使用GPU完成步骤2网络的训练阶段和步骤3网络的使用阶段,并利用cuDNN库加快卷积神经网络的运行速度。
实验验证
为说明本发明的效果,本实施例将在实验条件相同的情况下对多种方法进行对比。
1.实验条件
本实验的硬件测试条件为:GPU为NVIDIA 3090ti GPUs,显存24G,CUDA11.0。测试所用暗光图片为真实成对暗光/正常光数据集。
2.实验结果
对比不同的暗光图像增强方案,多角度、全方位验证本发明公开的增强方法的有效性。
表1在三种不同数据集上的暗光图像增强算法性能对比
从表1的结果可以看出,本发明方法基于注意力机制,通过无监督的训练方式达到非常好的增强效果,无论是在真实(PNLI、LOL)还是合成(SYN)图像数据集上,对于暗光图像的增强效果均明显优于其他最先进的方法。
值得注意的是,虽然本发方法是一种无监督方法,但优于目前的有监督增强方法,如GLADNet和Retinex-Net。PSNR和SSIM是当前最被广泛使用和认可的图像质量评价指标。因此,结果有力地证明了本发明公开的方法的有效性,显著优于其他方法。
Claims (10)
1.一种基于注意力机制的暗光图像增强方法,其特征在于,包括以下步骤:
步骤1:数据采集阶段,利用图像采集设备采集真实的配对暗光/正常光图像数据;
步骤2:模型学习阶段,对暗光图像增强模型进行训练;
利用步骤1获取的真实的暗光/正常光图像数据,结合已有的真实暗光图像数据集,对原本配对的数据进行随机打乱,使图像对内容上不配对;在划分训练集与测试集后,以无监督的方式对暗光图像增强模型,即基于注意力机制的循环对抗生成网络进行训练,直至模型训练完成;
步骤3:模型使用阶段,利用步骤2训练好的暗光图像增强网络模型,对需要处理的暗光图像进行增强。
2.如权利要求1所述的一种基于注意力机制的暗光图像增强方法,其特征在于,步骤1中,采用以下方法采集配对暗光/正常光图像数据:
步骤1.1:选定预拍摄场景,确保无环境或人为因素干扰,同时保证所采集图像数据的场景和内容的丰富度,令图像采集设备采集到符合标准的正常光图像及其对应的暗光图像,避免局部过曝光;
步骤1.2:设置图像采集设备的参数,确保所采集暗光数据的质量与真实性;
在采集前,将图像采集设备的分辨率设置为最高分辨率,将拍摄模式设置为手动挡,其他拍摄相关设置均使用自动或默认参数;同时,将采集设备与远程控制设备之间进行连接;
步骤1.3:进行配对拍摄,确保获取场景和内容上完全匹配的成对暗光/正常亮度图像。
将设置好的图像采集设备进行固定,通过程控制设备对图像采集设备进行控制操作,同时,图像采集设备在正常光和暗光光图像拍摄之间不会被接触或移动;
在每个含目标对象的场景中,通过调整曝光时间和ISO这两个参数并固定其他参数来获取正常光图像及其对应的暗光图像;在具体采集时,在既定ISO设置下,仅调整图像采集设备的曝光时间参数;每次采集在先获取目标场景的正常光参考图像,然后通过远程控制设备,将图像采集设备的曝光时间缩短10至100倍;
步骤1.4:对采集的图像进行校对检查,确保符合预期设定,能够正常输入网络进行训练与学习,且无敏感信息。
3.如权利要求2所述的一种基于注意力机制的暗光图像增强方法,其特征在于,步骤1中,选用ISO参数包括:800、1600、3200、6400,选用曝光时间倍数包括:10、20、30、40、50、100,来捕获真实的暗光/正常光图像。
4.如权利要求2所述的一种基于注意力机制的暗光图像增强方法,其特征在于,步骤1.4中,对采集所得的每对暗光/正常光图像进行校对检查,每次配对采集后,校对两点:
①正常光图像中的目标是否清晰可见,要求没有出现影响图像视觉质量的现象,包括模糊、抖动或过曝光;
②该场景下的暗光/正常光图像的ISO和曝光时间比是否符合预期设定。
当检查均无误后,确定完成一对数据的采集,并保存备用;重复上述操作,直至确认所有采集数据无误。
5.如权利要求1所述的一种基于注意力机制的暗光图像增强方法,其特征在于,步骤2包括以下步骤:
步骤2.1:对划分为训练集的暗光/正常光图像数据进行预处理,包括旋转、翻转、随机裁剪,进行数据增广;
步骤2.2:以无监督的方式,对暗光图像增强模型进行训练;
循环交替地让两对生成器和判别器:GX→Y和DX→Y、GY→X和DY→X,进行互相博弈和对抗学习;对输入的暗光、正常光图像进行处理,循环得到相应生成结果;然后,将其与真实的暗光/正常光照图像进行对比判别,计算暗光增强任务的损失函数及亮度约束的损失函数,并据此更新模型中的参数;
步骤2.3:重复步骤2.2,直到满足设定的终止条件;当达到预期的平衡点后,将网络的结构与暗光图像增强网络模型参数进行保存。
6.如权利要求5所述的一种基于注意力机制的暗光图像增强方法,其特征在于,步骤2.2实现方法为:
从步骤2.1预处理过后的训练数据中,首先随机选取一张暗光图像,输入至暗光图像增强模型;
设输入暗光图像为X,设通过网络模型中的生成器GX→Y生成的正常亮度图像为此时,生成器GX→Y的作用是利用光照感知注意力机制充分挖掘图像X中的特征信息,学习全局特征关系,再通过编解码结构利用所得特征图,生成逼真的正常亮度图像;然后,将图像和一张随机的真实正常光图像N分别输入判别器DX→Y,对图像进行判断,区分输入是真的正常光图还是假的正常光图;
其中,GX→Y(X)表示用于生成正常光图像的生成器GX→Y对于暗光图像X的处理生成结果;
其中,DX→Y(N)表示根据输入的真实正常光图像N所得的判别结果;
对于生成器GX→Y,其目标是要将暗图转换为正常光图,此处为GX→Y再额外输入n个随机的真实正常光图,使其输出保持为正常光图,表示为:
对于生成器GY→X,额外输入l个随机的真实暗图,表示为:
其中,λ1、λ2分别为调节亮度约束和循环一致性约束强度的超参数,其根据任务情况进行调节。
10.如权利要求5所述的一种基于注意力机制的暗光图像增强方法,其特征在于,步骤2.3中,在训练过程中不断重复向暗光图像增强网络模型随机输入暗光图像和正常光图像,并根据损失函数动态调整模型中的参数,直到满足预设条件;当生成器与判别器互相达到平衡点后,训练过程停止,并将暗光图像增强网络模型参数进行储存。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111475305.4A CN114399431A (zh) | 2021-12-06 | 2021-12-06 | 一种基于注意力机制的暗光图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111475305.4A CN114399431A (zh) | 2021-12-06 | 2021-12-06 | 一种基于注意力机制的暗光图像增强方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114399431A true CN114399431A (zh) | 2022-04-26 |
Family
ID=81225955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111475305.4A Pending CN114399431A (zh) | 2021-12-06 | 2021-12-06 | 一种基于注意力机制的暗光图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114399431A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114900619A (zh) * | 2022-05-06 | 2022-08-12 | 北京航空航天大学 | 一种自适应曝光驱动相机摄影水下图像处理系统 |
CN115375598A (zh) * | 2022-08-22 | 2022-11-22 | 天津大学 | 一种无监督暗光图像增强方法及装置 |
CN115661001A (zh) * | 2022-12-14 | 2023-01-31 | 临沂大学 | 基于生成对抗网络的单通道煤岩图像增强方法 |
CN116055895A (zh) * | 2023-03-29 | 2023-05-02 | 荣耀终端有限公司 | 图像处理方法及其相关设备 |
CN116091968A (zh) * | 2022-12-28 | 2023-05-09 | 无锡天宸嘉航科技有限公司 | 一种面向自动驾驶控制器训练的数据集构建方法及系统 |
CN117793538A (zh) * | 2024-02-23 | 2024-03-29 | 北京理工大学 | 一种图像自动曝光矫正与增强方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020168731A1 (zh) * | 2019-02-19 | 2020-08-27 | 华南理工大学 | 一种基于生成对抗机制与注意力机制的标准人脸生成方法 |
CN112767286A (zh) * | 2021-03-08 | 2021-05-07 | 中南大学 | 一种基于密集深度学习的暗光图像自适应增强方法 |
CN113159019A (zh) * | 2021-03-08 | 2021-07-23 | 北京理工大学 | 一种基于光流变换的暗光视频增强方法 |
CN113628152A (zh) * | 2021-09-15 | 2021-11-09 | 南京天巡遥感技术研究院有限公司 | 一种基于多尺度特征选择性融合的暗光图像增强方法 |
-
2021
- 2021-12-06 CN CN202111475305.4A patent/CN114399431A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020168731A1 (zh) * | 2019-02-19 | 2020-08-27 | 华南理工大学 | 一种基于生成对抗机制与注意力机制的标准人脸生成方法 |
CN112767286A (zh) * | 2021-03-08 | 2021-05-07 | 中南大学 | 一种基于密集深度学习的暗光图像自适应增强方法 |
CN113159019A (zh) * | 2021-03-08 | 2021-07-23 | 北京理工大学 | 一种基于光流变换的暗光视频增强方法 |
CN113628152A (zh) * | 2021-09-15 | 2021-11-09 | 南京天巡遥感技术研究院有限公司 | 一种基于多尺度特征选择性融合的暗光图像增强方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114900619A (zh) * | 2022-05-06 | 2022-08-12 | 北京航空航天大学 | 一种自适应曝光驱动相机摄影水下图像处理系统 |
CN115375598A (zh) * | 2022-08-22 | 2022-11-22 | 天津大学 | 一种无监督暗光图像增强方法及装置 |
CN115375598B (zh) * | 2022-08-22 | 2024-04-05 | 天津大学 | 一种无监督暗光图像增强方法及装置 |
CN115661001A (zh) * | 2022-12-14 | 2023-01-31 | 临沂大学 | 基于生成对抗网络的单通道煤岩图像增强方法 |
CN116091968A (zh) * | 2022-12-28 | 2023-05-09 | 无锡天宸嘉航科技有限公司 | 一种面向自动驾驶控制器训练的数据集构建方法及系统 |
CN116055895A (zh) * | 2023-03-29 | 2023-05-02 | 荣耀终端有限公司 | 图像处理方法及其相关设备 |
CN116055895B (zh) * | 2023-03-29 | 2023-08-22 | 荣耀终端有限公司 | 图像处理方法及其装置、芯片系统和存储介质 |
CN117793538A (zh) * | 2024-02-23 | 2024-03-29 | 北京理工大学 | 一种图像自动曝光矫正与增强方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114399431A (zh) | 一种基于注意力机制的暗光图像增强方法 | |
CN107220931B (zh) | 一种基于灰度级映射的高动态范围图像重建方法 | |
CN110378845B (zh) | 一种基于卷积神经网络的极端条件下的图像修复方法 | |
CN110675328B (zh) | 基于条件生成对抗网络的低照度图像增强方法及装置 | |
CN111915526A (zh) | 一种基于亮度注意力机制低照度图像增强算法的摄影方法 | |
CN108900769A (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
CN111292264A (zh) | 一种基于深度学习的图像高动态范围重建方法 | |
CN108734676A (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN111064904A (zh) | 一种暗光图像增强方法 | |
CN103314572A (zh) | 用于图像处理的方法和设备 | |
CN109934154A (zh) | 一种遥感影像变化检测方法及检测装置 | |
CN113159019A (zh) | 一种基于光流变换的暗光视频增强方法 | |
CN114266933A (zh) | 一种基于深度学习改进的gan图像去雾算法 | |
CN114862698A (zh) | 一种基于通道引导的真实过曝光图像校正方法与装置 | |
Cheng et al. | A highway traffic image enhancement algorithm based on improved GAN in complex weather conditions | |
CN116563693A (zh) | 基于轻量级注意力机制的水下图像色彩复原方法 | |
CN109325905B (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN109191398B (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN116452469B (zh) | 一种基于深度学习的图像去雾处理方法及装置 | |
CN113222846A (zh) | 图像处理方法和图像处理装置 | |
CN117011181A (zh) | 一种分类引导的无人机成像浓雾去除方法 | |
CN111242911A (zh) | 一种基于深度学习算法确定图像清晰度的方法及系统 | |
CN114638764B (zh) | 基于人工智能的多曝光图像融合方法及系统 | |
CN113627342B (zh) | 视频深度特征提取优化的方法、系统、设备及存储介质 | |
CN108629329A (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |