CN115393227B - 基于深度学习的微光全彩视频图像自适应增强方法及系统 - Google Patents
基于深度学习的微光全彩视频图像自适应增强方法及系统 Download PDFInfo
- Publication number
- CN115393227B CN115393227B CN202211164856.3A CN202211164856A CN115393227B CN 115393227 B CN115393227 B CN 115393227B CN 202211164856 A CN202211164856 A CN 202211164856A CN 115393227 B CN115393227 B CN 115393227B
- Authority
- CN
- China
- Prior art keywords
- image
- module
- denoising
- noise
- low
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000013135 deep learning Methods 0.000 title claims abstract description 15
- 230000004927 fusion Effects 0.000 claims abstract description 33
- 238000013507 mapping Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 21
- 238000007781 pre-processing Methods 0.000 claims description 9
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 230000015556 catabolic process Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000006731 degradation reaction Methods 0.000 claims description 3
- 230000002349 favourable effect Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 238000003672 processing method Methods 0.000 claims description 2
- 238000004088 simulation Methods 0.000 claims description 2
- 230000001629 suppression Effects 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims 2
- 230000008521 reorganization Effects 0.000 claims 2
- 238000005286 illumination Methods 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于深度学习的微光全彩视频图像自适应增强方法及系统。其方法步骤为:S1采集RAW格式视频图像序列;S2像素融合,将RAW数据转化为RGB数据;S3获取黑电平图像,去除黑电平;S4自适应线性调整亮度;S5使用包含门控循环单元的去噪网络去除图像序列的噪声;S6将去噪后的图像非线性映射为多曝光图像组;S7将多曝光图像组序列输入融合网络,得到输出图像序列。本发明使用门控循环单元充分利用视频帧间的冗余信息去噪,能够有效去除最低10‑3Lux照度环境下采集的图像中的噪声,提高图像信噪比,使用自监督的图像融合模块融合多曝光图像组,有效增强图像暗部细节并抑制过曝区域,使输出视频序列亮度稳定。
Description
技术领域
本发明涉及一种基于深度学习的微光全彩视频图像自适应增强方法及系统,属于计算机视觉领域。
背景技术
暗光增强是计算机视觉的底层任务,在光照不足的夜间或室内、地下等场景中,通过普通相机采集得到的彩色图像通常亮度低,曝光不均匀,且存在大量噪声和色彩失真。传统方法在处理暗光图像时,一般使用直方图均衡化或Retinex理论,其中直方图均衡化求图像归一化后的直方图,然后调整图像像素幅值使图像直方图在0-1均匀分布;基于Retinex理论的方法将图像看作反射图和照度图的点乘,其中反射图不随光照变化,常常作为增强后的输出图像。
目前的深度学习暗光增强技术使用配对或非配对的低光图像和正常光照下的图像训练网络,实现从低光到正常光照的映射,已取得较好的低光增强效果,但在极弱光环境(10-2Lux~10-3Lux)下,图像噪声分布复杂,色彩退化严重,现有算法无法有效去除噪声,重建色彩。在真实应用场景中,环境光照变化剧烈时,现有算法也只能提升图像的暗部,缺失对过曝光区域的处理。
发明内容
为了解决现有技术中存在的上述技术问题,提升在10-3Lux及以下照度环境下的全彩夜视增强效果,本发明提出了基于深度学习的微光全彩视频图像自适应增强方法及系统。
本发明采用的技术方案如下:
基于深度学习的微光全彩视频图像自适应增强方法,其特征在于,包括如下步骤:
S1:采集RAW格式的微光视频图像序列,将图像信息记为XRAW;
S2:对所述图像信息XRAW进行像素融合,然后转化为RGB格式图像;
S3:使用步骤S1相同的采集参数,并利用步骤S2的处理方法,获得N张RGB格式的暗场图像,将N张暗场图像的均值作为黑电平信息,并去除RGB格式图像中的黑电平,记为XRGB;
S5:将步骤4得到的XIN1输入去噪网络,获得输出XOUT1;
S6:对所述输出XOUT1进行非线性映射,获取多曝光图像组;
S7:将所述多曝光图像组输入融合网络,得到融合后图像。
本发明具有以下有益效果:
(1)本发明针对极低照度环境下全彩微光图像成像特点,使用像素融合、减黑电平等预处理方法预先去除部分噪声和色彩偏差,可提升暗光成像质量。
(2)将暗光增强拆分为去噪和多曝光融合两个步骤,分别使用两个卷积神经网络实现对应功能,使用自适应多曝光融合网络处理去噪后的图像,有效提高了对极低光照图像噪声的去除效果和亮度控制效果。
(3)在去噪网络中使用门控循环单元,利用图像时序信息去噪,有效提高图像信噪比,能够有效去除10-3Lux左右环境下采集的图像中的噪声。使用像素重组方法PixelShuffle完成上采样,避免由反卷积引入的图像模糊和棋盘格噪声。
(4)使用自监督学习方法训练多曝光融合网络,使用特征池和通道注意力有效融合不同特征,使用伽马变换获取单张图的多曝光结果,自监督学习和多曝光融合提高了本方法的自适应亮度控制能力。
(5)使用自监督的图像融合网络融合多曝光图像组,有效增强图像暗部细节并抑制过曝区域,使输出视频序列整体亮度均一稳定。
附图说明
图1是本发明微光全彩视频图像自适应增强方法的流程示意图;
图2是本发明去噪网络的结构示意图;
图3是本发明多曝光融合网络的结构示意图;
图4是本发明使用的门控循环单元结构示意图。
具体实施方式
以下结合附图对本发明方案进行详细说明。
如图1所示,一种基于深度学习的微光全彩视频图像自适应增强方法,包括如下步骤:
S1:采集RAW格式视频图像序列,记图像信息为XRAW;
S2:对XRAW进行像素融合,然后转化为RGB格式图像,记为XRGB;
S3:使用步骤S1中相同的采集参数,利用微光相机采集N张暗场图像,然后利用步骤S2中的方法,将暗场图像转化为RGB格式,将N张RGB格式暗场图像的均值作为相机的黑电平信息,并去除RGB图像中的黑电平,得到
S5:将XIN1输入去噪网络,得到去除噪声之后的图像XOUT1;
其中,去噪网络的具体结构见图3,包括依次连接的下采样单元、上采样单元、通道残差单元和门控循环单元(GRU)。具体地,下采样单元通过三次下采样,将尺寸为H×W×3的图像编码为尺寸为的特征图(其中H和W代表输入图像的高和宽);上采样单元使用像素重组算法PixelShuffle将尺寸为/>的特征图数据重排为H×W×3的输出图像,以避免反卷积导致的图像模糊和棋盘格噪声;通道残差单元首先将特征层拆分为相同通道数的两个子特征层SF1和SF2,对SF2执行多层卷积操作F(SF2),在通道维度上拼接SF1和F(SF2),得到通道残差连接块的输出;门控循环单元传递上一帧图像的特征信息到当前帧,并通过更新门和遗忘门筛选出对当前帧去噪有利的特征信息,GRU单元的表达式为:
其中,r和z是重置门和更新门,Wr、Wz、和Wh是卷积操作中的权重,xt是门控循环单元的输入特征,ht-1是上一帧门控循环单元的输出特征,是经过重置门处理后的上一帧特征,/>融合xt与/>生成当前帧的特征,ht是当前帧门控循环单元的输出,sigmoid和tanh是两种常用卷积操作的激活函数,运算符*和⊙表示卷积操作和逐像素的乘法操作,/>表示在通道维度上拼接A和B两个特征向量。通过在去噪网络中加入GRU单元,可以利用长时序信息辅助去噪,实现微光图像噪声的有效去除。以1920×1080分辨率为例,本发明提出的去噪网络的一种可能的网络参数如表1,本例中GRU单元的结构示意图见图4。
表1去噪网络的参数
特别的,去噪网络的训练方式采用有监督学习,训练数据为模拟微光视频序列真实噪声分布的仿真数据集。首先分析采集的RAW格式图像经过预处理之后,得到的RGB图的噪声分布特征,将RGB图像的噪声建模为高斯噪声、泊松噪声、动态条纹噪声和色彩退化噪声的组合,并从图像序列构建噪声数据集,损失函数的设计如下:
LDM=Lpixel+Lssim+α1Ltv+α2Llpips
其中N表示像素个数,xi表示输入图像在i点的像素值,yi表示标签图像在i点的像素值,DM(xi)表示输入图像经去噪网络去噪后的图像像素值,该损失函数表征输出图像与真实图像之间逐像素的绝对值误差;/>μx和μy表示输入图像均值和输出图像均值,σxy表示输入图像和输出图像之间的协方差,/>和/>表示输入图像和输出图像的方差,C1和C2是常数,该损失函数表征输出图像与真实图像的结构相似性误差;/> 和/>表示输出图像在x和y两个方向上的梯度,该损失函数表征噪声误差;/>表示输出图像和真实图像经过卷积神经网络提取特征后,特征向量之间的一致性误差,该损失函数表征两幅图像之间高维特征的一致性;α1和α2是可调参数。训练时首先去除GRU单元,训练并固定其他层的权重参数后,再训练GRU单元权重,统计一组图像序列的平均损失作为误差进行反向传播。
S6:对XOUT1执行非线性映射,对去噪后的图像执行伽马变换和伽马反变换,即将经过线性亮度调整得到的均值为0.5的图像XOUT1,映射为暗部增强和亮部抑制的两张图像和/>与XIN3=XOUT1组成多曝光图像组{XIN2,XIN3,XIN4};
S7:将{XIN2,XIN3,XIN4}输入多曝光融合网络,获得融合后图像XOUT2。
融合网络FM的具体结构见图3,包括UNet模块、残差连接模块、特征池和通道注意力SENet模块,通过UNet获取不同尺度的图像特征,通过残差连接模块提取上下文特征,将不同尺度和不同深度的特征层组合为相同尺度的特征池,通过SENet模块实现特征池中不同特征的加权融合。以1920×1080分辨率图像为例,本发明提出的融合网络的一种可能的网络参数如下:
表2融合网络的网络参数
特别的,融合网络的训练方式为自监督学习,损失函数的设计如下:
LFM=Llight+β1Lgrad+β2Lcolor
其中,xi为输入图像,FM(xi)为经过融合网络之后的输出图像,Y[]用于计算图像像素块的亮度值,该损失函数表征输出图像的亮度值与0.5的距离,约束输出图像的平均亮度趋于0.5;/> 其中/>计算图像块在x和y两个方向上的梯度绝对值的均值之和,该损失函数约束输出图像梯度与输入图像梯度的均值相似,以确保保留多曝光图像中正常曝光的区域; 其中μi和/>表示像素点RGB三通道的均值,该损失函数约束输出图像与输入图像色彩一致;β1和β2是可调参数。本实施例首先将图像分割为16×16的M个像素块,然后针对这些像素块计算上述损失函数。
本实施例还提供一种基于深度学习的微光全彩视频图像自适应增强系统,包括:微光图像采集模块,用于采集RAW格式的微光视频图像序列;预处理模块,用于预处理微光图像采集模块采集到的RAW格式的图像;自适应亮度调整模块,用于自适应线性调整由预处理模块得到的RGB图像的亮度;去噪模块,用于通过去噪网络去除由自适应亮度调整模块得到的图像的噪声;非线性映射模块,用于对由去噪模块去噪之后的RGB图像进行非线性映射,获取多曝光图像组;融合模块,用于将所述多曝光图像组进行融合。
综上所述,本实施例提供的方法和系统,将全彩微光视频增强任务分解为去噪和多曝光融合,通过分别设计去噪网络和融合网络、建立极弱光场景下微光图像的噪声模型、采集RAW格式的数据进行预处理、使用门控循环单元GRU利用帧间冗余信息去除噪声等步骤,增加了微光图像的信噪比,优化了输出图像的亮度分布,能够在极低照度情况下清晰呈现全彩图像。
以上所述,仅为本发明的具体实施方式,并非对本发明做任何形式上的限制。应当指出,所用的微光图像采集设备不对本发明构成限制,图像分辨率不对本发明构成限制,图像内容不对本发明构成限制。本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本公开的保护范围之内。
Claims (7)
1.基于深度学习的微光全彩视频图像自适应增强方法,其特征在于,包括如下步骤:
S1:采集RAW格式的微光视频图像序列,将图像信息记为XRAW;
S2:对所述图像信息XRAW进行像素融合,然后转化为RGB格式图像;
S3:使用步骤S1相同的采集参数,并利用步骤S2的处理方法,获得N张RGB格式的暗场图像,将N张暗场图像的均值作为黑电平信息,并去除RGB格式图像中的黑电平,记为XRGB;
S5:将步骤S4得到的XIN1输入去噪网络,获得输出XOUT1;去噪网络包括依次连接的下采样单元、上采样单元、通道残差单元和门控循环单元,其中,上采样单元使用像素重组方法,以避免反卷积导致的图像模糊和棋盘格噪声;所述门控循环单元传递上一帧图像的特征信息到当前帧,并通过更新门和遗忘门筛选出对当前帧去噪有利的特征信息;
S6:对所述输出XOUT1进行非线性映射,获取多曝光图像组;
S7:将所述多曝光图像组输入融合网络,得到融合后图像;融合网络包括UNet模块、残差连接模块、特征池和通道注意力SENet模块,通过所述UNet模块获取不同尺度的图像特征,通过所述残差连接模块提取上下文特征,将不同尺度和不同深度的特征层组合为相同尺度的特征池,通过所述通道注意力SENet模块实现特征池中不同特征的加权融合。
2.根据权利要求1所述的基于深度学习的微光全彩视频图像自适应增强方法,其特征在于,所述通道残差单元将输入特征图拆分为相同通道的两个子特征图,对其中一个子特征图进行多重卷积操作后,与另一个子特征图在通道维度拼接,得到通道残差单元的输出。
3.根据权利要求1所述的基于深度学习的微光全彩视频图像自适应增强方法,其特征在于,所述步骤S5中,去噪网络使用监督学习方法进行训练,训练数据为模拟微光视频序列真实噪声分布的仿真数据集,噪声建模为高斯噪声、泊松噪声、动态条纹噪声和色彩退化噪声的混合结果;训练时首先去除门控循环单元,训练并固定其他层的权重参数后,再训练门控循环单元权重,统计一组图像序列的平均损失作为误差进行反向传播。
4.根据权利要求3所述的基于深度学习的微光全彩视频图像自适应增强方法,其特征在于,所述去噪网络的损失函数为:
LDM=Lpixel+Lssim+αiLtv+α2Llpips
其中N表示像素个数,xi表示输入图像在i点的像素值,yi表示标签图像在i点的像素值,DM(xi)表示输入图像经去噪网络去噪后的图像像素值,该损失函数表征输出图像与真实图像之间逐像素的绝对值误差;/>μx和μy表示输入图像均值和输出图像均值,σxy表示输入图像和输出图像之间的协方差,/>和表示输入图像和输出图像的方差,C1和C2是常数,该损失函数表征输出图像与真实图像的结构相似性误差;/> 和/>表示输出图像在x和y两个方向上的梯度,该损失函数表征噪声误差;/>表示输出图像和真实图像经过卷积神经网络提取特征后,特征向量之间的一致性误差,该损失函数表征两幅图像之间高维特征的一致性;α1和α2是可调参数。
6.根据权利要求1所述的基于深度学习的微光全彩视频图像自适应增强方法,其特征在于,所述融合网络采取自监督学习方法,损失函数为:
LFM=Llight+β1Lgrad+β2Lcolor
7.基于深度学习的微光全彩视频图像自适应增强系统,其特征在于,该系统包括:
微光图像采集模块,用于采集RAW格式的微光视频图像序列;
预处理模块,用于预处理微光图像采集模块采集到的RAW格式的图像;
自适应亮度调整模块,用于自适应线性调整由预处理模块得到的RGB图像的亮度;
去噪模块,用于通过去噪网络去除由自适应亮度调整模块得到的图像的噪声;去噪网络包括依次连接的下采样单元、上采样单元、通道残差单元和门控循环单元,其中,上采样单元使用像素重组方法,以避免反卷积导致的图像模糊和棋盘格噪声;所述门控循环单元传递上一帧图像的特征信息到当前帧,并通过更新门和遗忘门筛选出对当前帧去噪有利的特征信息;
非线性映射模块,用于对由去噪模块去噪之后的RGB图像进行非线性映射,获取多曝光图像组;
融合模块,用于将所述多曝光图像组输入融合网络进行融合;融合网络包括UNet模块、残差连接模块、特征池和通道注意力SENet模块,通过所述UNet模块获取不同尺度的图像特征,通过所述残差连接模块提取上下文特征,将不同尺度和不同深度的特征层组合为相同尺度的特征池,通过所述通道注意力SENet模块实现特征池中不同特征的加权融合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211164856.3A CN115393227B (zh) | 2022-09-23 | 2022-09-23 | 基于深度学习的微光全彩视频图像自适应增强方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211164856.3A CN115393227B (zh) | 2022-09-23 | 2022-09-23 | 基于深度学习的微光全彩视频图像自适应增强方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115393227A CN115393227A (zh) | 2022-11-25 |
CN115393227B true CN115393227B (zh) | 2023-06-06 |
Family
ID=84129056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211164856.3A Active CN115393227B (zh) | 2022-09-23 | 2022-09-23 | 基于深度学习的微光全彩视频图像自适应增强方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115393227B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116152120B (zh) * | 2023-04-20 | 2023-07-21 | 南京大学 | 一种融合高低频特征信息的低光图像增强方法及装置 |
CN116681618B (zh) * | 2023-06-13 | 2024-08-02 | 强联智创(北京)科技有限公司 | 图像去噪方法、电子设备及存储介质 |
CN116721035A (zh) * | 2023-06-28 | 2023-09-08 | 河南大学 | 一种胆道镜图像暗部增强方法及系统 |
CN116634284B (zh) * | 2023-07-20 | 2023-10-13 | 清华大学 | Raw域视频去噪方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533608A (zh) * | 2019-08-08 | 2019-12-03 | 西安电子科技大学 | 图像条带噪声抑制方法及其装置、电子设备、存储介质 |
CN114972061A (zh) * | 2022-04-04 | 2022-08-30 | 北京理工大学 | 一种暗光视频去噪增强方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110208829A (zh) * | 2019-03-21 | 2019-09-06 | 西安电子科技大学 | 一种导航通信抗干扰方法 |
CN110189260B (zh) * | 2019-04-15 | 2021-01-26 | 浙江大学 | 一种基于多尺度并行门控神经网络的图像降噪方法 |
CN114096987A (zh) * | 2019-07-03 | 2022-02-25 | 韩国科学技术院 | 视频处理方法及装置 |
CN111932471B (zh) * | 2020-07-24 | 2022-07-19 | 山西大学 | 用于低照度图像增强的双路曝光度融合网络模型及方法 |
CN112801906B (zh) * | 2021-02-03 | 2023-02-21 | 福州大学 | 基于循环神经网络的循环迭代图像去噪方法 |
CN114648508A (zh) * | 2022-03-25 | 2022-06-21 | 大连大学 | 一种基于多维协同细化网络的多曝光图像融合方法 |
-
2022
- 2022-09-23 CN CN202211164856.3A patent/CN115393227B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533608A (zh) * | 2019-08-08 | 2019-12-03 | 西安电子科技大学 | 图像条带噪声抑制方法及其装置、电子设备、存储介质 |
CN114972061A (zh) * | 2022-04-04 | 2022-08-30 | 北京理工大学 | 一种暗光视频去噪增强方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115393227A (zh) | 2022-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115393227B (zh) | 基于深度学习的微光全彩视频图像自适应增强方法及系统 | |
Fan et al. | Integrating semantic segmentation and retinex model for low-light image enhancement | |
CN111292264A (zh) | 一种基于深度学习的图像高动态范围重建方法 | |
Wang et al. | Joint iterative color correction and dehazing for underwater image enhancement | |
CN111986084A (zh) | 一种基于多任务融合的多相机低光照图像质量增强方法 | |
CN113284061B (zh) | 一种基于梯度网络的水下图像增强方法 | |
Zamir et al. | Learning digital camera pipeline for extreme low-light imaging | |
CN114998141B (zh) | 基于多分支网络的空间环境高动态范围成像方法 | |
CN111105376B (zh) | 基于双分支神经网络的单曝光高动态范围图像生成方法 | |
CN109389569B (zh) | 基于改进DehazeNet的监控视频实时去雾方法 | |
CN107392879B (zh) | 一种基于参考帧的低照度监控图像增强方法 | |
CN113096029A (zh) | 基于多分支编解码器神经网络的高动态范围图像生成方法 | |
CN116152120A (zh) | 一种融合高低频特征信息的低光图像增强方法及装置 | |
Yuan et al. | Single image dehazing via NIN-DehazeNet | |
JP2024120168A (ja) | 深層Retinexに基づいた低光画像強調方法 | |
Wang et al. | Multiscale supervision-guided context aggregation network for single image dehazing | |
CN116152128A (zh) | 基于注意力机制的高动态范围多曝光图像融合模型及方法 | |
Yang et al. | A model-driven deep dehazing approach by learning deep priors | |
CN117611467A (zh) | 一种能同时平衡不同区域细节和亮度的低光图像增强方法 | |
CN117391987A (zh) | 基于多阶段联合增强机制的暗光图像处理方法 | |
CN117237207A (zh) | 针对动态场景的无鬼影高动态范围光场成像方法 | |
CN116563133A (zh) | 基于模拟曝光和多尺度融合的低照度彩色图像增强方法 | |
CN115147311B (zh) | 基于HSV与AM-RetinexNet图像增强方法 | |
Nan et al. | An image enhancement method in coal mine underground based on deep retinex network and fusion strategy | |
CN116389912A (zh) | 脉冲相机融合普通相机重构高帧率高动态范围视频的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |