CN112215767B - 一种抗块效应的图像视频增强方法 - Google Patents

一种抗块效应的图像视频增强方法 Download PDF

Info

Publication number
CN112215767B
CN112215767B CN202011036966.2A CN202011036966A CN112215767B CN 112215767 B CN112215767 B CN 112215767B CN 202011036966 A CN202011036966 A CN 202011036966A CN 112215767 B CN112215767 B CN 112215767B
Authority
CN
China
Prior art keywords
image
enhancement
channel
convolution
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011036966.2A
Other languages
English (en)
Other versions
CN112215767A (zh
Inventor
王正宁
曾仪
曾浩
刘怡君
彭大伟
奚伟航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202011036966.2A priority Critical patent/CN112215767B/zh
Publication of CN112215767A publication Critical patent/CN112215767A/zh
Application granted granted Critical
Publication of CN112215767B publication Critical patent/CN112215767B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

本发明公开了一种抗块效应的图像视频增强方法,属于计算机视觉和图像增强领域。该方法首先将压缩图像或视频帧进行颜色空间转换,通过神经网络结合图像或视频编码模型学习编码块的块效应可能出现的位置和强度,对增强的强度做出自适应调整,在满足图像和视频被有效增强的同时,抑制或消除可能被增强算法放大的块效应,提升增强图像的视觉观感和后续处理质量。

Description

一种抗块效应的图像视频增强方法
技术领域
本发明属于计算机视觉和图像增强领域,涉及一种针对编码压缩图像或视频帧增强过程中块效应抑制的方法。
背景技术
图像与视频是人们感知场景和目标的主要信息渠道,也是智能监控、自动化生产线及计算机视觉应用中必不可少的信息来源。因此,图像视频的观测质量对于信息的获取与处理就显得格外重要。实际应用中,由于各种客观条件的限制和影响,获得的图像视频并不能很好地满足视觉观察和处理,需要进行必要的增强预处理以获得更好的使用效果。其中,低照度图像视频的处理又是该类应用中最为突出的问题。低照度图像或视频经过编码压缩后,直接通过增强算法处理,往往会放大因压缩造成的图像块效应,在画面亮度和色彩上带来很大的失真,严重破坏图像的视觉效果,同时给后续基于计算机视觉的应用处理带来很大困难。
在现有基于块的混合图像视频编码标准中,随着压缩率的提高,解码重建的图像视频会出现大量的块效应。其产生的原因有两个,其中最重要的原因是基于块的帧内和帧间预测残差的空域到频域变换,变换系数后续量化产生误差,反量化无法修正误差,会造成在图像和视频的块边界处产生视觉不连续的块效应现象。其次,在帧间编码时由于运动补偿图像来自各参考帧中不同参考图像块,无法保证各运动补偿块之间的块边界是平滑的,造成解码图像中出现各种程度的块效应。
图像增强的方法通过一定手段对原图像附加一些信息或变换数据,有选择地突出图像中感兴趣的特征或者抑制图像中某些不需要的特征,使图像与视觉响应特性相匹配。压缩图像或视频帧在增强过程中,受到调整细节、纹理增强、对比度增强的系列操作处理,会对图像和视频中的原本视觉特征不明显的块效应起到显著的放大作用,导致输出的结果图像中把原始画面中并不显著块效应变得十分突出(如附图1),严重影响图像视频的视觉观感和后续计算机视觉算法处理的效果。
在对压缩图像或视频帧进行增强的过程中,通过神经网络结合图像编码模型学习压缩图像的块边界信息,并在图像增强处理的过程中针对边界进行控制和调整,可以对有效地抑制或消除增强后图像产生的块效应。
在低照度图像增强处理的研究中,申请号为201910056279.8的中国发明专利,公开了一种基于噪声抑制的低照度图像自适应亮度增强方法,在HSV色彩空间对低照度图像亮度分量依次进行预处理,再使用自适应gamma校正的方法进行增强,但是上述方法是针对高质量图片的增强算法,未考虑在诸如JPEG之类的有损压缩技术中丢失信息会导致解压缩后的图像中出现块效应,对于有损图片或视频,使用上述增强方法会导致块效应严重放大。在去块效应研究中,比较典型的例子有"An efficient deep convolutional neuralnetworks model for compressed image deblocking",(K.Li,B.Bare and B.Yan,2017IEEE International Conference on Multimedia and Expo(ICME),Hong Kong,2017,pp.1320-1325,doi:10.1109/ICME.2017.8019416.),该方法提出了一种用于图像解码的有效的深度CNN(卷积神经网络)模型,通过局部补丁来缓解图片因压缩产生的质量损失。此方法能有效减少压缩图像中低比特率下基于块的变换编码所引起的块状伪影,但是不能有效去除经过增强处理后被放大的块状伪影。
发明内容
为解决现有技术对有损压缩图片或视频帧增强存在的块效应放大问题,本发明提供了一种抗块效应的图像视频增强方法。该方法首先将压缩图像或视频帧进行颜色空间转换,通过神经网络结合图像或视频编码模型学习编码块的块效应可能出现的位置和强度,对增强的强度做出自适应调整,在满足图像和视频被有效增强的同时,抑制或消除可能被增强算法放大的块效应,提升增强图像的视觉观感和后续处理质量。
本发明采用的技术方案如下:
一种抗块效应的图像视频增强方法,包括以下步骤:
S1、为与图像压缩过程相适应,将低照度压缩图像IRGB由RGB色彩空间转换到YUV色彩空间得到低照度压缩图像IYUV。其中,低照度压缩图像IYUV包括三个通道分量,其中亮度Y分量表示为IY、色度U分量表示为IU、色度V分量表示为IV
S2、使用U-net神经网络对亮度分量IY进行环境入射照度的估计,环境入射照度的估计趋向于平滑;所述U-net神经网络的损失函数表达式为:
Figure GDA0002775863990000031
其中,lY为环境入射照度估计值,p为像素点集合,α为式(1)第二项的非负权重系数,β为式(1)第三项的非负权重系数。式(1)中的第一项使lY趋向于平滑,第二项用来使lY和亮度分量IY的结构相似,第三项使lY保留IY中的重要边缘和细节。
进一步地,为了加速收敛,U-net神经网络使用残差连接方式。
S3、对Y通道分量进行初步增强:
对lY逐点取倒数,并与IY点相乘得到Y通道初步增强图
Figure GDA0002775863990000032
Figure GDA0002775863990000033
其中,⊙表示矩阵点乘。
S4、采用块边界检测神经网络定位Y通道初步增强图
Figure GDA0002775863990000034
的块效应边界:所述块边界检测神经网络的卷积核大小由块大小决定,采用膨胀卷积的方式扩大卷积核感受野。
对于块大小为M×M(M一般取值为4的整数倍,如4,8,16等)的压缩图片或视频帧,使用卷积核大小为k×k,膨胀率分别为
Figure GDA0002775863990000035
Figure GDA0002775863990000036
的两组膨胀卷积核组对Y通道初步增强图
Figure GDA0002775863990000037
进行卷积运算(如对于大小为8×8的块,使用尺寸为3×3,膨胀率分别为3和4的两组卷积核),每组卷积核数量为n,这两组卷积操作命名为
Figure GDA0002775863990000038
Figure GDA0002775863990000039
输出
Figure GDA00027758639900000310
Figure GDA00027758639900000311
的残差:
Figure GDA00027758639900000312
式中,ω1为第一组膨胀卷积核学习参数,ω2为第二组膨胀卷积核学习参数,残差结果D反映块效应边界信息。
进一步地,为了充分提取块边界特征并控制计算量,n的取值范围为15-20。
S5、Concate(融合)块效应边界信息D和Y通道初步增强图
Figure GDA0002775863990000041
得到一个张量
Figure GDA0002775863990000042
接着采用卷积网络通过对
Figure GDA0002775863990000043
的学习,得到残差项
Figure GDA0002775863990000044
由残差项
Figure GDA0002775863990000045
加上初步增强图
Figure GDA0002775863990000046
去除或弱化块效应,输出最终无显著块效应的Y通道增强图
Figure GDA0002775863990000047
Figure GDA0002775863990000048
式中,+表示逐像素点相加,f表示卷积网络,
Figure GDA0002775863990000049
表示Concate操作,θ为网络学习参数。
IY_GT表示正常光照下图片或视频帧的Y通道分量为Ground Truth(真值),采用均方误差作为代价损失函数:
Figure GDA00027758639900000410
S6、将Y通道增强图
Figure GDA00027758639900000411
与色度通道分量IU和IV Concate得到YUV格式增强图
Figure GDA00027758639900000412
S7、将
Figure GDA00027758639900000413
转换颜色空间,得到RGB格式的增强图片
Figure GDA00027758639900000414
然后采用颜色平衡网络调节
Figure GDA00027758639900000415
的色偏:将低照度压缩图像IRGB
Figure GDA00027758639900000416
点乘,以平衡各颜色通道分量比例,如下式得到三个颜色通道分量比例较为平衡的张量Θ:
Figure GDA00027758639900000417
式中Ich为低照度压缩图像IRGB中各颜色通道分量,
Figure GDA00027758639900000418
Figure GDA00027758639900000419
中各颜色通道分量,η为非负超参数。对Θ进行卷积核维度为3×3×3的3D卷积操作,输出颜色平衡后的最终增强图Iend
再从距离和角度两个方面衡量色偏:将Iend中每个像素点的R、G、B值视为一个三维向量,则Iend可视为一个三维向量矩阵Oend。颜色平衡网络的损失函数表达式如下:
Figure GDA0002775863990000051
式中,OGT为正常光照的RGB图片向量矩阵,SSIM为结构相似因子,||·||为向量二范数,λ为三维RGB颜色向量角度损失的权重系数,μ为Oend和OGT结构相似度的权重系数。
最终得到无显著块效应的增强图片或视频帧。
有益效果:
(1)现有的低照度增强方法均只适用于高质量无损图片,对有损压缩图片或视频帧用现有方法进行增强会放大块效应,影响视觉效果。本发明提出一种适用于压缩图像和视频的基于Retinex与深度学习的低照度图像增强处理方法,能够检测增强后图像或视频帧中块效应的存在及位置,并消除因增强带来的块效应。
(2)图像视频编码标准中,由于图像压缩过程中以块为单位进行空域到频域的变换,在图像视频重建后,图像会出现块效应。对于确定的图像视频编码标准,块尺寸的大小是固定的,通常为4×4或8×8等。结合图像或视频编码模型检测图像块效应信息,本发明提出了利用感受野分别大于和小于图像或视频编码块尺寸的两组膨胀卷积的残差来提取块边界信息,有选择性地抑制被放大的假边界,实现了既保留图像原始纹理信息又抑制编码噪声的效果。
(3)由于在图像视频编码中的变换和量化是在YUV色彩空间进行的,本发明将图像转换成YUV格式后再进行增强。本发明利用YUV色彩空间对亮度通道(Y)增强、检测和调整,再结合色度通道(U、V)调整色偏的方法,通过将学习到的块效应信息作用于亮度通道增强结果,通过块效应消除网络,削弱或者消除预增强图片中的块边界,得到无显著块效应的最终增强图片。
(4)针对YUV色彩空间亮度通道增强产生的色偏问题,本发明首先利用输入的低照度压缩图片中的颜色信息调节各颜色通道比例,然后采用3D卷积网络来进行校正的方法,以更好地利用各通道分量之间的相关性。本发明提出从距离和角度两方面衡量色偏的损失函数,综合考虑颜色的距离和角度损失以及结构相似性,采用带权重的向量二范数公式和向量夹角公式来分别平衡距离和角度的重要程度,获得较好的颜色调节效果。
附图说明
图1为实施例的块效应增强示意图,其中(a)为低照度原图,(b)为无损图片增强效果,(c)为压缩图片增强效果。
图2为本发明方法的流程图。
图3为膨胀卷积检测8×8块边界平面示意图,其中(a)为膨胀率为3的卷积核示意图,(b)为膨胀率为4的卷积核示意图。
图4为实施例增强效果与其他算法增强效果对比展示图,其中(a)为低照度压缩图,(b)为传统MSR增强效果,(c)为本实施例方法增强效果。
具体实施方式
以下实施例结合附图对本发明进行详细说明。
本实施例描述了本发明的一种抗块效应的图像视频增强方法的具体实现过程,包括以下步骤:
S1、为与图像压缩过程相适应,将低照度压缩图像IRGB由RGB色彩空间转换到YUV色彩空间得到低照度压缩图像IYUV。其中,低照度压缩图像IYUV包括三个通道分量,其中亮度Y分量表示为IY、色度U分量表示为IU、色度V分量表示为IV
S2、使用U-net神经网络对亮度分量IY进行环境入射照度的估计,U-net神经网络使用残差连接方式,环境入射照度的估计趋向于平滑;所述U-net神经网络的损失函数表达式为:
Figure GDA0002775863990000061
其中,lY为环境入射照度估计值,p为像素点集合,α为式(1)第二项的非负权重系数,β为式(1)第三项的非负权重系数,此处取α=0.0001,β=0.13。
S3、对Y通道分量进行初步增强:
对lY逐点取倒数,并与IY点相乘得到Y通道初步增强图
Figure GDA0002775863990000071
Figure GDA0002775863990000072
其中,⊙表示矩阵点乘。
S4、采用块边界检测神经网络定位Y通道初步增强结果的块效应边界:
所述块边界检测神经网络的卷积核大小由块大小决定,采用膨胀卷积的方式扩大卷积核感受野。
对于块大小为4×4的压缩图片或视频帧,使用卷积核大小为3×3,膨胀率分别为3和4的两组膨胀卷积核组对Y通道初步增强图
Figure GDA0002775863990000073
进行卷积运算,每组卷积核数量为20,这两组卷积操作命名为
Figure GDA0002775863990000074
Figure GDA0002775863990000075
输出
Figure GDA0002775863990000076
Figure GDA0002775863990000077
的残差:
Figure GDA0002775863990000078
式中,ω1第一组膨胀卷积核学习参数,ω2为第二组膨胀卷积核学习参数,残差结果D反映块效应边界信息。
S5、Concate(融合)块效应边界信息D和Y通道初步增强图
Figure GDA0002775863990000079
得到一个张量
Figure GDA00027758639900000710
接着采用卷积网络通过对
Figure GDA00027758639900000711
的学习,得到残差项
Figure GDA00027758639900000712
由残差项
Figure GDA00027758639900000713
加上初步增强图
Figure GDA00027758639900000714
去除或弱化块效应,输出最终无显著块效应的Y通道增强图
Figure GDA00027758639900000715
Figure GDA00027758639900000716
式中,+表示逐像素点相加,f表示卷积网络,
Figure GDA00027758639900000717
表示Concate操作,θ为网络学习参数。正常光照下图片或视频帧的Y通道分量IY_GT为Ground Truth(真值),采用均方误差作为代价损失函数:
Figure GDA00027758639900000718
S6、将Y通道增强图
Figure GDA00027758639900000719
与色度通道分量IU和IV Concate得到YUV格式增强图
Figure GDA0002775863990000081
S7、将
Figure GDA0002775863990000082
转换颜色空间,得到RGB格式的增强图片
Figure GDA0002775863990000083
采用颜色平衡网络调节
Figure GDA0002775863990000084
的色偏。
将低照度压缩图像IRGB
Figure GDA0002775863990000085
点乘,以平衡各颜色通道分量比例,如下式得到三个颜色通道分量比例较为平衡的张量Θ:
Figure GDA0002775863990000086
式中Ich为低照度压缩图像IRGB中各颜色通道分量,
Figure GDA0002775863990000087
Figure GDA0002775863990000088
中各颜色通道分量,η为非负超参数,此处取η=89.6。对Θ进行卷积核维度为3×3×3的3D卷积操作,输出颜色平衡后的最终增强图Iend。从距离和角度两个方面衡量色偏。将Iend中每个像素点的R、G、B值视为一个三维向量,则Iend可视为一个三维向量矩阵Oend。颜色平衡网络的损失函数表达式如下:
Figure GDA0002775863990000089
式中,OGT为正常光照的RGB图片向量矩阵,SSIM为结构相似因子,||·||为向量二范数,λ为三维RGB颜色向量角度损失的权重系数、μ为Oend和OGT结构相似度的权重系数,此处取λ=0.26,μ=0.08。
如附图4所示,按照步骤1到步骤7中的方法,就可以实现对低照度压缩图片或视频帧的亮度增强。相比于之前的低照度增强方法,本发明考虑到增强对有损压缩图像的块效应放大问题,利用膨胀卷积残差的方法提取块边界信息并弱化消除块边界,由此避免了出现与实际场景不符的块效应伪影,增强效果更自然。

Claims (3)

1.一种抗块效应的图像视频增强方法,其特征在于,包括以下步骤:
S1、将低照度压缩图像IRGB由RGB色彩空间转换到YUV色彩空间得到低照度压缩图像IYUV;其中,低照度压缩图像IYUV包括三个通道分量,亮度Y分量表示为IY、色度U分量表示为IU、色度V分量表示为IV
S2、使用U-net神经网络对亮度分量IY进行环境入射照度的估计,环境入射照度的估计趋向于平滑;所述U-net神经网络的损失函数表达式为:
Figure QLYQS_1
s.t.lY≥IY
其中,lY为环境入射照度估计值,p为像素点集合,α为式(1)第二项的非负权重系数,β为式(1)第三项的非负权重系数;
S3、对Y通道分量进行初步增强:
对lY逐点取倒数,并与IY点相乘得到Y通道初步增强图
Figure QLYQS_2
Figure QLYQS_3
其中,⊙表示矩阵点乘;
S4、采用块边界检测神经网络定位Y通道初步增强图
Figure QLYQS_4
的块效应边界:
所述块边界检测神经网络的卷积核大小由块大小决定,采用膨胀卷积的方式扩大卷积核感受野;对于块大小为M×M的压缩图片或视频帧,使用卷积核大小为k×k,膨胀率分别为
Figure QLYQS_5
Figure QLYQS_6
的两组膨胀卷积核组对Y通道初步增强图
Figure QLYQS_7
进行卷积运算,每组卷积核数量为n,两组卷积操作命名为
Figure QLYQS_8
Figure QLYQS_9
输出
Figure QLYQS_10
Figure QLYQS_11
的残差:
Figure QLYQS_12
式中,ω1为第一组膨胀卷积核学习参数,ω2为第二组膨胀卷积核学习参数,残差结果D反映块效应边界信息;
S5、Concate块效应边界信息D和Y通道初步增强图
Figure QLYQS_13
得到一个张量
Figure QLYQS_14
接着采用卷积网络通过对
Figure QLYQS_15
的学习,得到残差项
Figure QLYQS_16
由残差项
Figure QLYQS_17
加上初步增强图
Figure QLYQS_18
去除或弱化块效应,输出最终无显著块效应的Y通道增强图
Figure QLYQS_19
Figure QLYQS_20
式中,+表示逐像素点相加,f表示卷积网络,
Figure QLYQS_21
表示Concate操作,θ为网络学习参数;
IY_GT表示正常光照下图片或视频帧的Y通道分量为Ground Truth,采用均方误差作为代价损失函数:
Figure QLYQS_22
S6、将Y通道增强图
Figure QLYQS_23
与色度通道分量IU和IV Concate得到YUV格式增强图
Figure QLYQS_24
S7、将
Figure QLYQS_25
转换颜色空间,得到RGB格式增强图
Figure QLYQS_26
采用颜色平衡网络调节
Figure QLYQS_27
Figure QLYQS_28
点乘,以平衡各颜色通道分量比例,如下式得到三个颜色通道分量比例较为平衡的张量Θ:
Figure QLYQS_29
式中Ich为低照度压缩图像IRGB中各颜色通道分量,
Figure QLYQS_30
Figure QLYQS_31
中各颜色通道分量,η为非负超参数;对Θ进行卷积核维度为3×3×3的3D卷积操作,输出颜色平衡后的最终增强图Iend
再从距离和角度两个方面衡量色偏:将Iend中每个像素点的R、G、B值视为一个三维向量,则Iend视为一个三维向量矩阵Oend;颜色平衡网络的损失函数表达式如下:
Figure QLYQS_32
式中,OGT为正常光照的RGB图片向量矩阵,SSIM为结构相似因子,||·||为向量二范数,λ为三维RGB颜色向量角度损失的权重系数,μ为Oend和OGT结构相似度的权重系数;
最终得到无显著块效应的增强图片或视频帧。
2.如权利要求1所述的一种抗块效应的图像视频增强方法,其特征在于,步骤S2中,U-net神经网络使用残差连接方式。
3.如权利要求1所述的一种抗块效应的图像视频增强方法,其特征在于,步骤S4中n的取值范围为15-20。
CN202011036966.2A 2020-09-28 2020-09-28 一种抗块效应的图像视频增强方法 Active CN112215767B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011036966.2A CN112215767B (zh) 2020-09-28 2020-09-28 一种抗块效应的图像视频增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011036966.2A CN112215767B (zh) 2020-09-28 2020-09-28 一种抗块效应的图像视频增强方法

Publications (2)

Publication Number Publication Date
CN112215767A CN112215767A (zh) 2021-01-12
CN112215767B true CN112215767B (zh) 2023-03-14

Family

ID=74052064

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011036966.2A Active CN112215767B (zh) 2020-09-28 2020-09-28 一种抗块效应的图像视频增强方法

Country Status (1)

Country Link
CN (1) CN112215767B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819707B (zh) * 2021-01-15 2022-05-03 电子科技大学 一种端到端抗块效应低照度图像增强方法
CN116051662B (zh) * 2023-03-31 2023-06-23 腾讯科技(深圳)有限公司 图像处理方法、装置、设备和介质
CN117291962B (zh) * 2023-11-27 2024-02-02 电子科技大学 一种基于通道分解的轻量神经网络的去块效应方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103606134A (zh) * 2013-11-26 2014-02-26 国网上海市电力公司 一种弱光照视频图像的增强方法
US20150326846A1 (en) * 2014-05-12 2015-11-12 DDD IP Ventures, Ltd. Systems and methods for processing video frames
CN108460730B (zh) * 2017-02-17 2020-06-26 京东方科技集团股份有限公司 一种图像处理方法及其装置
CN109785240B (zh) * 2017-11-13 2021-05-25 中国移动通信有限公司研究院 一种低照度图像增强方法、装置及图像处理设备
CN108416745B (zh) * 2018-02-02 2020-06-26 中国科学院西安光学精密机械研究所 一种具有色彩恒常性的图像自适应去雾增强方法
WO2019157344A1 (en) * 2018-02-12 2019-08-15 Avodah Labs, Inc. Real-time gesture recognition method and apparatus
JP6766203B2 (ja) * 2018-03-30 2020-10-07 香港商科科串流股▲フン▼有限公司KKStream Limited ビデオ最適化処理システム及び方法
CN108846812A (zh) * 2018-05-30 2018-11-20 成都微光集电科技有限公司 一种基于灰度级压缩的clhae图像增强方法
CN109146826A (zh) * 2018-06-27 2019-01-04 华南理工大学 一种图像增强方法及装置
CN109544448B (zh) * 2018-11-09 2023-06-30 浙江工业大学 一种拉普拉斯金字塔结构的团网络超分辨率图像重建方法
CN110008876A (zh) * 2019-03-26 2019-07-12 电子科技大学 一种基于数据增强与特征融合的人脸验证方法
CN110120019B (zh) * 2019-04-26 2023-03-28 电子科技大学 一种基于特征增强的残差神经网络及图像去块效应方法
CN110969584B (zh) * 2019-10-12 2023-09-19 深圳供电局有限公司 一种低照度图像增强方法
CN110889813B (zh) * 2019-11-15 2023-11-24 安徽大学 基于红外信息的低光图像增强方法
CN111489303A (zh) * 2020-03-27 2020-08-04 武汉理工大学 一种低照度环境下海事图像增强方法
CN111696039B (zh) * 2020-05-28 2023-07-28 Oppo广东移动通信有限公司 图像处理方法及装置、存储介质和电子设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Yuantian Cai等."Low-Light Image Enhancement Based on Modified U-Net".2020,第1-7页. *
Zhengning Wang等."Long-Distance/Environment Face Image Enhancement Method for Recognition".2017,第501-511页. *
刘吕忠等."基于CUDA的多尺度Retinex图像增强算法实现".2010,第30卷(第9期),第2441-2443页. *
江泽涛等."一种基于U-Net生成对抗网络的低照度图像增强方法".2020,第48卷(第2期),第258-264页. *

Also Published As

Publication number Publication date
CN112215767A (zh) 2021-01-12

Similar Documents

Publication Publication Date Title
CN112215767B (zh) 一种抗块效应的图像视频增强方法
Zhou et al. Auto color correction of underwater images utilizing depth information
CN102769722B (zh) 时域与空域结合的视频降噪装置及方法
US8059911B2 (en) Depth-based image enhancement
US9147238B1 (en) Adaptive histogram-based video contrast enhancement
CN112419181B (zh) 一种宽动态红外图像细节增强方法
CN112801925B (zh) 基于信息熵最大化消除水波纹影响的水下图像增强方法
CN109816608B (zh) 一种基于噪声抑制的低照度图像自适应亮度增强方法
CN113781320A (zh) 一种图像处理方法、装置、终端设备及存储介质
CN111080686A (zh) 用于自然场景中图像高光去除的方法
CN111968065A (zh) 一种亮度不均匀图像的自适应增强方法
Ding et al. Color image enhancement with a human visual system based adaptive filter
CN112435184A (zh) 一种基于Retinex和四元数的雾霾天图像识别方法
CN101778297B (zh) 影像序列的干扰消除方法
CN101478690B (zh) 一种基于色域映射的图像光照校正方法
CN112819707B (zh) 一种端到端抗块效应低照度图像增强方法
CN116091357A (zh) 深度卷积注意力和多尺度特征融合的低光图像增强方法
Wen et al. TransIm: Transfer image local statistics across EOTFs for HDR image applications
CN112381724A (zh) 一种基于多曝光融合框架的图像宽动态增强方法
Wang et al. An Improved Unsupervised Color Correction Algorithm for Underwater Image
Niu et al. Improvement of low illumination image enhancement algorithm based on physical mode
Yang et al. Brightening and denoising lowlight images
CN112581400B (zh) 基于高斯标准差和对比度调谐图像增强方法
CN111062975B (zh) 一种基于感知哈希算法加快视频帧实时目标检测的方法
CN115272135B (zh) 一种单帧图片降噪并消除图片伪彩的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant