CN113191956B - 基于深度抠图的逆光图像增强方法 - Google Patents

基于深度抠图的逆光图像增强方法 Download PDF

Info

Publication number
CN113191956B
CN113191956B CN202110071014.2A CN202110071014A CN113191956B CN 113191956 B CN113191956 B CN 113191956B CN 202110071014 A CN202110071014 A CN 202110071014A CN 113191956 B CN113191956 B CN 113191956B
Authority
CN
China
Prior art keywords
image
foreground
value
backlight
gamma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110071014.2A
Other languages
English (en)
Other versions
CN113191956A (zh
Inventor
赵明华
程丹妮
都双丽
胡静
李鹏
王理
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202110071014.2A priority Critical patent/CN113191956B/zh
Publication of CN113191956A publication Critical patent/CN113191956A/zh
Application granted granted Critical
Publication of CN113191956B publication Critical patent/CN113191956B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度抠图的逆光图像增强方法,首先,对原始图像进行深度抠图,获取精确的前景蒙版。通过定义图像的三元图,将曝光不足区域划分为前景,曝光正常区域与曝光不足区域衔接部分标为未知区域,输入编码‑解码器网络中计算图像的不透明度,获取预测前景蒙版,再将结果输入细化网络,得到更加精确的前景蒙版。其次,采用伽马变换的方法对图像进行增强,可通过计算增强后图像的信息熵,对γ的取值进行优化。最后,将原始图像作为背景图与增强图像进行合成,使处理后的图像整体更加自然。本发明消除了逆光条件对拍摄主体的影响,不仅避免了曝光不足或曝光过度的问题,还在保留颜色和细节信息的基础上提升了图像的亮度。

Description

基于深度抠图的逆光图像增强方法
技术领域
本发明属于逆光图像增强技术领域,具体涉及基于深度抠图的逆光图像增强方法。
背景技术
随着摄影技术的发展,图像质量在分辨率上有了很大的提高。然而,由标准成像设备捕获的图像往往会处于不均匀照明环境下,如逆光、夜间和光线较暗的室内等场景,这些图像可能会在曝光不足的区域丢失重要信息,使图像内容对人眼不可见。不同于普通的低照度图像,逆光图像有一个较为广泛的动态范围,同时包含非常暗和非常亮的区域,因此需要改善图像中光照不理想的区域。由于相机动态范围有限,如果我们增加相机曝光来显示曝光不足的区域,那么就会对曝光良好的区域造成曝光过度甚至饱和。针对这一问题,许多研究者都提出了图像增强算法,但大多数方法局限于区域间分割的精度,难以产生高质量的、视觉效果更加自然的增强图像。因此,对逆光图像中如何精确地提取出曝光不足部分并对其进行与曝光正常区域相适应程度增强的问题具有重要的研究意义。
目前,逆光图像增强的研究方法大致从两个角度出发:融合技术与软分割技术。融合技术可以将多个输入融合起来,这些输入通常提高了逆光图像的对比度,细节信息,轮廓信息等,结合对应的权重调整逆光图像的灰度值。但当图像的灰度分布极不均匀,则会导致色度失真的问题。软分割技术是通过某种模型识别过程将逆光图像中曝光不足区域与曝光正常区域分割开来,对曝光不足区域进行色调映射调整其灰度值,但该算法的增强效果往往取决于分割识别的精度,对背景较为复杂的逆光图像无法进行有效的增强,并且容易产生光晕现象。
发明内容
本发明的目的是提供基于深度抠图的逆光图像增强方法,解决了现有技术中存在的曝光正常区域与曝光不足区域分割精度不足、增强过度和颜色与对比度失真的问题。
本发明所采用的技术方案是,基于深度抠图的逆光图像增强方法,具体按照以下步骤实施:
步骤1、输入原始逆光图像,将原始逆光图像中的逆光区域视为待增强的前景,手工标记出图像的已知逆光前景部分和待分割区域,获取图像对应的trimap图;
步骤2、根据原始逆光图像和对应的trimap图,利用编码-译码器网络进行抠图,得到预测前景蒙版,将预测前景蒙版、原始逆光图像输入到细化网络中对透明度值进行细化,获得锐化后的前景蒙版;
步骤3、根据锐化后的前景蒙版精确区分出原始逆光图像的逆光区域,利用自适应优化γ值的伽马变换算法对逆光部分进行增强,得到增强前景图;
步骤4、将增强前景图与原始逆光图像进行合成,将增强前景图替代原始逆光图像中逆光区域,得到最终的增强图像。
本发明的特点还在于:
步骤1具体过程为:输入原始逆光图像,原始逆光图像视为由前景层和背景层构成,因此可用线性组合下的图像合成方程(1)来表示:
I=αF+(1-α)B (1)
其中,I是给定像素的颜色,F是未知的前景色,B为未知背景色,α为未知的透明度;
通过用户交互方式获取原始逆光图像对应的三元图,将曝光不足的区域划分为待增强的前景,其中白色区域表示确定的前景部分,像素透明度均为1,灰色区域表示待分割区域,其像素透明度为未知的透明度;黑色区域表示确定的背景部分,其像素透明度均为0,划分后得到的图像为原始逆光图像对应的trimap图。
步骤2具体过程为:
步骤2.1、设计基于深度卷积网络的编码-译码器网络,其中编码阶段采用14个卷积层和5个最大池化层,解码网络采用6个卷积层和5个反池化层的操作,编码-译码器网络中包含两个损失函数,一个是透明度预测损失,另一个是合成损失,通过加权计算总损失;
步骤2.2、将原始逆光图像和对应的trimap图输入编码-译码器网络进行抠图,得到预测前景蒙版;
步骤2.3、设计基于完整的卷积网络的细化阶段网络,包括4个卷积层,第四个卷积层为非线性的ReLU层;
步骤2.4、使用跳跃模型将预测前景蒙版缩放到0和1之间,将缩放后的预测前景蒙版和原始逆光图像输入细化阶段网络进行细化,得到锐化后的前景蒙版。
步骤2.1中计算总损失具体过程为:
透明度预测损失为真实的透明度值和预测的透明度值在每一个像素位置上的绝对差,对该绝对差采用相对近似值模拟如下:
其中,是预测前景蒙版在像素i点处的预测透明度值,/>是真实前景蒙版中像素i点处的透明度值,∈取值10-6;损失的导数表示为:
合成损失通过下面的损失函数近似:
其中,其中c为RGB通道,p为预测前景蒙版合成的图像,g为真实前景蒙版合成的图像;
两个损失的加权总和即为总损失,总损失计算公式为:
其中,ωl取值为0.5。
步骤3中利用自适应优化γ值的伽马变换算法对逆光部分进行增强具体为:采用伽马变换对原始逆光图像进行非线性变换,得到增强前景图,调节其灰度值的动态范围,使原始逆光图像灰度值与增强前景图灰度值呈指数关系;
其中,伽马变换公式为:
式(6)中,C与γ均为常数,通过调整γ的取值进行不同程度的变换,γ值小于1时,较亮的区域灰度被压缩,较暗区域灰度被拉伸,图像的整体亮度得到提升,同时低灰度处的对比度得到增强。
伽马变换中γ值采用自适应优化取值,具体取值过程如下:
采用信息熵度量增强前景图的信息量,具体表达为:
式(7)中,pi为像素灰度i在图像中出现的概率,N为像素灰度的总个数;
取增强前景图的信息熵最大化来计算最佳γ取值,表达式为:
式(8)中,g(I,γ)表示增强前景图。
本发明的有益效果是:
本发明基于深度抠图的逆光图像增强方法,对逆光图像中的曝光不足区域与曝光正常区域进行了精确分割,并计算出了最优化γ值对过暗区域进行增强,与现有的逆光图像增强方法相比,不仅没有对图像中曝光正常区域进行过度增强,且有效的保留了图像的细节与颜色,提高了逆光图像的质量。
附图说明
图1(a)是本发明基于深度抠图的逆光图像增强方法的流程图;
图1(b)是本发明基于深度抠图的逆光图像增强方法中深度抠图算法的网络结构图;
图2是本发明实施例中输入的原始逆光图像;
图3是本发明实施例原始逆光图像对应的trimap图;
图4是本发明实施例利用深度抠图算法计算获得的前景蒙版图;
图5是本发明实施例中伽马变换所对应不同γ值的变换曲线图;
图6是本发明实施例中原始逆光图像使用不同γ值进行伽马变换后其信息熵的变换曲线图;
图7是本发明利用γ=1值对逆光前景进行伽马变换的结果示意图;
图8是本发明利用γ=10值对逆光前景进行伽马变换的结果示意图;
图9是本发明利用γ=30值对逆光前景进行伽马变换的结果示意图;
图10是本发明利用γ=100值对逆光前景进行伽马变换的结果示意图;
图11是本发明利用γ=200值对逆光前景进行伽马变换的结果示意图;
图12是本发明选取最优化γ值对前景进行增强,并利用前景蒙版对图像进行合成的增强效果图;
图13是使用直方图均衡化对逆光图像进行增强的结果示意图;
图14是使用限制对比度自适应直方图均衡增强算法对逆光图像进行增强的结果示意图;
图15是使用多尺度Retinex算法对逆光图像进行增强的结果示意图。
具体实施方式
下面结合附图及具体实施方式对本发明进行详细说明。
本发明基于深度抠图的逆光图像增强方法,流程图如图1(a)所示,图1(b)为流程图中虚线框部分的网络结构,第一部分是以人机交互方式,标记出图像中确定的待增强前景以及待分割区域,以获取逆光图像的三元图,再用深度抠图网络得到图像的前景蒙版;第二部分是使用伽马变换对图像进行增强,根据增强图像的信息熵最大化来选取合适的γ值进行变换,使合成后的图像整体视觉效果更加自然;如图1所示,具体按照以下步骤实施:
步骤1、输入原始逆光图像,如图2所示,将原始逆光图像中的逆光区域视为待增强的前景,手工标记出图像的已知逆光前景部分和待分割区域,获取图像对应的trimap图;
步骤1具体过程为:输入原始逆光图像,原始逆光图像视为由前景层和背景层构成,因此可用线性组合下的图像合成方程(1)来表示:
I=αF+(1-α)B (1)
其中,I是给定像素的颜色,F是未知的前景色,B为未知背景色,α为未知的透明度;
通过用户交互方式获取原始逆光图像对应的三元图,将曝光不足的区域划分为待增强的前景,其中白色区域表示确定的前景部分,像素透明度均为1,灰色区域表示待分割区域,其像素透明度为未知的透明度;黑色区域表示确定的背景部分,其像素透明度均为0,划分后得到的图像为原始逆光图像对应的trimap图,如图3所示。
步骤2、根据原始逆光图像和对应的trimap图,利用编码-译码器网络进行抠图,得到预测前景蒙版,将预测前景蒙版、原始逆光图像输入到细化网络中对透明度值进行细化,获得锐化后的前景蒙版,如图4所示;
步骤2具体过程为:
步骤2.1、设计基于深度卷积网络的编码-译码器网络,其中编码阶段采用14个卷积层和5个最大池化层,输出得到低分辨率的特征图,解码网络采用6个卷积层和5个反池化层的操作,得到与原图大小一致的预测前景蒙版,编码-译码器网络中包含两个损失函数,一个是透明度预测损失,另一个是合成损失,通过加权计算总损失;
计算总损失具体过程为:
透明度预测损失为真实的透明度值和预测的透明度值在每一个像素位置上的绝对差,对该绝对差采用相对近似值模拟如下:
其中,是预测前景蒙版在像素i点处的预测透明度值,/>是真实前景蒙版中像素i点处的透明度值,∈取值10-6;损失的导数表示为:
合成损失是指利用真实透明度值合成的图像与预测透明度值合成的图像进行绝对差的计算,通过下面的损失函数近似:
其中,其中c为RGB通道,p为预测前景蒙版合成的图像,g为真实前景蒙版合成的图像;合成损失限制了网络的合成操作,从而导致更准确的前景蒙版预测。
两个损失的加权总和即为总损失,总损失计算公式为:
其中,ωl取值为0.5。
步骤2.2、将原始逆光图像和对应的trimap图输入编码-译码器网络进行抠图,得到预测前景蒙版;
步骤2.3、设计基于完整的卷积网络的细化阶段网络,包括4个卷积层,第四个卷积层为非线性的ReLU层,为了产生尖锐的边缘,即准确的轮廓,该阶段不进行下采样;
步骤2.4、使用跳跃模型将预测前景蒙版缩放到0和1之间,将缩放后的预测前景蒙版和原始逆光图像输入细化阶段网络进行细化,得到锐化后的前景蒙版。
步骤3、根据锐化后的前景蒙版精确区分出原始逆光图像的逆光区域,利用自适应优化γ值的伽马变换算法对逆光部分进行增强,得到增强前景图;
利用自适应优化γ值的伽马变换算法对逆光部分进行增强具体为:采用伽马变换对原始逆光图像进行非线性变换,得到增强前景图,调节其灰度值的动态范围,使原始逆光图像灰度值与增强前景图灰度值呈指数关系,利用伽马变换增强图像,就是让图像曝光强度的线性响应变得更加接近人眼感受的响应,即将曝光过度或曝光不足的部分进行矫正;
其中,伽马变换公式为:
式(6)中,C与γ均为常数,通过调整γ的取值进行不同程度的变换,γ值小于1时,较亮的区域灰度被压缩,较暗区域灰度被拉伸,图像的整体亮度得到提升,同时低灰度处的对比度得到增强,更利于分辨低灰度值部分的图像细节。
伽马变换中γ值采用自适应优化取值,具体取值过程如下:
由于曝光良好图像的可视性比曝光不足或曝光过度的图像可视性强,因此最优的底数取值应该能为增强后的图像提供更多的信息,采用信息熵度量增强前景图的信息量,具体表达为:
式(7)中,pi为像素灰度i在图像中出现的概率,N为像素灰度的总个数;通常取值为256。通常,曝光良好的图像信息熵高于曝光不足或曝光过度图像的信息熵,因此利用熵值来确定最佳的曝光度。取增强前景图的信息熵最大化来计算最佳γ取值,表达式为:
式(8)中,g(I,γ)表示增强前景图。由于图像熵值随曝光度的变化呈现出多幅度的增减,如图6所示,需通过熵值变化函数确定最大取值范围进行一维极大值求解。为了提高计算效率,在优化gamma取值时,将输入图像的大小调整为50×50。图7-图11展示了利用不同gamma值对逆光图像进行伽马变换的效果。
步骤4、将增强前景图与原始逆光图像进行合成,将增强前景图替代原始逆光图像中逆光区域,得到最终的增强图像,如图12所示。
由于只对逆光图像中与前景蒙版对应的暗区进行增强,因此在消除逆光的同时保持了曝光正常区域不失真,恢复图像中暗区的细节特征,提高了图像整体质量。我们将本文方法的结果与常用的对比度增强方法的结果进行了比较。一般情况下,用直方图均衡化(HE)生成的图像对整幅图像灰度进行调整,因此会导致光照正常区域产生过度曝光,如图13所示。用限制对比度自适应直方图均衡增强算法(CLAHE)生成的图像对亮度过暗区域增强效果不足,并且会过度增强噪声和伪影,如图14所示。而多尺度Retinex算法(MSR)生成的图像过于饱和且颜色平滑,会失去图像的细节信息,如图15所示。
与图13-图5相比,本发处理方法如图12所示,图12中逆光区域的亮度和细节都得到了增强,同时又保持了原始逆光图像中曝光正常区域的亮度不变。
通过上述方式,本发明基于深度抠图的逆光图像增强方法,对逆光图像中的曝光不足区域与曝光正常区域进行了精确分割,并计算出了最优化gamma值对过暗区域进行增强,与现有的逆光图像增强方法相比,不仅没有对图像中曝光正常区域进行过度增强,且有效的保留了图像的细节与颜色,提高了逆光图像的质量。

Claims (2)

1.基于深度抠图的逆光图像增强方法,其特征在于,具体按照以下步骤实施:
步骤1、输入原始逆光图像,将原始逆光图像中的逆光区域视为待增强的前景,手工标记出图像的已知逆光前景部分和待分割区域,获取图像对应的trimap图;
步骤2、根据原始逆光图像和对应的trimap图,利用编码-译码器网络进行抠图,得到预测前景蒙版,将预测前景蒙版、原始逆光图像输入到细化网络中对透明度值进行细化,获得锐化后的前景蒙版;具体过程为:
步骤2.1、设计基于深度卷积网络的编码-译码器网络,其中编码阶段采用14个卷积层和5个最大池化层,解码网络采用6个卷积层和5个反池化层的操作,编码-译码器网络中包含两个损失函数,一个是透明度预测损失,另一个是合成损失,通过加权计算总损失;
所述计算总损失具体过程为:
透明度预测损失为真实的透明度值和预测的透明度值在每一个像素位置上的绝对差,对该绝对差采用相对近似值模拟如下:
其中,是预测前景蒙版在像素i点处的预测透明度值,/>是真实前景蒙版中像素i点处的透明度值,∈取值10-6;损失的导数表示为:
合成损失通过下面的损失函数近似:
其中,其中c为RGB通道,p为预测前景蒙版合成的图像,g为真实前景蒙版合成的图像;
两个损失的加权总和即为总损失,总损失计算公式为:
其中,ωl取值为0.5;
步骤2.2、将原始逆光图像和对应的trimap图输入编码-译码器网络进行抠图,得到预测前景蒙版;
步骤2.3、设计基于完整的卷积网络的细化阶段网络,包括4个卷积层,第四个卷积层为非线性的ReLU层;
步骤2.4、使用跳跃模型将预测前景蒙版缩放到0和1之间,将缩放后的预测前景蒙版和原始逆光图像输入细化阶段网络进行细化,得到锐化后的前景蒙版;
步骤3、根据锐化后的前景蒙版精确区分出原始逆光图像的逆光区域,利用自适应优化γ值的伽马变换算法对逆光部分进行增强,得到增强前景图;
所述利用自适应优化γ值的伽马变换算法对逆光部分进行增强具体为:采用伽马变换对原始逆光图像进行非线性变换,得到增强前景图,调节其灰度值的动态范围,使原始逆光图像灰度值与增强前景图灰度值呈指数关系;
其中,伽马变换公式为:
式(6)中,C与γ均为常数,通过调整γ的取值进行不同程度的变换,γ值小于1时,较亮的区域灰度被压缩,较暗区域灰度被拉伸,图像的整体亮度得到提升,同时低灰度处的对比度得到增强;
所述伽马变换中γ值采用自适应优化取值,具体取值过程如下:
采用信息熵度量增强前景图的信息量,具体表达为:
式(7)中,pi为像素灰度i在图像中出现的概率,N为像素灰度的总个数;
取增强前景图的信息熵最大化来计算最佳γ取值,表达式为:
式(8)中,g(I,γ)表示增强前景图;
步骤4、将增强前景图与原始逆光图像进行合成,将增强前景图替代原始逆光图像中逆光区域,得到最终的增强图像。
2.根据权利要求1所述基于深度抠图的逆光图像增强方法,其特征在于,步骤1具体过程为:输入原始逆光图像,原始逆光图像视为由前景层和背景层构成,因此可用线性组合下的图像合成方程(1)来表示:
I =αF+(1-α)B (1)其中,I是给定像素的颜色,F是未知的前景色,B为未知背景色,α为未知的透明度;
通过用户交互方式获取原始逆光图像对应的三元图,将曝光不足的区域划分为待增强的前景,其中白色区域表示确定的前景部分,像素透明度均为1,灰色区域表示待分割区域,其像素透明度为未知的透明度;黑色区域表示确定的背景部分,其像素透明度均为0,划分后得到的图像为原始逆光图像对应的trimap图。
CN202110071014.2A 2021-01-19 2021-01-19 基于深度抠图的逆光图像增强方法 Active CN113191956B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110071014.2A CN113191956B (zh) 2021-01-19 2021-01-19 基于深度抠图的逆光图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110071014.2A CN113191956B (zh) 2021-01-19 2021-01-19 基于深度抠图的逆光图像增强方法

Publications (2)

Publication Number Publication Date
CN113191956A CN113191956A (zh) 2021-07-30
CN113191956B true CN113191956B (zh) 2024-02-09

Family

ID=76972596

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110071014.2A Active CN113191956B (zh) 2021-01-19 2021-01-19 基于深度抠图的逆光图像增强方法

Country Status (1)

Country Link
CN (1) CN113191956B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114820666B (zh) * 2022-04-29 2024-07-23 深圳万兴软件有限公司 一种增加抠图精确度的方法、装置、计算机设备及存储介质
CN115082334A (zh) * 2022-05-30 2022-09-20 西安理工大学 结合逆光区域分割与自适应曝光校正的图像增强方法
CN115760637B (zh) * 2022-12-01 2023-08-25 南京哈哈云信息科技有限公司 基于养老机器人的老年人体征健康监测方法、系统及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018103197A1 (zh) * 2016-12-08 2018-06-14 深圳市金立通信设备有限公司 一种拍照控制方法及终端
WO2018107825A1 (zh) * 2016-12-13 2018-06-21 华为技术有限公司 抠图方法及装置
CN109447924A (zh) * 2018-09-20 2019-03-08 太平洋未来科技(深圳)有限公司 一种图片合成方法、装置及电子设备
CN112070686A (zh) * 2020-08-14 2020-12-11 西安理工大学 一种基于深度学习的逆光图像协同增强方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018103197A1 (zh) * 2016-12-08 2018-06-14 深圳市金立通信设备有限公司 一种拍照控制方法及终端
WO2018107825A1 (zh) * 2016-12-13 2018-06-21 华为技术有限公司 抠图方法及装置
CN109447924A (zh) * 2018-09-20 2019-03-08 太平洋未来科技(深圳)有限公司 一种图片合成方法、装置及电子设备
CN112070686A (zh) * 2020-08-14 2020-12-11 西安理工大学 一种基于深度学习的逆光图像协同增强方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李赓飞 ; 李桂菊 ; 韩广良 ; 刘培勋 ; 江山 ; .亮通道先验Retinex对低照度图像的光照补偿.光学精密工程.2018,(第05期),全文. *
郭倩 ; 朱振峰 ; 常冬霞 ; 赵耀 ; .融合全局与局部区域亮度的逆光图像增强算法.信号处理.2018,(第02期),全文. *

Also Published As

Publication number Publication date
CN113191956A (zh) 2021-07-30

Similar Documents

Publication Publication Date Title
CN113191956B (zh) 基于深度抠图的逆光图像增强方法
CN110148095B (zh) 一种水下图像增强方法及增强装置
Wang et al. Low-light image enhancement via the absorption light scattering model
Shi et al. Let you see in sand dust weather: A method based on halo-reduced dark channel prior dehazing for sand-dust image enhancement
CN112734650B (zh) 一种基于虚拟多曝光融合的不均匀光照图像增强方法
CN100568279C (zh) 一种基于Retinex理论的快速彩色图像增强方法
CN102789635B (zh) 一种图像增强方法和装置
US9396526B2 (en) Method for improving image quality
CN109658343B (zh) 结合颜色转换和自适应曝光的水下图像增强方法
CN112801896B (zh) 基于前景提取的逆光图像增强方法
CN109478316B (zh) 实时自适应阴影和高光增强
CN104091307A (zh) 基于反馈均值滤波的雾天图像快速复原方法
Yu et al. Adaptive inverse hyperbolic tangent algorithm for dynamic contrast adjustment in displaying scenes
CN115456905A (zh) 一种基于明暗区域分割的单幅图像去雾方法
CN114693548A (zh) 一种基于亮区域检测的暗通道去雾方法
Ye et al. Single exposure high dynamic range image reconstruction based on deep dual-branch network
Li et al. Soft binary segmentation-based backlit image enhancement
CN117611467A (zh) 一种能同时平衡不同区域细节和亮度的低光图像增强方法
CN117611501A (zh) 一种低照度图像增强方法、装置、设备及可读存储介质
Lee et al. Ramp distribution-based contrast enhancement techniques and over-contrast measure
CN108564534A (zh) 一种基于检索的图像对比度调整方法
CN114429426B (zh) 一种基于Retinex模型的低照度图像质量改善方法
Dixit et al. Image contrast optimization using local color correction and fuzzy intensification
CN114331925A (zh) 一种多尺度相对梯度直方图均衡化方法及装置
Subramani et al. Pixel intensity optimization and detail-preserving contextual contrast enhancement for underwater images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant