CN111179196A - 一种基于分而治之的多分辨率深度网络图像去高光方法 - Google Patents

一种基于分而治之的多分辨率深度网络图像去高光方法 Download PDF

Info

Publication number
CN111179196A
CN111179196A CN201911385343.3A CN201911385343A CN111179196A CN 111179196 A CN111179196 A CN 111179196A CN 201911385343 A CN201911385343 A CN 201911385343A CN 111179196 A CN111179196 A CN 111179196A
Authority
CN
China
Prior art keywords
image
highlight
network
size
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911385343.3A
Other languages
English (en)
Other versions
CN111179196B (zh
Inventor
陈华华
罗凌杰
郭春生
应娜
叶学义
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201911385343.3A priority Critical patent/CN111179196B/zh
Publication of CN111179196A publication Critical patent/CN111179196A/zh
Application granted granted Critical
Publication of CN111179196B publication Critical patent/CN111179196B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于分而治之的多分辨率深度网络图像去高光方法。本发明方法包括训练方法和测试方法。首先构建去高光网络模型,模型由金字塔结构、嵌套残差网络、融合结构组成。金字塔结构使用拉普拉斯金字塔对图像块进行分级,在不同层次上处理高光,嵌套残差网络中采用卷积网络以及残差网络提取不同级别图像块的特征,融合结构结合嵌套残差网络的输出对无高光图像进行预测。模型训练完成后,直接将测试图像分块并由模型预测无高光图像,最后对预测结果进行拼接即可得到无高光整图。本发明的模型结构能够实时高效地去除图像中的高光现象,并对色彩、纹理复杂的图像具有较大的适应性和较强的鲁棒性。

Description

一种基于分而治之的多分辨率深度网络图像去高光方法
技术领域
本发明属于数字图像处理技术领域,具体涉及一种基于分而治之的多分辨率深度网络图像去高光方法。
背景技术
在图像处理时,图像质量的好坏将直接影响图像处理的效果。然而,在实际工程应用中,由于成像条件受到各种物理、环境等因素的影响和限制,图像质量往往受到较大的影响。其中,高光现象是导致图像质量大幅下降的主要原因之一。与漫反射不同,高光分量所表示的并不是物体表面的色度信息,而是光源的色度信息,因此光照强度比漫反射分量要大的多。当物体表面出现高光时,人的视觉就会有刺眼的感觉,同时在高光的影响下,物体表面的颜色和纹理特征都会减弱甚至消失。这使得图像中大量有用的特征信息丢失,对运用计算机视觉方式处理图像带来了很大的干扰。在实际工程应用中,对获取的图像进行去高光,提高图像的质量,丰富图像的细节信息,是非常重要的一个环节,将直接影响图像后期的特征提取和目标检测识别。因此,越来越多的国内外学者也开始关注和研究图像中的高光问题。
在高光去除方面,己有的方法均存在一定程度的问题:(1)需要多幅多角度的图像,限制了其应用;(2)处理流程复杂,去高光步骤繁琐,实时性较弱。
发明内容
本发明的目的就是针对现有技术的不足,提供一种基于分而治之的多分辨率深度网络图像去高光方法。
本发明方法包括训练方法和测试方法。
所述的训练方法具体是:
步骤(1).构建去高光网络模型;所述的去高光网络模型包括金字塔结构、嵌套残差网络、融合结构;
所述的金字塔结构通过拉普拉斯金字塔对图像块进行分级并调整大小,输送给嵌套残差网络;嵌套残差网络中的残差子网络以分而治之的方式提取不同级别图像块的特征,并对特征进行整合输出;融合结构进一步处理嵌套残差网络提取到的特征,直接预测图像块的漫反射分量。
拉普拉斯金字塔将输入图像块Xblock分解为两个级别:一个是保留图像纹理以及结构信息的高频分量L1,一个是保留了低频成分和物体整体强度变化规律的低频图像块L2;输入图像块Xblock大小为16×16×3,计算得到L1的大小为16×16×3,L2的大小为8×8×3;L1=Xblock-upsample(L2),L2=Xblock*G(x,y);对L2进行下采样获得更低分辨率的图像块L3,L3=L2*G(x,y);upsample(·)表示上采样,G(x,y)为高斯核函数,(x,y)表示高斯核中元素的位置,x,y∈{0,1,2},*表示步长为2卷积操作。
嵌套残差网络以分而治之的方式提取不同级别图像块中的特征;L1支路中第一子网和L2支路中第二子网分别对L1、L2提取特征,两个子网都由5个残差块block1~block5依次组成,输出通道数分别为32、256、128、32和3;
每个残差块包含两个卷积模块层,每个卷积模块层包括一个卷积层和一个激活层;卷积层采用3×3大小卷积核,滑动步长为1,零边缘填充尺寸为1,激活层采用ReLU(rectified linear unit)函数;两个支路的输出尺寸分别和输入L1、L2一致;
L3支路中依次使用三个卷积模块层进行特征提取,每个卷积模块层包括一个卷积层和一个激活层。其中三个卷积层分别包括32个大小为3×3的卷积核、64个大小为3×3的卷积核、3个大小为3×3的卷积核,每个卷积核滑动步长为1,零边缘填充尺寸为1;激活层采用ReLU函数;
L3支路经三个卷积模块层后的输出尺寸与L3相同,经上采样后与L2支路输出相拼接,拼接值经ReLU函数后上采样,并和L1支路的输出相拼接,得到嵌套残差网络的输出,尺寸为16×16×9。
融合结构负责处理嵌套残差网络的输出并预测图像块的最大漫反射色度值,由激活层和卷积层组成;融合结构输入特征尺寸为16×16×9,激活层采用ReLU函数,卷积层采用大小为3×3的卷积核,滑动步长为1,零边缘填充尺寸为1,输出尺寸为16×16×3,即为预测的图像块。
步骤(2).训练去高光网络模型;
(2-1)对去高光网络模型中的所有权值采用正态分布进行初始化;
(2-2)构建训练数据集和验证数据集:收集高光图像和对应的无高光真值图像构建数据集,首先将所有图像分割为16×16大小图像块,相邻块之间重叠8像素宽度,得到图像块集合,从总数据集中随机选择图像块作为验证集,其余的块作为训练模型的训练数据集,选择作为验证集的图像块为总数据集中的20~50%。
(2-3)训练网络权值参数;
设定学习率为α,并对学习率使用指数衰减,每β次迭后将学习率衰减为原来的γ,并每S次迭代计算一次验证集损失,批尺寸大小为16或32;0.00001≤α≤0.0001,10000≤β≤30000,0.8≤γ≤0.9,5000≤S≤10000。
损失函数定义为:
Figure BDA0002343453810000031
n表示像素点总数,n=256,SSIM为结构相似性指数,
Figure BDA0002343453810000032
分别为无高光预测图和真值图,
Figure BDA0002343453810000033
分别为无高光预测图和真值图的第i个像素点值。
然后采用反向传播算法迭代更新网络中的所有权值参数;每迭代S_n次后判断当前模型预测输出与真值之间的Loss是否小于L_th:若小于L_th,则停止迭代,输出训练得到的目标检测模型及其对应参数;若大于等于L_th,则继续迭代训练;当总的迭代次数达到I_max次或Loss<L_th时,训练结束;5000≤S_n≤10000,5≤L_th≤10,700000≤I_max≤800000。
所述的测试方法具体是:
将测试图像X分块,得到图像块Xi,i=1,2,…,N,N为块的数目;相邻块之间重叠8像素宽度,大小为16×16,并逐块输入到模型当中,得到各个去高光以后的图像块;各图像块重组得到无高光图像:
Figure BDA0002343453810000034
Xi′、X′分别为去除高光后的图像块和整图,Mi为从带高光的整图中提取图像块Xi的标记矩阵,T表示转置。
本发明提供的基于分而治之的多分辨率深度网络的图像去高光方法,能够实时高效地去除图像中的高光现象,并对色彩、纹理复杂的图像具有较大的适应性和较强的鲁棒性。
具体实施方案
下面结合实例对本发明加以详细说明,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知的功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
一种基于分而治之的多分辨率深度网络图像去高光方法,包括训练方法和测试方法。
训练方法具体是:
步骤(1).构建去高光网络模型。去高光网络模型包括金字塔结构、嵌套残差网络、融合结构;
金字塔结构通过拉普拉斯金字塔对图像块进行分级并调整大小,输送给嵌套残差网络;嵌套残差网络中的残差子网络以分而治之的方式提取不同级别图像块的特征,并对特征进行整合输出;融合结构进一步处理嵌套残差网络提取到的特征,直接预测图像块的漫反射分量。
拉普拉斯金字塔将输入图像块Xblock分解为两个级别:一个是保留图像纹理以及结构信息的高频分量L1,一个是保留了低频成分和物体整体强度变化规律的低频图像块L2。输入图像块Xblock大小为16×16×3,计算得到L1的大小为16×16×3,L2的大小为8×8×3;L1=Xblock-upsample(L2),L2=Xblock*G(x,y);为了在低频分量上充分训练网络,对L2进行下采样获得更低分辨率的图像块L3,L3大小为4×4×3,L3=L2*G(x,y);upsample(·)表示上采样,G(x,y)为高斯核函数,(x,y)表示高斯核中元素的位置,x,y∈{0,1,2},*表示步长为2卷积操作。
嵌套残差网络以分而治之的方式提取不同级别图像块中的特征;L1支路中第一子网和L2支路中第二子网分别对L1、L2提取特征,两个子网都由5个残差块block1~block5依次组成,输出通道数分别为32、256、128、32和3。
每个残差块包含两个卷积模块层,每个卷积模块层包括一个卷积层和一个激活层;卷积层采用3×3大小卷积核,滑动步长为1,零边缘填充尺寸为1,激活层采用ReLU(rectified linear unit)函数;两个支路的输出尺寸分别和输入L1、L2一致。
L3支路中依次使用三个卷积模块层进行特征提取,每个卷积模块层包括一个卷积层和一个激活层。其中三个卷积层分别包括32个大小为3×3的卷积核、64个大小为3×3的卷积核、3个大小为3×3的卷积核,每个卷积核滑动步长为1,零边缘填充尺寸为1;激活层采用ReLU函数。
L3支路经三个卷积模块层后的输出尺寸与L3相同,经上采样后与L2支路输出相拼接,拼接值经ReLU函数后上采样,并和L1支路的输出相拼接,得到嵌套残差网络的输出,尺寸为16×16×9。
融合结构负责处理嵌套残差网络的输出并预测图像块的最大漫反射色度值,由激活层和卷积层组成;融合结构输入特征尺寸为16×16×9,激活层采用ReLU函数,卷积层采用大小为3×3的卷积核,滑动步长为1,零边缘填充尺寸为1,输出尺寸为16×16×3,即为预测的图像块。
步骤(2).训练去高光网络模型;
(2-1)对去高光网络模型中的所有权值采用正态分布进行初始化;具体地,使各层人工神经网络权值参数以正态分布初始化,正态分布的均值为零,方差大小为该层输入神经元数目与该层输出神经元数目之和的倒数的两倍。
(2-2)构建训练数据集和验证数据集;
收集高光图像和对应的无高光真值图像构建数据集,首先将所有图像分割为16×16大小图像块,相邻块之间重叠8像素宽度,得到图像块集合,从总数据集中随机选择图像块作为验证集,其余的块作为训练模型的训练数据集,选择作为验证集的图像块为总数据集中的20~50%,本实施例中采用30%。
(2-3)训练网络权值参数;
设定学习率为α,并对学习率使用指数衰减,每β次迭后将学习率衰减为原来的γ,并每S次迭代计算一次验证集损失,批尺寸大小为16或32,本实施例中批尺寸大小为16。设定0.00001≤α≤0.0001,10000≤β≤30000,0.8≤γ≤0.9,5000≤S≤10000。本实施例中,α=0.0001,β=20000次,γ=0.85,S=6000次。
损失函数定义为:
Figure BDA0002343453810000051
n表示像素点总数,n=256,SSIM为结构相似性指数,
Figure BDA0002343453810000061
分别为无高光预测图和真值图,
Figure BDA0002343453810000062
分别为无高光预测图和真值图的第i个像素点值。
然后采用反向传播算法迭代更新网络中的所有权值参数;每迭代S_n次后判断当前模型预测输出与真值之间的Loss是否小于L_th:若小于L_th,则停止迭代,输出训练得到的目标检测模型及其对应参数;若大于等于L_th,则继续迭代训练;当总的迭代次数达到I_max次或Loss<L_th时,训练结束。5000≤S_n≤10000,5≤L_th≤10,700000≤I_max≤800000。本实施例中S_n=8000次,L_th=6,当总的迭代次数达到I_max=750000或Loss<6时,训练结束。
测试方法具体是:
将大小为256×256测试图像X分块,得到图像块Xi,i=1,2,…,N,N为块的数目,N=961;相邻块之间重叠8像素宽度,大小为16×16。使用训练阶段训练好的模型对图像块逐块预测高光图像块的无高光图像,当所有图像块预测完毕时。各图像块重组得到无高光图像:
Figure BDA0002343453810000063
Xi′、X′分别为去除高光后的图像块和整图,Mi为从带高光的整图中提取图像块Xi的标记矩阵,T表示转置。

Claims (5)

1.一种基于分而治之的多分辨率深度网络图像去高光方法,包括训练方法和测试方法,其特征在于:
所述的训练方法具体是:
步骤(1).构建去高光网络模型;所述的去高光网络模型包括金字塔结构、嵌套残差网络、融合结构;
金字塔结构将输入图像块Xblock分解为两个级别:一个是保留图像纹理以及结构信息的高频分量L1,一个是保留了低频成分和物体整体强度变化规律的低频图像块L2;输入图像块Xblock大小为16×16×3,计算得到L1的大小为16×16×3,L2的大小为8×8×3;L1=Xblock-upsample(L2),L2=Xblock*G(x,y);对L2进行下采样获得更低分辨率的图像块L3,L3=L2*G(x,y);upsample(·)表示上采样,G(x,y)为高斯核函数,(x,y)表示高斯核中元素的位置,x,y∈{0,1,2},*表示步长为2卷积操作;
嵌套残差网络以分而治之的方式提取不同级别图像块中的特征;L1支路中第一子网和L2支路中第二子网分别对L1、L2提取特征,两个子网都由5个残差块block1~block5依次组成,输出通道数分别为32、256、128、32和3;
每个残差块包含两个卷积模块层,每个卷积模块层包括一个卷积层和一个激活层;卷积层采用3×3大小卷积核,滑动步长为1,零边缘填充尺寸为1,激活层采用ReLU函数;两个支路的输出尺寸分别和输入L1、L2一致;
L3支路中依次使用三个卷积模块层进行特征提取,每个卷积模块层包括一个卷积层和一个激活层;其中三个卷积层分别包括32个大小为3×3的卷积核、64个大小为3×3的卷积核、3个大小为3×3的卷积核,每个卷积核滑动步长为1,零边缘填充尺寸为1;激活层采用ReLU函数;
L3支路经三个卷积模块层后的输出尺寸与L3相同,经上采样后与L2支路输出相拼接,拼接值经ReLU函数后上采样,并和L1支路的输出相拼接,得到嵌套残差网络的输出,尺寸为16×16×9;
融合结构处理嵌套残差网络的输出并预测图像块的最大漫反射色度值,由激活层和卷积层组成;融合结构输入特征尺寸为16×16×9,激活层采用ReLU函数,卷积层采用大小为3×3的卷积核,滑动步长为1,零边缘填充尺寸为1,输出尺寸为16×16×3,即为预测的图像块;
步骤(2).训练去高光网络模型;
(2-1)对去高光网络模型中的所有权值采用正态分布进行初始化;
(2-2)构建训练数据集和验证数据集:收集高光图像和对应的无高光真值图像构建数据集,首先将所有图像分割为16×16大小图像块,相邻块之间重叠8像素宽度,得到图像块集合,从总数据集中随机选择图像块作为验证集,其余的块作为训练模型的训练数据集;
(2-3)训练网络权值参数;
设定学习率为α,并对学习率使用指数衰减,每β次迭后将学习率衰减为原来的γ,并每S次迭代计算一次验证集损失,批尺寸大小为16或32;损失函数定义为:
Figure FDA0002343453800000021
n表示像素点总数,n=256,SSIM为结构相似性指数,
Figure FDA0002343453800000022
分别为无高光预测图和真值图,
Figure FDA0002343453800000023
分别为无高光预测图和真值图的第i个像素点值;
然后采用反向传播算法迭代更新网络中的所有权值参数;每迭代S_n次后判断当前模型预测输出与真值之间的Loss是否小于L_th:若小于L_th,则停止迭代,输出训练得到的目标检测模型及其对应参数;若大于等于L_th,则继续迭代训练;当总的迭代次数达到I_max次或Loss<L_th时,训练结束;
所述的测试方法具体是:
将测试图像X分块,得到图像块Xi,i=1,2,…,N,N为块的数目;相邻块之间重叠8像素宽度,大小为16×16,并逐块输入到模型当中,得到各个去高光以后的图像块;各图像块重组得到无高光图像:
Figure FDA0002343453800000031
X′i、X′分别为去除高光后的图像块和整图,Mi为从带高光的整图中提取图像块Xi的标记矩阵,T表示转置。
2.如权利要求1所述的一种基于分而治之的多分辨率深度网络图像去高光方法,其特征在于:所述的金字塔结构通过拉普拉斯金字塔对图像块进行分级并调整大小,输送给嵌套残差网络;嵌套残差网络中的残差子网络以分而治之的方式提取不同级别图像块的特征,并对特征进行整合输出;融合结构进一步处理嵌套残差网络提取到的特征,直接预测图像块的漫反射分量。
3.如权利要求1所述的一种基于分而治之的多分辨率深度网络图像去高光方法,其特征在于:(2-2)中作为验证集随机选择的图像块为总数据集中图像块的20~50%。
4.如权利要求1所述的一种基于分而治之的多分辨率深度网络图像去高光方法,其特征在于:(2-3)中,0.00001≤α≤0.0001,10000≤β≤30000,0.8≤γ≤0.9,5000≤S≤10000。
5.如权利要求1所述的一种基于分而治之的多分辨率深度网络图像去高光方法,其特征在于:(2-3)中,5000≤S_n≤10000,5≤L_th≤10,700000≤I_max≤800000。
CN201911385343.3A 2019-12-28 2019-12-28 一种基于分而治之的多分辨率深度网络图像去高光方法 Active CN111179196B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911385343.3A CN111179196B (zh) 2019-12-28 2019-12-28 一种基于分而治之的多分辨率深度网络图像去高光方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911385343.3A CN111179196B (zh) 2019-12-28 2019-12-28 一种基于分而治之的多分辨率深度网络图像去高光方法

Publications (2)

Publication Number Publication Date
CN111179196A true CN111179196A (zh) 2020-05-19
CN111179196B CN111179196B (zh) 2023-04-18

Family

ID=70655831

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911385343.3A Active CN111179196B (zh) 2019-12-28 2019-12-28 一种基于分而治之的多分辨率深度网络图像去高光方法

Country Status (1)

Country Link
CN (1) CN111179196B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709886A (zh) * 2020-05-27 2020-09-25 杭州电子科技大学 一种基于u型空洞残差网络的图像去高光方法
CN112465835A (zh) * 2020-11-26 2021-03-09 深圳市对庄科技有限公司 用于翡翠图像分割的方法及模型训练方法
CN113345444A (zh) * 2021-05-07 2021-09-03 华中师范大学 一种说话者确认方法及系统
CN114548153A (zh) * 2022-01-21 2022-05-27 电子科技大学 基于残差-胶囊网络的行星齿轮箱故障诊断方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107103590A (zh) * 2017-03-22 2017-08-29 华南理工大学 一种基于深度卷积对抗生成网络的图像反射去除方法
US20180047208A1 (en) * 2016-08-15 2018-02-15 Aquifi, Inc. System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
US20180134127A1 (en) * 2016-11-14 2018-05-17 Google Llc Adaptive glare removal and/or color correction
CN108596062A (zh) * 2018-04-12 2018-09-28 清华大学 基于深度学习的人脸图片实时高光去除方法及装置
CN108764250A (zh) * 2018-05-02 2018-11-06 西北工业大学 一种运用卷积神经网络提取本质图像的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180047208A1 (en) * 2016-08-15 2018-02-15 Aquifi, Inc. System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
US20180134127A1 (en) * 2016-11-14 2018-05-17 Google Llc Adaptive glare removal and/or color correction
CN107103590A (zh) * 2017-03-22 2017-08-29 华南理工大学 一种基于深度卷积对抗生成网络的图像反射去除方法
CN108596062A (zh) * 2018-04-12 2018-09-28 清华大学 基于深度学习的人脸图片实时高光去除方法及装置
CN108764250A (zh) * 2018-05-02 2018-11-06 西北工业大学 一种运用卷积神经网络提取本质图像的方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
FAN Q ET AL.: "《A generic deep architecture for single image reflection removal and image smoothing》" *
HUAIDONG ZHANG: "《Fast User-Guided Single Image Reflection Removal via Edge-Aware Cascaded Networks》" *
XUEYANG FU: "《Light weight Pyramid Networks for image deraining》" *
周乐: "《基于对抗生成网络的反射去除算法》" *
高如新 等: "《双边滤波的改进高光去除》" *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709886A (zh) * 2020-05-27 2020-09-25 杭州电子科技大学 一种基于u型空洞残差网络的图像去高光方法
CN111709886B (zh) * 2020-05-27 2023-04-18 杭州电子科技大学 一种基于u型空洞残差网络的图像去高光方法
CN112465835A (zh) * 2020-11-26 2021-03-09 深圳市对庄科技有限公司 用于翡翠图像分割的方法及模型训练方法
CN113345444A (zh) * 2021-05-07 2021-09-03 华中师范大学 一种说话者确认方法及系统
CN113345444B (zh) * 2021-05-07 2022-10-28 华中师范大学 一种说话者确认方法及系统
CN114548153A (zh) * 2022-01-21 2022-05-27 电子科技大学 基于残差-胶囊网络的行星齿轮箱故障诊断方法

Also Published As

Publication number Publication date
CN111179196B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN108986050B (zh) 一种基于多分支卷积神经网络的图像和视频增强方法
CN111179196B (zh) 一种基于分而治之的多分辨率深度网络图像去高光方法
CN108921799B (zh) 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法
CN111292264B (zh) 一种基于深度学习的图像高动态范围重建方法
CN105657402B (zh) 一种深度图恢复方法
CN103942758B (zh) 基于多尺度融合的暗通道先验图像去雾方法
CN111754446A (zh) 一种基于生成对抗网络的图像融合方法、系统及存储介质
Alilou et al. Application of GRNN neural network in non-texture image inpainting and restoration
CN110675336A (zh) 一种低照度图像增强方法及装置
Gao et al. Single image dehazing via self-constructing image fusion
CN111476213A (zh) 一种基于道路影像的遮挡物覆盖区域填充方法和装置
CN113962878B (zh) 一种低能见度图像去雾模型方法
CN111951172A (zh) 一种图像优化方法、装置、设备和存储介质
CN113284061B (zh) 一种基于梯度网络的水下图像增强方法
CN115063318A (zh) 自适应频率分解的低光照图像增强方法与相关设备
CN114627035A (zh) 一种多聚焦图像融合方法、系统、装置及存储介质
Dwivedi et al. Single image dehazing using extended local dark channel prior
CN113160286A (zh) 一种基于卷积神经网络的近红外和可见光图像融合方法
CN117114984A (zh) 基于生成对抗网络的遥感图像超分辨率重建方法
CN116362998A (zh) 图像增强装置、方法、电子设备和存储介质
CN114881879A (zh) 一种基于亮度补偿残差网络的水下图像增强方法
Song et al. A single image dehazing method based on end-to-end cpad-net network in deep learning environment
Goncalves et al. Guidednet: Single image dehazing using an end-to-end convolutional neural network
Deng et al. UCT‐GAN: underwater image colour transfer generative adversarial network
CN116703750A (zh) 基于边缘注意力和多阶微分损失的图像去雾方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant