CN113222875A - 一种基于色彩恒常性的图像和谐化合成方法 - Google Patents
一种基于色彩恒常性的图像和谐化合成方法 Download PDFInfo
- Publication number
- CN113222875A CN113222875A CN202110610246.0A CN202110610246A CN113222875A CN 113222875 A CN113222875 A CN 113222875A CN 202110610246 A CN202110610246 A CN 202110610246A CN 113222875 A CN113222875 A CN 113222875A
- Authority
- CN
- China
- Prior art keywords
- image
- color
- light source
- network model
- synthetic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001308 synthesis method Methods 0.000 title claims abstract description 9
- 238000000034 method Methods 0.000 claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 15
- 230000007246 mechanism Effects 0.000 claims abstract description 11
- 238000013135 deep learning Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims description 26
- 239000002131 composite material Substances 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 19
- 230000015572 biosynthetic process Effects 0.000 claims description 14
- 238000003786 synthesis reaction Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 230000016776 visual perception Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 2
- 239000003086 colorant Substances 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010367 cloning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000035772 mutation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012411 cloning technique Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000010189 synthetic method Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于色彩恒常性的图像和谐化合成方法,包括:将基于深度学习的粗调整网络模型和引入注意力机制的精细调整网络模型组成整体对抗生成网络,训练数据为包含成对真实图像和合成图像的公开图像数据集;以待调整的合成图像为原输入图像,获取灰度信息输入到粗调整网络模型中,输出图像光源色度的影响权重并据此估算光源颜色信息,对前景区域进行基于色彩平衡的调整得到粗糙和谐化的合成结果;利用精细调整网络模型,将粗调整的合成图像和对应掩码图通过转换相似的域特征得到色彩和谐的合成结果;通过高斯泊松方法结合精细调整的合成图像的颜色低频特征和原输入图像的梯度信息,共同优化生成和谐化合成图像。
Description
技术领域
本发明涉及图像编辑技术领域,具体涉及一种基于色彩恒常性的图像和谐化合成方法。
背景技术
图像处理技术已逐渐被广泛应用于各个领域,其中最为常见的表现形式是在文化艺术方面的应用,为了进一步提高图像作品的品质,常通过后期对于视觉效果不佳的图像进行“再创作”。日常生活中用户借助于相关软件如Photoshop、美图秀秀等进行图像创作,而电影广告等场景获取图像时会考虑采用“绿幕”等技术手段便于后期处理。将感兴趣的目标物体与已知的新背景图像进行融合时,为减轻人工处理的负担,人们提出了相关的图像抠图与合成技术来满足各类图像编辑的需求。
在不考虑图像风格变化的前提下,为减少直接合成图像的违和感,自动化生成批量的视觉一致的合成图像,图像合成技术常侧重于考虑视觉效果的协调性,包括边缘细节、整体视觉特征等方面进行改进。
减少合成图像的边缘突变,通常依赖于精确的抠图结果,在无法满足时,较常见的是采用基于梯度域的无缝克隆技术,如经典的泊松克隆算法(Poisson Cloning)。随着深度学习的发展和应用,Wu等人(Gp-gan:Towards realistic high-resolution imageblending.Proceedings of the 27th ACM International Conference on Multimedia,(2019),2487-2495)提出了一种改进的高斯泊松生成对抗网络算法,联合优化梯度信息和颜色信息,减少合成图像的伪影,以生成视觉效果自然的合成图像。这个方法利用网络训练进行图像色彩处理辅以传统算法进行边缘突变处理,但其限制在于需要提供完整且风格差距较小的源图像和背景图像。
对于前景区域冗余无法获取准确掩码的情况,图像合成的目标就在于同时提高源图像和目标图像的空间一致性和颜色一致性。除了上述图像无缝融合技术,另一类最有效的方法之一就是在视觉特征(如亮度,颜色,纹理,风格等不同方面)上对前景进行调整。Zhu等人(Learning adiscriminative model for the perception of realism incomposite images.Proceedings of the IEEE International Conference on ComputerVision,(2015)3943-3951)提出从判断合成图像的真实性入手,训练了CNN网络模型学习根据颜色、光照和纹理的兼容性用于预测评估合成图像的视觉真实感,通过优化预测的真实感分数以确定模型参数,从而调整图像前景区域的颜色。该方法虽然无法完美区分夸张的真实图和自然的合成图,但不需要附加注释,对于评估图像的真实感判断也有一定的准确性。
Tsai等(Deep image harmonization.Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition,(2017),3789-3797)提出了第一个端到端的卷积神经网络来直接生成协调图像,另外使用了额外的分割分支捕获合成图像的上下文和语义信息,并提出了一个图像转换的方法为图像协调工作提供了大量图像数据。DoveNet:Deep Image Harmonization via Domain Verification.Proceedings of the IEEE/CVFConference on Computer Vision and Pattern Recognition,(2020),8394-8403.这一工作公开提供了高质量的合成图像训练数据集,提出添加一个注意力模块来学习转换前景和背景的域特征的方案,完成自动化的图像色彩和谐处理。上述的相关论文工作都充分利用深度学习的优势批量获取合成效果更色彩和谐自然的结果,但也会存在少数图像边缘处的合成痕迹明显,整体效果有待进一步加强。
另外,使用光源信息等进行仅二维层面上的图像和谐调整处理难度较大,受到限制较多。相对常见的是图像白平衡处理,其借助对图像整体光源色彩的估计,将图像恢复至正常白光状态下,但很少被引入图像合成的相关工作中。
发明内容
为了减少目标物体与新背景图像融合时存在的违和感,特别是针对前景、背景色彩不和谐的问题,得以自动化实现批量的和谐自然的合成结果,本发明提供了基于色彩恒常性校正的图像和谐化合成方法。对于给定的简单的复制粘贴合成图像,即待调整的合成图像,该方法可生成清晰自然的和谐图像结果。
一种基于色彩恒常性的图像和谐化合成方法,包括步骤:
S1、将基于深度学习的粗调整网络模型和引入注意力机制的精细调整网络模型组成整体对抗生成网络,训练数据为包含成对真实图像和合成图像的公开图像数据集;
S2、以待调整的合成图像作为原输入图像,获取灰度信息输入到训练好的基于深度学习的粗调整网络模型中,输出图像光源色度的影响权重;
S3、依据输出的图像光源色度的影响权重估算光源颜色信息,对原输入图像的前景区域进行基于色彩平衡的调整以生成粗糙和谐化的合成结果,得到粗调整后的合成图像;
S4、利用训练好的引入注意力机制的精细调整网络模型,将粗调整后的合成图像和对应的掩码图通过转换相似的域特征得到色彩和谐的合成结果,得到精细调整后的合成图像;
S5、通过高斯泊松方法结合精细调整后的合成图像的颜色低频特征和原输入图像的梯度信息,共同优化生成高分辨率的、视觉感知具有一致性的和谐化合成图像。
步骤S1中:
粗调整网络模型以U-Net的网络结构为基础,最后的反卷积操作Sigmoid产生图像光源色度的影响权重;粗调整网络模型预估图像光源色度进行基于色彩恒常性的区域调整,在重建损失函数基础上添加光源色差估计的损失函数Lc:
其中,ε=10-6,由合成图像估算的图像场景光源表示为Ic_process=(II,Ig,Ib),由真实图像估算的图像场景光源表示为Ic_gt=(Ir_gt,Ig_gt,Ib_gt),Ir、Ig、Ib、Ir_gt、Ig_gt、Ib_gt分别代表RGB图像相应R、G、B通道的数值。
步骤S1中:
精细调整网络模型以U-Net的网络结构为基础,引入注意力机制进行空间注意映射,具体地,在对应的编码解码特征结构上应用1×1的卷积运算和Sigmoid激活作为单个注意模块,串联至后续的模块中;
精细调整网络模型是像素化调整的域处理模块,输入粗调整后的合成图像,输出精细调整后的合成图像,采用部分卷积的结果提取合成图像的前景区域、背景区域的域特征表示,在训练时作为判别损失的一部分进行网络优化。
步骤S1中:整体对抗生成网络的判别器部分由传统的GAN相似的全局判别器和基于域特征的判别器组成,基于域特征的判别器采用部分卷积层堆叠的结构分别提取前景区域和背景区域的域特征表示,添加域相似性的损失函数,具体的:
每个像素位置p的部分卷积表示为公式:
其中,X是当前滑动窗口的特征值,M为掩码信息,W和b为参数,使用逐元素乘法处理;在每个部分卷积层和ReLU或LeakyReLU层之间使用批量归一化层,最后得到一维的域特征表示,用于判别器的损失计算进行网络优化;
基于域特征的判别器,分别对真实图像和精细调整网络模型输出的合成图像进行操作,利用二值掩码分别处理前景区域和背景区域,在获取前景区域的域特征表示lf和背景区域的域特征表示lb之后,计算域相似性Dv(I,M)=lf·lb,其损失函数表示为:
步骤S2具体包括步骤:
S21、以固定位置的前景区域和背景区域组成待调整的合成图像,引入伽马校正调整至线性RGB空间,提取灰度信息并进行直方图均衡化处理;
S22、将灰度信息输入至粗调整网络模型中得到图像光源色度的影响权重。
步骤S3中:
以图像场景光源IG代替前景区域的光源色度,简化比对关系对前景区域进行颜色恒常性计算和调整,具体如下式:
其中,c表示RGB图像的某颜色通道,Irgb表示原输入图像的像素颜色信息,I′rgb表示粗调整后的合成图像的像素颜色信息,IB为结合背景区域的像素占比估算得到的光源色度。
图像场景光源的计算近似简化为输入图像的加权和来表示,图像分辨率为H×W,其网络输出的权重映射为w,Z表示对向量进行归一化处理,计算图像场景光源IG的公式为:
x表示输入图像的像素信息。
步骤S5具体包括步骤:
S51、对原输入图像的前景区域和背景区域分别进行拓展处理:利用掩码二值获取前景区域或背景区域,对前景区域或背景区域颜色部分重复依次进行膨胀、原内容覆盖、高斯模糊羽化操作;
S52、对拓展处理后的原输入图像提取梯度信息,对精细调整后的合成图像提取颜色低频特征,组成高斯泊松方程优化目标函数,求得高分辨率的、视觉感知具有一致性的和谐化合成图像;
以Ih表示和谐化合成图像,Ix表示原输入图像,需要优化的目标函数由下式表示,α、β为约束系数:
H(Ih)=αP(Ih)+βC(Ih)
其中,P(Ih)表示梯度约束,基于泊松融合的变形,如下式所示:
对于整幅图像而言,i表示逐像素,divv表示散度的计算,在不同的区域前景区域、背景区域均分别进行计算,L表示使用拉普拉斯算子操作;
C(Ih)表示颜色约束,基于精细调整网络模型输出的结果,高斯滤波G提取的颜色低频特征G(Ih)与精细调整后的合成图像的颜色低频特征Net(Ix)尽量保持一致,如下式所示:
S53、对得到的结果上采样,重复步骤S51、S52直至达到相应的处理次数,得到原分辨率下的高清的和谐化合成图像。
S2-S5的操作适用于S1训练的过程。
本发明与现有技术相比,主要优点包括:
1、本发明提供的基于色彩恒常性的图像和谐化合成方法是一种基于色彩恒常性校正的图像协调方法,从全局的光源环境和像素层面的域特征权衡合成图像的前景色彩优化,兼顾场景光源、局部颜色明暗片段等影响,生成视觉一致的合成图像。适用于前背景区域光源信息存在差异的图像合成等图像编辑应用中。
2、本发明在仅含有待调整的合成图像和掩码图的条件下,融合和谐化网络对图像视觉特征调整的优势,提高合成图像的清晰度,明显保留细节信息,满足实际应用中对大尺寸图像处理的需求。
附图说明
图1为本发明提供的基于色彩恒常性的图像和谐化合成方法的具体流程示意图;
图2为本发明提供的整体对抗生成网络模型的流程示意图(包括基于色彩恒常性校正的粗调整模块和基于域处理的精细图像和谐模块)。
具体实施方式
下面结合附图及具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。下列实施例中未注明具体条件的操作方法,通常按照常规条件,或按照制造厂商所建议的条件。
如图1所示,本发明的基于色彩恒常性的图像和谐化合成方法,包括步骤:
S1、将基于深度学习的粗调整网络模型和引入注意力机制的精细调整网络模型组成整体对抗生成网络,训练数据为包含成对真实图像和合成图像的公开图像数据集;
S2、以待调整的合成图像作为原输入图像,获取灰度信息输入到训练好的基于深度学习的粗调整网络模型中,输出图像光源色度的影响权重;
S3、依据输出的图像光源色度的影响权重估算光源颜色信息,对原输入图像的前景区域进行基于色彩平衡的调整以生成粗糙和谐化的合成结果,得到粗调整后的合成图像;
S4、利用训练好的引入注意力机制的精细调整网络模型,将粗调整后的合成图像和对应的掩码图通过转换相似的域特征得到色彩和谐的合成结果,得到精细调整后的合成图像;
S5、通过高斯泊松方法结合精细调整后的合成图像的颜色低频特征和原输入图像的梯度信息,共同优化生成高分辨率的、视觉感知具有一致性的和谐化合成图像。
下面涉及的S2-S5的具体操作适用于S1训练的过程。
步骤S2和S3组成的是基于颜色恒常性校正的粗调整模块。首先,该网络模型结构是一个U形的使用跳跃式连接的编码解码结构,其由多个4×4卷积核和步长为2的卷积模块组成编码器部分,由类似的成对的反卷积层组成解码器的主要部分。在每个卷积块操作之后,添加BatchNorm归一化以降低数据之间的绝对差异,也添加激活函数ReLU加快训练速度。在最后一次反卷积的操作使用Sigmoid方法产生输出的权重结果。
该网络的输入是待调整的合成图像的灰度信息,其分辨率设为256×256。以固定位置的前景对象和另一背景图像组成的合成图像,引入伽马校正进行调整至线性RGB空间处理图像,提取图像的灰度信息并进行直方图均衡化处理。
该网络的输出是光源色度的影响权重。合成图像的前景、背景区域分别简化为单一的光源影响,图像场景光源的计算可以近似简化为输入图像的加权和来表示,图像分辨率为H×W,其网络输出的权重映射为w,Z表示对向量进行归一化处理,计算场景光源IG的公式为:
以全局光源IG代替前景区域的光源色度,背景区域估算的光源色度IB考虑掩码信息对应背景区域的像素占比结,简化比对关系对前景区域进行颜色恒常性计算和调整,具体如下式:
其中,c表示RGB图像的某颜色通道,Irgb表示原图像像素颜色信息,I′rgb表示调整后的像素信息。经过处理后,合成图像的前景区域进行区域映射的粗糙调整。
步骤S4在获取上述步骤的粗调整的合成结果后结合掩码信息进行基于像素层面的图像色彩和谐化处理。首先,所述的精细调整网络模型以U-Net的网络结构为基础结构,采用8个下采样卷积模块,跳跃连接对应7个反卷积模块,最后三个反卷积层后分别串联注意力模块至后续网络中。
注意力机制可认为是一种资源分配机制,其将对应的编码结构与解码结构的特征串联起来,对相应位置的特征求加权和,并以此根据响应。在串联的编码解码特征上应用1×1的卷积运算,进行Sigmoid激活。因输入时使用了掩码信息,添加的注意力模块可以自动利用掩码信息对特征的前景区域和背景区域区别关注。
步骤S1是合成图像对基于色彩恒常性的粗调整和基于域判别的精细调整的综合性阐述,整体的网络模型处理流程在训练阶段如图2所示,实际应用阶段图像无需通过判别网络。
整体网络模型是一个较为复杂的对抗生成网络,其生成网络主要由两个模块组成,即粗调整网络和精细调整网络模型。前半部分预估光源色度进行基于色彩恒常性的区域调整,添加光源色差估计的损失函数Lc以角度余弦值表示,如下定义:
其中,合成图像估算全局场景光源表示为Ic_process=(Ir,Ig,Ib),真实图像结合估算此时的场景光源表示为Ic_gt=(Ir_gt,Ig_gt,Ib_gt)。另外,考虑最常见的结果对比的重建损失函数。
后半部分是像素化调整的域处理模块,输入粗调整后的中间结果,输出和谐化的结果图像,训练使用重建损失函数以进行优化。
判别网络部分由传统的GAN相似的全局判别器和基于域特征的判别器组成。全局判别器Dg与传统的GAN和Pix2Pix图像翻译技术类似,利用铰链损失函数来稳定训练,由下式给出:
域(Domain)的概念比较抽象和宽泛,在图像合成技术中,对于合成图像来说前景区域与背景图像在不同的条件下形成的,分别具有独特的风格、颜色、光照效果等,把每一种不同条件组合的场景情况称为一个域。
为了提取前景和背景的域表示,特征提取利用由部分卷积层堆叠而成,只对指定的掩码区域的特征进行卷积提取等处理。每个像素位置p的部分卷积可以表示为公式:
其中,X是当前滑动窗口的特征值,M为相应二进制掩码,W和b为参数,使用逐元素乘法处理。在每个部分卷积层和ReLU或LeakyReLU层之间使用批量归一化层,最后得到一维的域信息表示用于判别器的损失计算进行网络优化。
而基于域验证的判别器,分别对真实图像和输出的合成图像进行操作,利用二值掩码分别处理前景区域和背景区域,在获取域表示lf和lb之后,计算域相似性Dv(I,M)=lf·lb,其损失函数可以表示为:
通过最小化色差损失、重建损失、域损失组成的总损失函数以训练生成器时,期望生成的图像可以欺骗判别器Dg,表明图像更具真实性,也可以欺骗Dv获得高分,表明通过匹配前景域和背景域,生成的图像更具兼容性,使得前景背景区域更为和谐。
整个过程的训练图像数据集参见DoveNet:Deep Image Harmonization viaDomain Verification.Proceedings of the IEEE/CVF Conference on Computer Visionand Pattern Recognition,(2020),8394-8403.,由成对的合成图像和真实图像组成训练数据,且每对图像数据仅在前景区域存在视觉感知上的差异,不存在语义差异。
步骤S5针对S4网络模型输出结果的和谐化色彩信息和原输入图像的梯度信息共同优化高斯泊松方程,以求恢复至原分辨率大小的合成图像保留清晰细节和和谐自然的视觉效果。
为减少边缘处的伪影,对原输入图像的前景区域和背景区域分别进行拓展处理;拓展流程为利用掩码二值获取背景为空白的前景区域,对该区域颜色部分重复依次进行膨胀、原内容覆盖、高斯模糊羽化等操作,具体一次流程用以下公式表示:
Ief=fblur((1-xmask)(ferode(If))+xmaskIf).#式(12)
其中,Ief表示拓展后的前景结果,If表示原前景图像区域的内容,xmask表示相应掩码信息,f表示膨胀、高斯模糊等操作。重复迭代合适的次数,在拓宽边缘区域的同时,更多保留清晰的内部信息,以选取理想的效果。背景区域操作亦然。
对拓展处理后的原输入图像提取梯度信息,对精细调整后的合成图像提取颜色低频特征,组成高斯泊松方程优化目标函数,求得高分辨率的视觉感知具有一致性的合成图像。以Ih表示和谐化合成图像,Ix表示原输入图像,需要优化的目标函数由下式表示,αβ为约束系数:
H(Ih)=αP(Ih)+βC(Ih).#式(4)
其中,P(Ih)表示梯度约束基于泊松融合的变形,如下式所示:
对于整幅图像而言,i表示逐像素,v表示梯度的计算,在不同的区域前、背景处分别计算,L表示使用拉普拉斯算子操作。
而C(Ih)颜色约束基于网络模型输出的结果,高斯滤波G提取的低频颜色信息与网络调整Net结果的颜色特征尽量保持一致,如下式所示:
对处理后的结果上采样,重复图像拓展和高斯混合一定的处理次数,直至最终达到原始分辨率下的高清和谐图像。
此外应理解,在阅读了本发明的上述描述内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
Claims (8)
1.一种基于色彩恒常性的图像和谐化合成方法,其特征在于,包括步骤:
S1、将基于深度学习的粗调整网络模型和引入注意力机制的精细调整网络模型组成整体对抗生成网络,训练数据为包含成对真实图像和合成图像的公开图像数据集;
S2、以待调整的合成图像作为原输入图像,获取灰度信息输入到训练好的基于深度学习的粗调整网络模型中,输出图像光源色度的影响权重;
S3、依据输出的图像光源色度的影响权重估算光源颜色信息,对原输入图像的前景区域进行基于色彩平衡的调整以生成粗糙和谐化的合成结果,得到粗调整后的合成图像;
S4、利用训练好的引入注意力机制的精细调整网络模型,将粗调整后的合成图像和对应的掩码图通过转换相似的域特征得到色彩和谐的合成结果,得到精细调整后的合成图像;
S5、通过高斯泊松方法结合精细调整后的合成图像的颜色低频特征和原输入图像的梯度信息,共同优化生成高分辨率的、视觉感知具有一致性的和谐化合成图像。
3.根据权利要求1或2所述的基于色彩恒常性的图像和谐化合成方法,其特征在于,步骤S1中:
精细调整网络模型以U-Net的网络结构为基础,引入注意力机制进行空间注意映射,具体地,在对应的编码解码特征结构上应用1×1的卷积运算和Sigmoid激活作为单个注意模块,串联至后续的模块中;
精细调整网络模型是像素化调整的域处理模块,输入粗调整后的合成图像,输出精细调整后的合成图像,采用部分卷积的结果提取合成图像的前景区域、背景区域的域特征表示,在训练时作为判别损失的一部分进行网络优化。
4.根据权利要求3所述的基于色彩恒常性的图像和谐化合成方法,其特征在于,步骤S1中:整体对抗生成网络的判别器部分由传统的GAN相似的全局判别器和基于域特征的判别器组成,基于域特征的判别器采用部分卷积层堆叠的结构分别提取前景区域和背景区域的域特征表示,添加域相似性的损失函数,具体的:
每个像素位置p的部分卷积表示为公式:
其中,X是当前滑动窗口的特征值,M为掩码信息,W和b为参数,使用逐元素乘法处理;在每个部分卷积层和ReLU或LeakyReLU层之间使用批量归一化层,最后得到一维的域特征表示,用于判别器的损失计算进行网络优化;
基于域特征的判别器,分别对真实图像和精细调整网络模型输出的合成图像进行操作,利用二值掩码分别处理前景区域和背景区域,在获取前景区域的域特征表示lf和背景区域的域特征表示lb之后,计算域相似性Dv(I,M)=lf·lb,其损失函数表示为:
5.根据权利要求1所述的基于色彩恒常性的图像和谐化合成方法,其特征在于,步骤S2具体包括步骤:
S21、以固定位置的前景区域和背景区域组成待调整的合成图像,引入伽马校正调整至线性RGB空间,提取灰度信息并进行直方图均衡化处理;
S22、将灰度信息输入至粗调整网络模型中得到图像光源色度的影响权重。
8.根据权利要求1所述的基于色彩恒常性的图像和谐化合成方法,其特征在于,步骤S5具体包括步骤:
S51、对原输入图像的前景区域和背景区域分别进行拓展处理:利用掩码二值获取前景区域或背景区域,对前景区域或背景区域颜色部分重复依次进行膨胀、原内容覆盖、高斯模糊羽化操作;
S52、对拓展处理后的原输入图像提取梯度信息,对精细调整后的合成图像提取颜色低频特征,组成高斯泊松方程优化目标函数,求得高分辨率的、视觉感知具有一致性的和谐化合成图像;
以Ih表示和谐化合成图像,Ix表示原输入图像,需要优化的目标函数由下式表示,α、β为约束系数:
H(Ih)=αP(Ih)+βC(Ih)
其中,P(Ih)表示梯度约束,基于泊松融合的变形,如下式所示:
对于整幅图像而言,i表示逐像素,div v表示散度的计算,在不同的区域前景区域、背景区域均分别进行计算,L表示使用拉普拉斯算子操作;
C(Ih)表示颜色约束,基于精细调整网络模型输出的结果,高斯滤波G提取的颜色低频特征G(Ih)与精细调整后的合成图像的颜色低频特征Net(Ix)尽量保持一致,如下式所示:
S53、对得到的结果上采样,重复步骤S51、S52直至达到相应的处理次数,得到原分辨率下的高清的和谐化合成图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110610246.0A CN113222875B (zh) | 2021-06-01 | 2021-06-01 | 一种基于色彩恒常性的图像和谐化合成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110610246.0A CN113222875B (zh) | 2021-06-01 | 2021-06-01 | 一种基于色彩恒常性的图像和谐化合成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113222875A true CN113222875A (zh) | 2021-08-06 |
CN113222875B CN113222875B (zh) | 2022-06-21 |
Family
ID=77082445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110610246.0A Active CN113222875B (zh) | 2021-06-01 | 2021-06-01 | 一种基于色彩恒常性的图像和谐化合成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113222875B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113870371A (zh) * | 2021-12-03 | 2021-12-31 | 浙江霖研精密科技有限公司 | 基于生成对抗网络的图片颜色变换装置、方法和存储介质 |
CN115436881A (zh) * | 2022-10-18 | 2022-12-06 | 兰州大学 | 一种定位方法、系统、计算机设备及可读存储介质 |
CN116012258A (zh) * | 2023-02-14 | 2023-04-25 | 山东大学 | 一种基于循环生成对抗网络的图像和谐化方法 |
CN117522717A (zh) * | 2024-01-03 | 2024-02-06 | 支付宝(杭州)信息技术有限公司 | 一种图像的合成方法、装置及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110021051A (zh) * | 2019-04-01 | 2019-07-16 | 浙江大学 | 一种基于生成对抗网络通过文本指导的人物图像生成方法 |
CN110111280A (zh) * | 2019-05-06 | 2019-08-09 | 平顶山学院 | 一种多尺度梯度域引导滤波的低照度图像增强算法 |
CN110264456A (zh) * | 2019-06-19 | 2019-09-20 | 安徽大学 | 一种基于深度学习的足底压力图像配准方法 |
US20190333198A1 (en) * | 2018-04-25 | 2019-10-31 | Adobe Inc. | Training and utilizing an image exposure transformation neural network to generate a long-exposure image from a single short-exposure image |
WO2020263541A1 (en) * | 2019-06-28 | 2020-12-30 | Microsoft Technology Licensing, Llc | Portrait editing and synthesis |
-
2021
- 2021-06-01 CN CN202110610246.0A patent/CN113222875B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190333198A1 (en) * | 2018-04-25 | 2019-10-31 | Adobe Inc. | Training and utilizing an image exposure transformation neural network to generate a long-exposure image from a single short-exposure image |
CN110021051A (zh) * | 2019-04-01 | 2019-07-16 | 浙江大学 | 一种基于生成对抗网络通过文本指导的人物图像生成方法 |
CN110111280A (zh) * | 2019-05-06 | 2019-08-09 | 平顶山学院 | 一种多尺度梯度域引导滤波的低照度图像增强算法 |
CN110264456A (zh) * | 2019-06-19 | 2019-09-20 | 安徽大学 | 一种基于深度学习的足底压力图像配准方法 |
WO2020263541A1 (en) * | 2019-06-28 | 2020-12-30 | Microsoft Technology Licensing, Llc | Portrait editing and synthesis |
Non-Patent Citations (1)
Title |
---|
方志军等: "基于子带加权融合的多尺度Retinex图像增强算法", 《山东大学学报(理学版)》, no. 11, 25 October 2013 (2013-10-25) * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113870371A (zh) * | 2021-12-03 | 2021-12-31 | 浙江霖研精密科技有限公司 | 基于生成对抗网络的图片颜色变换装置、方法和存储介质 |
CN113870371B (zh) * | 2021-12-03 | 2022-02-15 | 浙江霖研精密科技有限公司 | 基于生成对抗网络的图片颜色变换装置、方法和存储介质 |
CN115436881A (zh) * | 2022-10-18 | 2022-12-06 | 兰州大学 | 一种定位方法、系统、计算机设备及可读存储介质 |
CN115436881B (zh) * | 2022-10-18 | 2023-07-07 | 兰州大学 | 一种定位方法、系统、计算机设备及可读存储介质 |
CN116012258A (zh) * | 2023-02-14 | 2023-04-25 | 山东大学 | 一种基于循环生成对抗网络的图像和谐化方法 |
CN116012258B (zh) * | 2023-02-14 | 2023-10-13 | 山东大学 | 一种基于循环生成对抗网络的图像和谐化方法 |
CN117522717A (zh) * | 2024-01-03 | 2024-02-06 | 支付宝(杭州)信息技术有限公司 | 一种图像的合成方法、装置及设备 |
CN117522717B (zh) * | 2024-01-03 | 2024-04-19 | 支付宝(杭州)信息技术有限公司 | 一种图像的合成方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113222875B (zh) | 2022-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lim et al. | DSLR: Deep stacked Laplacian restorer for low-light image enhancement | |
CN113222875B (zh) | 一种基于色彩恒常性的图像和谐化合成方法 | |
Li et al. | Low-light image enhancement via progressive-recursive network | |
CN110570377A (zh) | 一种基于组归一化的快速图像风格迁移方法 | |
Panetta et al. | Tmo-net: A parameter-free tone mapping operator using generative adversarial network, and performance benchmarking on large scale hdr dataset | |
CN112686817B (zh) | 一种基于不确定性估计的图像补全方法 | |
CN110853119B (zh) | 一种鲁棒的基于参考图片的妆容迁移方法 | |
CN113658057A (zh) | 一种Swin Transformer微光图像增强方法 | |
CN117151990B (zh) | 一种基于自注意力编码解码的图像去雾方法 | |
CN114066747A (zh) | 一种基于光照和反射互补性的低照度图像增强方法 | |
CN112801914A (zh) | 一种基于纹理结构感知的二段式图像修复方法 | |
CN115641391A (zh) | 一种基于密集残差和双流注意力的红外图像彩色化方法 | |
Zhang et al. | A real-time semi-supervised deep tone mapping network | |
CN116664435A (zh) | 一种基于多尺度人脸解析图融入的人脸复原方法 | |
Wang et al. | LLDiffusion: Learning degradation representations in diffusion models for low-light image enhancement | |
Li et al. | Wavenhancer: Unifying wavelet and transformer for image enhancement | |
CN113989140A (zh) | 一种基于自注意力机制的循环特征推理的图像修复方法 | |
CN111339734B (zh) | 一种基于文本生成图像的方法 | |
Liu et al. | Core-attributes enhanced generative adversarial networks for robust image enhancement | |
CN115147311B (zh) | 基于HSV与AM-RetinexNet图像增强方法 | |
CN116542924A (zh) | 一种前列腺病灶区域检测方法、装置及存储介质 | |
CN116452431A (zh) | 基于多分支渐进式深度网络的弱光图像增强方法 | |
Wu et al. | Coarse-to-Fine Low-Light Image Enhancement With Light Restoration and Color Refinement | |
Ko et al. | IceNet for interactive contrast enhancement | |
Wang et al. | BrightFormer: A transformer to brighten the image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |