CN110969631B - 一种精细化照片染发方法及系统 - Google Patents

一种精细化照片染发方法及系统 Download PDF

Info

Publication number
CN110969631B
CN110969631B CN201911166003.1A CN201911166003A CN110969631B CN 110969631 B CN110969631 B CN 110969631B CN 201911166003 A CN201911166003 A CN 201911166003A CN 110969631 B CN110969631 B CN 110969631B
Authority
CN
China
Prior art keywords
hair
picture
dyeing
photo
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911166003.1A
Other languages
English (en)
Other versions
CN110969631A (zh
Inventor
胡耀武
李云夕
熊永春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Xiaoying Innovation Technology Co ltd
Original Assignee
Hangzhou Xiaoying Innovation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Xiaoying Innovation Technology Co ltd filed Critical Hangzhou Xiaoying Innovation Technology Co ltd
Priority to CN201911166003.1A priority Critical patent/CN110969631B/zh
Publication of CN110969631A publication Critical patent/CN110969631A/zh
Application granted granted Critical
Publication of CN110969631B publication Critical patent/CN110969631B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

本发明公开了一种精细化照片染发方法及系统,染发方法包括步骤:S1、基于卷积神经网络,对头发样本数据进行分割网络模型训练;S2、基于训练后的分割网络模型对原图照片进行头发区域分割,得到分割图mask;S3、对所述分割图mask进行高斯滤波,得到滤波效果图;S4、根据滤波效果图得到原图照片中的头发区域,对头发区域进行颜色调节,得到第一染色照片;S5、将原图照片、滤波效果图、第一染色照片进行Alpha融合,得到第二染色照片;S6、基于所述原图照片计算头发概率图;S7、将原图照片、第二染色照片、头发概率图进行头发精细化融合,得到最终染发照片。本发明计算头发概率图,有效减弱了皮肤和衣服等区域对头发染色的影响,过渡自然、违和感小。

Description

一种精细化照片染发方法及系统
技术领域
本发明涉及照片处理领域,具体涉及一种精细化照片染发方法及系统。
背景技术
妆容造型是女性日常生活中不可或缺的重要环节,发型及发色更是对女性的整体妆容形象具有关键影响,因此如何选择适合自己的发色逐渐成为女性群体关注的热点问题。染发现己成为人们改变造型常用方法,由于对染发之后的效果的不确定,使得大多数人对染发采取谨慎态度,为了更好的为用户提供选择参考,也为了增加图像的趣味性,对用户图像进行虚拟染发的图像处理技术开始涌现。用户通过上传照片后,通过图像处理,给用户呈现不同染色效果。
在虚拟染发的功能实现过程中,头发区域的分割是最基础、也是最重要的一步,其主要侧重于做基于人脸的分割,或者头发区域手动标定。公开号为CN 109903257A的发明专利申请公开了一种基于图像语义分割的虚拟头发染色方法,并具体公开了:S11:对收集的数据集进行头发标注,获得多发型多状态下的头发标注样本;将头发标注样本代入预先建立的数据增强算法,得到数据增强后的数据集;S12:基于图像语义分割网络训练S11得到的所述数据集,得到深度学习模型;通过所述深度学习模型识别输入图像的头发区域,进行语义分割;S13:对图像的头发区域进行归一化处理,得到归一化后的图像;将归一化后的图像进行颜色通道分离,完成头发染色,得到头发染色后的染色图像。
上述基于图像语义分割的语义分割的虚拟头发染色方法,能够在一定程度上提高虚拟头发染色的精确度和鲁棒性,然而,其通过深度学习模型对图像的头发区域进行分割,存在分割不精确的问题,分割结果中,除了头发区域,还有误分割的皮肤区域和衣服等背景区域。因此,对于头发区域尤其是头发丝的分割尚不精准的情况下,该头发染色方法存在头发和皮肤区域的过渡效果非常差、无法自然过渡、分界线明显的问题。
因此,如何实现在头发分割不精确的情况下,将头发区域进行精确染发、皮肤区域则不受影响是本领域亟待解决的问题。
发明内容
本发明的目的是针对现有技术的缺陷,提供了一种精细化照片染发方法及系统。通过计算头发概率图,将头发概率图引入染发融合的过程中,有效减弱了皮肤和衣服等区域对头发染色的影响,过渡自然、违和感小。
为了实现以上目的,本发明采用以下技术方案:
一种精细化照片染发方法,包括步骤:
S1、基于卷积神经网络,对头发样本数据进行分割网络模型训练;
S2、基于训练后的分割网络模型对原图照片进行头发区域分割,得到分割图mask;
S3、对所述分割图mask进行高斯滤波,得到滤波效果图;
S4、根据滤波效果图得到原图照片中的头发区域,对头发区域进行颜色调节,得到第一染色照片;
S5、将原图照片、滤波效果图、第一染色照片进行Alpha融合,得到第二染色照片;
S6、基于所述原图照片计算头发概率图;
S7、将原图照片、第二染色照片、头发概率图进行头发精细化融合,得到最终染发照片。
进一步地,所述步骤S6具体为:
计算原图照片中像素值的Red分量,当Red分量的值越小,其为头发像素的概率值越高,当Red分量的值越大,其为头发像素的概率值越低。
进一步地,所述步骤S5具体为:
D=(A×(255-C)+B×C)/255
其中,D为第二染色照片,原图照片A、滤波效果图C、第一染色照片B的计算为对应像素的计算。
进一步地,所述步骤S7具体为:
Dst=(A×E+D×(255-E))/255
其中,Dst为最终染发照片,原图照片A、第二染色照片D、头发概率图E的计算为对应像素的计算,E的值为该像素的头发概率值。
进一步地,所述步骤S3具体为:
Figure BDA0002287468810000031
其中,x表示像素RGB值,μ表示半径Radius范围内的像素值均值,σ表示半径Radius范围内像素值的方差。
进一步地,所述步骤S4具体为:
S4.1、将滤波效果图与原图照片进行对应像素与运算,得到原图中的头发区域;
S4.2、将原图中头发区域任意像素P(R,G,B)转换为HSV颜色空间,得到phsv(H,S,V);
S4.3、在HSV颜色空间下,选取目标头发色的Hair_dst_hsv(H,S,V)色相角H、饱和度S的值,保留原图照片中的phsv(H,S,V)亮度信息V,得到染色后的在HSV颜色空间域下的头发图像phsv-dst(H,S,V);
S4.4、将头发图像phsv-dst(H,S,V)从HSV颜色空间转换到RGB颜色空间得到染色像素值prgb-dst(R,G,B),即第一染色照片B。
进一步地,所述步骤S4具体为:
S4.1、将滤波效果图与原图照片进行对应像素与运算,得到原图中的头发区域;
S4.2、使用Photoshop对Lev Zelensky基准颜色LUT颜色调节,得到效果LUT表;
S4.3、用LUT表对头发区域中的像素值进行查找计算,得到对应的新像素值prgb-dst(R,G,B),即得第一染色照片B。
进一步地,对于头发区域中任意像素P(R,G,B),它的目标颜色为P0(R0,G0,B0),则LUT查找公式如下:
k=B>>2
x=(int)(R>>2)+((k-((k>>3)<<3))<<6)
y=(int)(((B>>5)<<6)+(G>>2))。
P0(R0,G0,B0)=LUT(x,y)(R,G,B)
进一步地,所述头发样本数据通过对初始头发照片随机进行旋转、平移、错切变换、缩放以扩充数据样例得到。
本发明还提出一种精细化照片染发系统,用于实现本发明所述的照片染发方法,包括:
训练模块,用于基于卷积神经网络,对头发样本数据进行分割网络模型训练;
分割模块,用于基于训练后的分割网络模型对原图照片进行头发区域分割,得到分割图mask;
滤波模块,用于对所述分割图mask进行高斯滤波,得到滤波效果图;
第一染色模块,用于根据滤波效果图得到原图照片中的头发区域,对头发区域进行颜色调节,得到第一染色照片;
第一融合模块,用于将原图照片、滤波效果图、第一染色照片进行Alpha融合,得到第二染色照片;
概率图生成模块,用于基于所述原图照片计算头发概率图;
第二融合模块,用于将原图照片、第二染色照片、头发概率图进行头发精细化融合,得到最终染发照片。
本发明与现有技术相比,具有如下效果:
(1)本发明提出的精细化照片染发方法及系统,通过计算头发概率图,有效识别误分割区域,降低了分割不精确对染发效果的影响;在头发分割不精确的情况下,将头发区域进行精确染发、皮肤等区域则不受影响;克服了现有的基于深度学习进行图像分割的染发方法过度依赖于分割模型的问题;
(2)通过将头发概率图与原图照片、第二染色照片进行融合,有效减弱了皮肤和衣服等区域对头发染色的影响,使头发和衣服等背景颜色区域的过渡效果非常自然、违和感小;
(3)本发明通过像素值的Red分量计算头发概率图,避免了复杂的概率模型,降低了计算复杂度,在实现精细化照片染发的同时,引起的系统花销小,处理效率高;
(4)本发明通过对分割后的区域进行高斯滤波,有效去除了照片中的噪声,进一步提高了照片染发的精细化效果;
(5)本发明通过第一融合模块、第二融合模块,在提高染发精细度的同时,使染色的效果更佳自然。
附图说明
图1是实施例一提供的一种精细化照片染发方法流程图;
图2是实施例二提供的一种精细化照片染发系统结构图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
实施例一
如图1所示,本实施例提出了一种精细化照片染发方法,包括:
S1、基于卷积神经网络,对头发样本数据进行分割网络模型训练;
如上所述,对照片进行染发,首先需要对头发区域进行分割。为了提高照片分割的精确性,本发明的头发样本数据包括10000+的头发样本照片。由于样本集较大,样本数据采集困难,因此,本发明采集1000张头发照片,并对1000张头发照片分别随机进行旋转、平移、错切变换、缩放等图像增强操作以扩充数据样例,其中旋转角度、缩放比例等操作均随机选取对应数值以保证生成图片的随机性。通过照片数据的增强,得到包括10000+的头发样本照片。
分割网络模型输入输入RGB原图,输出单通道的黑白mask,其中白色区域表示头发区域,黑色区域表示背景区域。mask图片即为选定区域内为白色和选定区域外为黑色的图片。
本发明基于卷积神经网络对头发样本数据进行分割网络模型训练,比如Unet/PSPnet/BiSeNet等,构建头发分割模型。以Unet为例,其具体包括27个残差块、5个通路单元、5个最大池化单元、一个输出单元。它由一个收缩路径和一个扩展路径组成。收缩路径包括重复应用两个3*3卷积(无填充卷积),每个卷积后跟一个线性整流单元(ReLU)和一个2*2最大池化操作,步长2用于下采样。在每个下采样步骤中,设置特征通道的数量加倍。扩展路径中的每一步都包括对特征映射进行上采样,然后进行2*2卷积(“向上卷积”),将特征通道数量减半,与来自收缩路径的相应特征映射进行连接。扩展路径包括重复应用三个3*3卷积,每个卷积后跟一个线性整流单元(ReLU)。在最后一层,使用l*l卷积将每个32分量特征向量映射到所需数量的类,其中ReLU子单元的表达式为f(x)=max(0,x)。
S2、基于训练后的分割网络模型对原图照片进行头发区域分割,得到分割图mask;
训练好分割网络模型后,就可以对需要染发的照片进行头发区域分割,以识别出照片中的头发区域。将照片A输入训练好的分割网络模型,得到分割图mask。照片A为RGB原图,分割图mask为单通道的黑白mask。
S3、对所述分割图mask进行高斯滤波,得到滤波效果图;
分割图mask可能存在大量噪声,影响照片的染发效果。因此,本发明在得到分割图mask后,对其进行去噪。由于照片中的大多数噪声均属于高斯噪声,因此,本发明采用高斯滤波器进行去噪,得到滤波效果图C;高斯滤波公式如下:
Figure BDA0002287468810000061
其中,x表示像素RGB值,μ表示半径Radius范围内的像素值均值,σ表示半径Radius范围内像素值的方差。
本发明不对半径Radius的值进行限定,这里可以取Radius=5。
S4、根据滤波效果图得到原图照片中的头发区域,对头发区域进行颜色调节,得到第一染色照片;
滤波效果图为二值化掩膜图,因此,为了对原图中的头发区域进行染色,在得到滤波后的二值化掩膜图后,将其与原图照片进行对应像素与运算,得到原图中的头发区域,并进一步对原图照片中的头发区域进行染色。
具体地,可以使用颜色空间法或LUT滤镜法等进行颜色调节。以颜色空间法为例,可以选择HSV颜色空间进行说明。由于输入的照片为RGB原图,因此,染色的实质是利用HSV和RGB颜色空间上的转化公式,得到在HSV颜色空间域下的头发区域图像。
设目标头发色在RGB颜色空间内的值为Hairdst_rgb(R,G,B),转换为HSV颜色空间为Hair_dst_hsv(H,S,V)。将头发区域中的任意像素P(R,G,B)转换为HSV颜色空间,得到phsv(H,S,V),RGB转HSV颜色空间公式如下:
max=max(R,G,B)
min=min(R,G,B)
Figure BDA0002287468810000071
Figure BDA0002287468810000072
V=max
其中,R、G、B为颜色的红、绿和蓝坐标,它们的值为0到1之间的实数,max为R、G、B中的最大值,min为R、G、B中的最小值,H为角度的色相角,S为饱和度,V为亮度。
在HSV颜色空间下,选取目标头发色的Hair_dst_hsv(H,S,V)色相角H、饱和度S的值,保留原图照片A的phsv(H,S,V)亮度信息V,重组形成新的HSV,即得到染色后的在HSV颜色空间域下的头发图像phsv-dst(H,S,V)。
将染色后的在HSV颜色空间域下的头发图像phsv-dst(H,S,V)从HSV颜色空间转换到RGB颜色空间得到染色像素值prgb-dst(R,G,B),即得到第一染色照片B。HSV转RGB颜色空间公式如下:
Figure BDA0002287468810000081
Figure BDA0002287468810000082
p=V×(1-S)
q=V×(1-f×S)
t=V×(1-(1-f)×S)
Figure BDA0002287468810000083
以LUT滤镜调色法为例,使用Photoshop对Lev Zelensky基准颜色LUT颜色调节,得到效果LUT表,然后用LUT表对滤波后的头发区域中的像素值进行查找计算,得到对应的新像素值prgb-dst(R,G,B),即得第一染色照片B。
假设头发区域中任意像素P(R,G,B),它的目标颜色为P0(R0,G0,B0),则LUT查找公式如下:
k=B>>2
x=(int)(R>>2)+((k-((k>>3)<<3))<<6)
y=(int)(((B>>5)<<6)+(G>>2))
P0(R0,G0,B0)=LUT(x,y)(R,G,B)
S5、将原图照片、滤波效果图、第一染色照片进行Alpha融合,得到第二染色照片;
为了提高照片染发的真实性,本发明将原图照片、滤波效果图、第一染色照片进行Alpha融合,进一步优化染色效果,改变目标颜色的透明度。Alpha融合实质为对应像素值的操作,具体为:
D=(A×(255-C)+B×C)/255
其中,D为第二染色照片,原图照片A、滤波效果图C、第一染色照片B的计算实质为对应像素的计算。通过将计算的像素值除以255,完成对照片的归一化处理,使(0,255)之间的值变换为(0,1)之间的像素值。
S6、基于所述原图照片计算头发概率图;
本发明基于卷积神经网络对照片中的头发区域进行分割,由于分割不精确,导致分割结果中,除了头发区域,还有误分割的皮肤区域和衣服等背景区域。由于染发的效果依赖于区域分割的结果,因此,当头发区域分割不精确时,染发时会将错误分割到头发的区域进行染色,也会遗漏没有分割到头发区域的头发部分染色,存在头发和皮肤区域的过渡效果非常差、无法自然过渡、分界线明显的问题。为了实现精细化照片染发,本发明基于原图照片A计算头发概率图E,进一步优化头发区域。
传统的概率图计算通常采用概率模型,如GMM等方法进行计算。然而,概率模型的计算复杂度高,处理效率低。因此,本发明对头发概率图的计算方法进行优化,在实现精细化照片染发效果的同时,不带来过多的处理开销。
对于误分割的皮肤区域和衣服等背景区域,如果这些区域是黑色或者白色,那么对于这些区域的整体染色效果较弱。例如,进行HSV染色时,对于纯黑色像素的染色视觉上是没有任何效果的。也就是说,即使这些区域被错误分割,也不会影响染发效果。但是当这些错误分割的区域是浅色时,是否进行染色处理形成的结果差异较大。由于头发像素RGB中红色分量值较小,而皮肤和衣服等误分割区域像素分量中红色分量值相对较大,因此,本发明计算原图照片A中像素值的Red分量,以Red分量来估计头发的概率。当Red分量的值越小,其为头发像素的概率值越高,当Red分量的值越大,其为头发像素的概率值越低。
S7、将原图照片、第二染色照片、头发概率图进行头发精细化融合,得到最终染发照片。
为了进一步提高照片融合效果,减弱肤色和衣服等背景颜色对头发区域的影响,本发明将原图照片、第二染色照片、头发概率图进行头发精细化融合,通过头发概率图进行加持,使染发自然过渡,降低头发区域与其他区域的违和感。具体为:
Dst=(A×E+D×(255-E))/255
其中,Dst为最终染发照片,原图照片A、第二染色照片D、头发概率图E的计算实质为对应像素的计算,E的值为该像素的头发概率值。通过将计算的像素值除以255,完成对照片的归一化处理,使(0,255)之间的值变换为(0,1)之间的像素值。
实施例二
如图2所示,本实施例提出了一种精细化照片染发系统,包括:
训练模块,用于基于卷积神经网络,对头发样本数据进行分割网络模型训练;
如上所述,对照片进行染发,首先需要对头发区域进行分割。为了提高照片分割的精确性,本发明的头发样本数据包括10000+的头发样本照片。由于样本集较大,样本数据采集困难,因此,本发明采集1000张头发照片,并对1000张头发照片分别随机进行旋转、平移、错切变换、缩放等图像增强操作以扩充数据样例,其中旋转角度、缩放比例等操作均随机选取对应数值以保证生成图片的随机性。通过照片数据的增强,得到包括10000+的头发样本照片。
分割网络模型输入输入RGB原图,输出单通道的黑白mask,其中白色区域表示头发区域,黑色区域表示背景区域。mask图片即为选定区域内为白色和选定区域外为黑色的图片。
本发明基于卷积神经网络对头发样本数据进行分割网络模型训练,比如Unet/PSPnet/BiSeNet等,构建头发分割模型。以Unet为例,其具体包括27个残差块、5个通路单元、5个最大池化单元、一个输出单元。它由一个收缩路径和一个扩展路径组成。收缩路径包括重复应用两个3*3卷积(无填充卷积),每个卷积后跟一个线性整流单元(ReLU)和一个2*2最大池化操作,步长2用于下采样。在每个下采样步骤中,设置特征通道的数量加倍。扩展路径中的每一步都包括对特征映射进行上采样,然后进行2*2卷积(“向上卷积”),将特征通道数量减半,与来自收缩路径的相应特征映射进行连接。扩展路径包括重复应用三个3*3卷积,每个卷积后跟一个线性整流单元(ReLU)。在最后一层,使用l*l卷积将每个32分量特征向量映射到所需数量的类,其中ReLU子单元的表达式为f(x)=max(0,x)。
分割模块,用于基于训练后的分割网络模型对原图照片进行头发区域分割,得到分割图mask;
训练好分割网络模型后,就可以对需要染发的照片进行头发区域分割,以识别出照片中的头发区域。将照片A输入训练好的分割网络模型,得到分割图mask。照片A为RGB原图,分割图mask为单通道的黑白mask。
滤波模块,用于对所述分割图mask进行高斯滤波,得到滤波效果图;
分割图mask可能存在大量噪声,影响照片的染发效果。因此,本发明在得到分割图mask后,对其进行去噪。由于照片中的大多数噪声均属于高斯噪声,因此,本发明采用高斯滤波器进行去噪,得到滤波效果图C;高斯滤波公式如下:
Figure BDA0002287468810000111
其中,x表示像素RGB值,μ表示半径Radius范围内的像素值均值,σ表示半径Radius范围内像素值的方差。
本发明不对半径Radius的值进行限定,这里可以取Radius=5。
第一染色模块,用于根据滤波效果图得到原图照片中的头发区域,对头发区域进行颜色调节,得到第一染色照片;
滤波效果图为二值化掩膜图,因此,为了对原图中的头发区域进行染色,在得到滤波后的二值化掩膜图后,将其与原图照片进行对应像素与运算,得到原图中的头发区域,并进一步对原图照片中的头发区域进行染色。
具体地,可以使用颜色空间法或LUT滤镜法等进行颜色调节。以颜色空间法为例,可以选择HSV颜色空间进行说明。由于输入的照片为RGB原图,因此,染色的实质是利用HSV和RGB颜色空间上的转化公式,得到在HSV颜色空间域下的头发区域图像。
设目标头发色在RGB颜色空间内的值为Hairdst_rgb(R,G,B),转换为HSV颜色空间为Hair_dst_hsv(H,S,V)。将原图照片A的任意像素P(R,G,B)转换为HSV颜色空间,得到phsv(H,S,V),RGB转HSV颜色空间公式如下:
max=max(R,G,B)
min=min(R,G,B)
Figure BDA0002287468810000121
Figure BDA0002287468810000122
V=max
其中,R、G、B为颜色的红、绿和蓝坐标,它们的值为0到1之间的实数,max为R、G、B中的最大值,min为R、G、B中的最小值,H为角度的色相角,S为饱和度,V为亮度。
在HSV颜色空间下,选取目标头发色的Hair_dst_hsv(H,S,V)色相角H、饱和度S的值,保留原图照片A的phsv(H,S,V)亮度信息V,重组形成新的HSV,即得到染色后的在HSV颜色空间域下的头发图像phsv-dst(H,S,V)。
将染色后的在HSV颜色空间域下的头发图像phsv-dst(H,S,V)从HSV颜色空间转换到RGB颜色空间得到染色像素值prgb-dst(R,G,B),即得到第一染色照片B。HSV转RGB颜色空间公式如下:
Figure BDA0002287468810000123
Figure BDA0002287468810000124
p=V×(1-S)
q=V×(1-f×S)
t=V×(1-(1-f)×S)
Figure BDA0002287468810000125
以LUT滤镜调色法为例,使用Photoshop对Lev Zelensky基准颜色LUT颜色调节,得到效果LUT表,然后用LUT表对头发区域中的像素值进行查找计算,得到对应的新像素值prgb-dst(R,G,B),即得第一染色照片B。
假设头发区域中任意像素P(R,G,B),它的目标颜色为P0(R0,G0,B0),则LUT查找公式如下:
k=B>>2
x=(int)(R>>2)+((k-((k>>3)<<3))<<6)
y=(int)(((B>>5)<<6)+(G>>2))
P0(R0,G0,B0)=LUT(x,y)(R,G,B)
第一融合模块,用于将原图照片、滤波效果图、第一染色照片进行Alpha融合,得到第二染色照片;
为了提高照片染发的真实性,本发明将原图照片、滤波效果图、第一染色照片进行Alpha融合,进一步优化染色效果,改变目标颜色的透明度。Alpha融合实质为对应像素值的操作,具体为:
D=(A×(255-C)+B×C)/255
其中,D为第二染色照片,原图照片A、滤波效果图C、第一染色照片B的计算实质为对应像素的计算。通过将计算的像素值除以255,完成对照片的归一化处理,使(0,255)之间的值变换为(0,1)之间的像素值。
概率图生成模块,用于基于所述原图照片计算头发概率图;
本发明基于卷积神经网络对照片中的头发区域进行分割,由于分割不精确,导致分割结果中,除了头发区域,还有误分割的皮肤区域和衣服等背景区域。由于染发的效果依赖于区域分割的结果,因此,当头发区域分割不精确时,染发时会将错误分割到头发的区域进行染色,也会遗漏没有分割到头发区域的头发部分染色,存在头发和皮肤区域的过渡效果非常差、无法自然过渡、分界线明显的问题。为了实现精细化照片染发,本发明基于原图照片A计算头发概率图E,进一步优化头发区域。
传统的概率图计算通常采用概率模型,如GMM等方法进行计算。然而,概率模型的计算复杂度高,处理效率低。因此,本发明对头发概率图的计算方法进行优化,在实现精细化照片染发效果的同时,不带来过多的处理开销。
对于误分割的皮肤区域和衣服等背景区域,如果这些区域是黑色或者白色,那么对于这些区域的整体染色效果较弱。例如,进行HSV染色时,对于纯黑色像素的染色视觉上是没有任何效果的。也就是说,即使这些区域被错误分割,也不会影响染发效果。但是当这些错误分割的区域是浅色时,是否进行染色处理形成的结果差异较大。由于头发像素RGB中红色分量值较小,而皮肤和衣服等误分割区域像素分量中红色分量值相对较大,因此,本发明计算原图照片A中像素值的Red分量,以Red分量来估计头发的概率。当Red分量的值越小,其为头发像素的概率值越高,当Red分量的值越大,其为头发像素的概率值越低。
第二融合模块,用于将原图照片、第二染色照片、头发概率图进行头发精细化融合,得到最终染发照片。
为了进一步提高照片融合效果,减弱肤色和衣服等背景颜色对头发区域的影响,本发明将原图照片、第二染色照片、头发概率图进行头发精细化融合,通过头发概率图进行加持,使染发自然过渡,降低头发区域与其他区域的违和感。具体为:
Dst=(A×E+D×(255-E))/255
其中,Dst为最终染发照片,原图照片A、第二染色照片D、头发概率图E的计算实质为对应像素的计算,E的值为该像素的头发概率值。通过将计算的像素值除以255,完成对照片的归一化处理,使(0,255)之间的值变换为(0,1)之间的像素值。
由此可知,本发明提出的精细化照片染发方法及系统,通过计算头发概率图,有效识别误分割区域,降低了分割不精确对染发效果的影响;通过将头发概率图与原图照片、第二染色照片进行融合,有效减弱了皮肤和衣服等区域对头发染色的影响,使头发和衣服等背景颜色区域的过渡效果非常自然、违和感小;本发明通过像素值的Red分量计算头发概率图,避免了复杂的概率模型,降低了计算复杂度,在实现精细化照片染发的同时,引起的系统花销小,处理效率高;本发明通过对分割后的区域进行高斯滤波,有效去除了照片中的噪声,进一步提高了照片染发的精细化效果;本发明通过第一融合模块、第二融合模块,在提高染发精细度的同时,使染色的效果更佳自然。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (10)

1.一种精细化照片染发方法,其特征在于,包括步骤:
S1、基于卷积神经网络,对头发样本数据进行分割网络模型训练;
S2、基于训练后的分割网络模型对原图照片进行头发区域分割,得到分割图mask;
S3、对所述分割图mask进行高斯滤波,得到滤波效果图;
S4、根据滤波效果图得到原图照片中的头发区域,对头发区域进行颜色调节,得到第一染色照片;
S5、将原图照片、滤波效果图、第一染色照片进行Alpha融合,得到第二染色照片;
S6、基于所述原图照片计算头发概率图;
S7、将原图照片、第二染色照片、头发概率图进行头发精细化融合,得到最终染发照片。
2.根据权利要求1所述的照片染发方法,其特征在于,所述步骤S6具体为:计算原图照片中像素值的Red分量,当Red分量的值越小,其为头发像素的概率值越高,当Red分量的值越大,其为头发像素的概率值越低。
3.根据权利要求1所述的照片染发方法,其特征在于,所述步骤S5具体为:
D=(A×(255-C)+B×C)/255
其中,D为第二染色照片,原图照片A、滤波效果图C、第一染色照片B的计算为对应像素的计算。
4.根据权利要求3所述的照片染发方法,其特征在于,所述步骤S7具体为:
Dst=(A×E+D×(255-E))/255
其中,Dst为最终染发照片,原图照片A、第二染色照片D、头发概率图E的计算为对应像素的计算,E的值为该像素的头发概率值。
5.根据权利要求1所述的照片染发方法,其特征在于,所述步骤S3具体为:
Figure QLYQS_1
其中,x表示像素RGB值,μ表示半径Radius范围内的像素值均值,σ表示半径Radius范围内像素值的方差。
6.根据权利要求1所述的照片染发方法,其特征在于,所述步骤S4具体为:S4.1、将滤波效果图与原图照片进行对应像素与运算,得到原图中的头发区域;S4.2、将原图中头发区域任意像素P(R,G,B)转换为HSV颜色空间,得到phsv(H,S,V);
S4.3、在HSV颜色空间下,选取目标头发色的Hair_dst_hsv(H,S,V)色相角H、饱和度S的值,保留原图照片中的phsv(H,S,V)亮度信息V,得到染色后的在HSV颜色空间域下的头发图像phsv-dst(H,S,V);
S4.4、将头发图像phsv-dst(H,S,V)从HSV颜色空间转换到RGB颜色空间得到染色像素值prgb-dst(R,G,B),即第一染色照片B。
7.根据权利要求1所述的照片染发方法,其特征在于,所述步骤S4具体为:
S4.1、将滤波效果图与原图照片进行对应像素与运算,得到原图中的头发区域;
S4.2、使用Photoshop对Lev Zelensky基准颜色LUT颜色调节,得到效果LUT表;
S4.3、用LUT表对头发区域中的像素值进行查找计算,得到对应的新像素值prgb-dst(R,G,B),即得第一染色照片B。
8.根据权利要求7所述的照片染发方法,其特征在于,头发区域中任意像素P(R,G,B),它的目标颜色为P0(R0,G0,B0),则LUT查找公式如下:
k=B>>2
x=(int)(R>>2)+((k-((k>>3)<<3))<<6)
y=(int)(((B>>5)<<6)+(G>>2))
P0(R0,G0,B0)=LUT(x,y)(R,G,B)。
9.根据权利要求1所述的照片染发方法,其特征在于,所述头发样本数据通过对初始头发照片随机进行旋转、平移、错切变换、缩放以扩充数据样例得到。
10.一种精细化照片染发系统,用于实现权利要求1-9任一项所述的照片染发方法,其特征在于,包括:
训练模块,用于基于卷积神经网络,对头发样本数据进行分割网络模型训练;分割模块,用于基于训练后的分割网络模型对原图照片进行头发区域分割,得到分割图mask;
滤波模块,用于对所述分割图mask进行高斯滤波,得到滤波效果图;
第一染色模块,用于根据滤波效果图得到原图照片中的头发区域,对头发区域进行颜色调节,得到第一染色照片;
第一融合模块,用于将原图照片、滤波效果图、第一染色照片进行Alpha融合,得到第二染色照片;
概率图生成模块,用于基于所述原图照片计算头发概率图;
第二融合模块,用于将原图照片、第二染色照片、头发概率图进行头发精细化融合,得到最终染发照片。
CN201911166003.1A 2019-11-25 2019-11-25 一种精细化照片染发方法及系统 Active CN110969631B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911166003.1A CN110969631B (zh) 2019-11-25 2019-11-25 一种精细化照片染发方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911166003.1A CN110969631B (zh) 2019-11-25 2019-11-25 一种精细化照片染发方法及系统

Publications (2)

Publication Number Publication Date
CN110969631A CN110969631A (zh) 2020-04-07
CN110969631B true CN110969631B (zh) 2023-04-11

Family

ID=70031493

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911166003.1A Active CN110969631B (zh) 2019-11-25 2019-11-25 一种精细化照片染发方法及系统

Country Status (1)

Country Link
CN (1) CN110969631B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507994B (zh) * 2020-04-24 2023-10-03 Oppo广东移动通信有限公司 一种人像提取方法、人像提取装置及移动终端
CN113837017B (zh) * 2021-08-31 2022-11-04 北京新氧科技有限公司 一种化妆进度检测方法、装置、设备及存储介质
CN113870372A (zh) * 2021-08-31 2021-12-31 浙江大学 一种基于深度学习的视频头发颜色转换方法
CN114022395B (zh) * 2022-01-06 2022-04-12 广州卓腾科技有限公司 一种证件照头发颜色矫正方法、装置及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092639A (ja) * 2003-09-18 2005-04-07 Digital Fashion Ltd 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録した記録媒体
KR100839536B1 (ko) * 2006-12-15 2008-06-19 주식회사 케이티 얼굴 특징점 추출 장치 및 그 방법, 머리카락 추출 장치 및 그 방법, 실사 캐릭터 생성 시스템 및 그 방법
CN106022221A (zh) * 2016-05-09 2016-10-12 腾讯科技(深圳)有限公司 一种图像处理方法及处理系统
CN106203399A (zh) * 2016-07-27 2016-12-07 厦门美图之家科技有限公司 一种图像处理方法、装置和计算设备
CN107204034A (zh) * 2016-03-17 2017-09-26 腾讯科技(深圳)有限公司 一种图像处理方法及终端
CN107256555A (zh) * 2017-05-25 2017-10-17 腾讯科技(上海)有限公司 一种图像处理方法、装置及存储介质
CN109658330A (zh) * 2018-12-10 2019-04-19 广州市久邦数码科技有限公司 一种发色调整方法及装置
CN110189340A (zh) * 2019-06-03 2019-08-30 北京达佳互联信息技术有限公司 图像分割方法、装置、电子设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8884980B2 (en) * 2010-09-24 2014-11-11 Taaz, Inc. System and method for changing hair color in digital images
US9414016B2 (en) * 2013-12-31 2016-08-09 Personify, Inc. System and methods for persona identification using combined probability maps
US9928601B2 (en) * 2014-12-01 2018-03-27 Modiface Inc. Automatic segmentation of hair in images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092639A (ja) * 2003-09-18 2005-04-07 Digital Fashion Ltd 画像処理装置、画像処理方法、画像処理プログラム及びそのプログラムを記録した記録媒体
KR100839536B1 (ko) * 2006-12-15 2008-06-19 주식회사 케이티 얼굴 특징점 추출 장치 및 그 방법, 머리카락 추출 장치 및 그 방법, 실사 캐릭터 생성 시스템 및 그 방법
CN107204034A (zh) * 2016-03-17 2017-09-26 腾讯科技(深圳)有限公司 一种图像处理方法及终端
CN106022221A (zh) * 2016-05-09 2016-10-12 腾讯科技(深圳)有限公司 一种图像处理方法及处理系统
CN106203399A (zh) * 2016-07-27 2016-12-07 厦门美图之家科技有限公司 一种图像处理方法、装置和计算设备
CN107256555A (zh) * 2017-05-25 2017-10-17 腾讯科技(上海)有限公司 一种图像处理方法、装置及存储介质
CN109658330A (zh) * 2018-12-10 2019-04-19 广州市久邦数码科技有限公司 一种发色调整方法及装置
CN110189340A (zh) * 2019-06-03 2019-08-30 北京达佳互联信息技术有限公司 图像分割方法、装置、电子设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
周一飞 ; 樊养余 ; 雷涛 ; .发带头发模型的快速渲染及发型控制.计算机工程与应用.2012,(20),全文. *
沈晔湖 ; 貊睿 ; 高巍 ; 魏磊 ; 朱怡 ; 彭振云 ; .用于个性化人脸动漫生成的自动头发提取方法.计算机辅助设计与图形学学报.2010,(11),全文. *
胡晓燕 ; 张宇 ; .基于肤色的人脸检测算法研究.合肥工业大学学报(自然科学版).2012,(07),全文. *

Also Published As

Publication number Publication date
CN110969631A (zh) 2020-04-07

Similar Documents

Publication Publication Date Title
CN110969631B (zh) 一种精细化照片染发方法及系统
US11615559B2 (en) Methods and systems for human imperceptible computerized color transfer
CN109376582B (zh) 一种基于生成对抗网络的交互式人脸卡通方法
CN108229278B (zh) 人脸图像处理方法、装置和电子设备
CN103914699B (zh) 一种基于色彩空间的自动唇彩的图像增强的方法
CN110751655B (zh) 一种基于语义分割和显著性分析的自动抠图方法
CN1475969B (zh) 用于增强人像图像的方法和系统
CN108986132B (zh) 一种使用全卷积神经网络生成证件照Trimap图的方法
CN108932493B (zh) 一种面部皮肤质量评价方法
CN107169508B (zh) 一种基于融合特征的旗袍图像情感语义识别方法
WO2020038312A1 (zh) 多通道舌体边缘检测装置、方法及存储介质
CN108564528A (zh) 一种基于显著性检测的肖像照片自动背景虚化方法
CN113379764A (zh) 一种基于域对抗自监督学习的病理图像分割方法
CN113344836A (zh) 人脸图像处理方法及装置、计算机可读存储介质、终端
CN113052783A (zh) 一种基于人脸关键点的人脸图像融合方法
CN108230297A (zh) 一种基于服装替换的色彩搭配评估方法
CN110554991A (zh) 一种文本图片的矫正与管理方法
CN109934152B (zh) 一种针对手语图像的改进小弯臂图像分割方法
CN111815548A (zh) 一种中长波双波段红外图像融合方法
CN114187380B (zh) 基于视觉显著性和通道注意力机制的色彩传递方法
CN114155569B (zh) 一种化妆进度检测方法、装置、设备及存储介质
CN115359562A (zh) 基于卷积神经网络的手语字母拼写识别方法
CN114596213A (zh) 一种图像处理方法及装置
CN111062862A (zh) 基于颜色的数据增强方法和系统及计算机设备和存储介质
CN117575959A (zh) 图像修复方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 22nd floor, block a, Huaxing Times Square, 478 Wensan Road, Xihu District, Hangzhou, Zhejiang 310000

Applicant after: Hangzhou Xiaoying Innovation Technology Co.,Ltd.

Address before: 16 / F, HANGGANG Metallurgical Science and technology building, 294 Tianmushan Road, Xihu District, Hangzhou City, Zhejiang Province, 310012

Applicant before: HANGZHOU QUWEI SCIENCE & TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant