CN112862712A - 美颜处理方法、系统、存储介质和终端设备 - Google Patents
美颜处理方法、系统、存储介质和终端设备 Download PDFInfo
- Publication number
- CN112862712A CN112862712A CN202110136729.1A CN202110136729A CN112862712A CN 112862712 A CN112862712 A CN 112862712A CN 202110136729 A CN202110136729 A CN 202110136729A CN 112862712 A CN112862712 A CN 112862712A
- Authority
- CN
- China
- Prior art keywords
- image
- network
- function
- target
- processed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003860 storage Methods 0.000 title claims abstract description 8
- 238000003672 processing method Methods 0.000 title abstract description 11
- 238000000034 method Methods 0.000 claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 39
- 238000012545 processing Methods 0.000 claims abstract description 30
- 238000004364 calculation method Methods 0.000 claims abstract description 13
- 230000002087 whitening effect Effects 0.000 claims abstract description 13
- 208000002874 Acne Vulgaris Diseases 0.000 claims abstract description 12
- 206010000496 acne Diseases 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 71
- 230000003796 beauty Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 239000002537 cosmetic Substances 0.000 claims 1
- 230000003042 antagnostic effect Effects 0.000 abstract 1
- 230000009286 beneficial effect Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000005498 polishing Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003255 anti-acne Effects 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G06T5/77—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
本发明公开了一种美颜处理方法、系统、存储介质和终端设备,方法包括以下步骤:获取待处理图像;对待处理图像分别进行祛痘、磨皮、美白和滤镜处理,生成目标图像;其中,采用预先训练的生成式对抗网络对待处理图像进行滤镜处理;生成式对抗网络的训练步骤包括:获取若干张训练图像作为训练集;采用训练集计算生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数;根据生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数;将生成式对抗网络的参数更新为目标参数。本发明能避免出现破坏原图像的情况,从而在一定程度上提供高质量的保持原图细节特征的自然图像。本发明可广泛应用于图像处理技术领域。
Description
技术领域
本发明涉及图像处理技术领域,尤其是一种美颜处理方法、系统、存储介质和终端设备。
背景技术
美颜主要涉及的技术多种多样,例如磨皮、美白、祛痘和滤镜等算法。其中,滤镜又有多种实现方法。目前,滤镜特效有基于调色和基于空间位置变换的方法。随着深度学习的兴起,在滤镜处理中出现了各种风格转换、对象变形和图像增强等技术。例如,基于深度卷积神经网络的图像增强技术,其通过将手机照片作为输入,将单反相机拍出的高质量照片作为目标,通过生成对抗网络端到端的方式训练一个特征映射,在融合多种损失函数例如内容、纹理、颜色和细节等,实现不同的图像滤镜目的,使得将手机照片生成具有单反相机质量的图片。
但是,目前生成对抗的方法在应用过程中存在明显的不足,例如,基于深度卷积神经网络的图像增强技术,对于低对比度的图像和孤立的噪声点,增强后噪声点将会被放大,从而破坏原图像;基于循环一致性技术,针对不配对图像域间风格迁移和转换,会生成和原图偏差较大不同风格的图像,因而对精细的颜色微弱校正而言,比较困难。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明提出一种美颜处理方法、系统、存储介质和终端设备,能够在一定程度上提供高质量的保持原图细节特征的自然图像。
根据本发明的第一方面实施例的一种美颜处理方法,包括以下步骤:
获取待处理图像;
对所述待处理图像分别进行祛痘、磨皮、美白和滤镜处理,生成目标图像;
其中,采用预先训练的生成式对抗网络对所述待处理图像进行滤镜处理;所述生成式对抗网络的训练步骤包括:
获取若干张训练图像作为训练集;
采用所述训练集计算所述生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数;
根据所述生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数;
将所述生成式对抗网络的参数更新为所述目标参数。
根据本发明实施例的一种美颜处理方法,至少具有如下有益效果:本实施例通过先采用由若干张训练图像组成的训练集计算生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数,接着根据生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数,并将生成式对抗网络的参数更新为目标参数,然后对待处理图像分别进行祛痘、磨皮、美白处理,并采用更新为目标参数的生成式对抗网络对待处理图像进行滤镜处理后得到目标图像,避免出现破坏原图像的情况,从而在一定程度上提供高质量的保持原图细节特征的自然图像。
根据本发明的一些实施例,所述生成式对抗网络包括编解码生成网络和判别网络,所述编解码生成网络包括若干个编码单元和若干个解码单元;
所述编码单元对输入图像进行压缩,提取高层次语义特征;
所述解码单元对输入图像进行上采样后与解码单元对所述输入图像处理得到的信息进行结合,得到输入图像的空间维度和细节。
根据本发明的一些实施例,所述若干张训练图像包括原图像和目标真值图像;所述生成式对抗网络目标函数如公式1:
其中,LcGAN(G,D)为生成式对抗网络目标函数值;G表示编解码生成网络;D表示判别网络;x表示原图像;y表示目标真值图像;z表示随机噪声;和分别表示关于(x,y)和(x,z)的数学期望;pdata(x,y)表示关于(x,y)的联合数据分布;
所述距离函数如公式2所示:
所述颜色损失函数如公式3所示:
其中,Lcolor(G)为颜色损失值;[G(x,z)]b和Yb分别为生成图像G(x,z)和目标真值图像y 高斯滤波处理后的结果;
所述目标参数的计算公式如公式4所示:
其中,G*为目标参数值;G表示编解码生成网络;D表示判别网络;LcGAN(G,D)为生成式对抗网络目标函数值;LL1(G)为距离函数值;Lcolor(G)为颜色损失值;λ为平衡损失权重。
根据本发明的一些实施例,所述对所述待处理图像进行祛痘处理这一步骤,包括:
提取所述待处理图像的人脸关键点;
根据所述人脸关键点确定人脸椭圆区域;
构建所述人脸椭圆区域的掩码图像;
对所述待处理图像灰度化;
将灰度化后的图像与所述掩码图像进行相与计算,得到人脸部位图像;
对所述人脸部位图像依次进行二值化操作和连通域分析,得到孤立点区域;
根据所述孤立点区域确定痘斑的位置坐标;
根据所述位置坐标对所述待处理图像进行修复。
根据本发明的一些实施例,所述对所述待处理图像进行磨皮处理这一步骤,其具体为:
采用表面滤波算法对所述待处理图像进行磨皮处理。
根据本发明的一些实施例,所述对所述待处理图像进行美白处理这一步骤,包括:
采用对数曲线公式构建映射表;
根据所述映射表对所述待处理图像进行选择性增强区域。
根据本发明的第二方面实施例的一种美颜处理系统,包括:
获取模块,用于获取待处理图像;
处理模块,用于对所述待处理图像分别进行祛痘、磨皮、美白和滤镜处理,生成目标图像;
其中,采用预先训练的生成式对抗网络对所述待处理图像进行滤镜处理;所述生成式对抗网络的训练步骤包括:
获取若干张训练图像作为训练集;
采用所述训练集计算所述生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数;
根据所述生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数;
将所述生成式对抗网络的参数更新为所述目标参数。
根据本发明的第三方面实施例的一种美颜处理系统,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于加载所述程序以执行第一方面实施例的美颜处理方法。
根据本发明的第四方面实施例的一种存储介质,其中存储有处理器可执行的程序,所述处理器可执行的程序在由处理器执行时用于执行第一方面实施例的美颜处理方法。
根据本发明的第五方面实施例的一种终端设备,所述终端设备通过第一方面实施例的美颜处理方法控制图像美颜处理过程。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
下面结合附图和实施例对本发明做进一步的说明,其中:
图1为本发明实施例的一种生成式对抗网络的训练方法的流程图;
图2为本发明实施例的编解码生成网络的模块框图;
图3为本发明实施例的判别网络的模块框图;
图4为本发明实施例的一种美颜处理方法的流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,若干的含义是一个以上,多个的含义是两个以上,大于、小于、超过等理解为不包括本数,以上、以下、以内等理解为包括本数。如果有描述到第一、第二只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。
本发明的描述中,除非另有明确的限定,设置等词语应做广义理解,所属技术领域技术人员可以结合技术方案的具体内容合理确定上述词语在本发明中的具体含义。
本发明的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
参照图1,本发明实施例提供了一种应用于图像美颜过程的生成式对抗网络的训练方法。本实施例可应用于服务器、平台或者各个美颜设备终端的处理器。
如图2和图3所示,生成式对抗网络包括编解码生成网络和判别网络,其中,编解码生成网络包括若干个编码单元和若干个解码单元。编码单元包括卷积层、降采样层、归一化层和非线性激活层。解码单元包括上采样层、卷积层、归一化层和非线性激活层。在应用过程中,编码单元对输入图像进行压缩,提取高层次语义特征;解码单元对输入图像进行上采样后与解码单元对所述输入图像处理得到的信息进行结合,得到输入图像的空间维度和细节。编解码生成网络主要用于生成图像,骨干结构为轻量级网络MobileNetV2,以保证准确率的情况下做到较小的参数量,实现较快的速度。判别网络为卷积神经网络,包括两个卷积层、两个批归一化层、两个非线性激活层、两个池化层和两个全连接层和二分类输出,其用于进行二分类任务,区分编解码生成网络生成的图像与真实图像。
在实施过程中,训练方法包括以下步骤:
S11、获取若干张训练图像作为训练集。其中,若干张图像可以是从终端收集的约2万张图像,该2万张图像可以是由完全匹配的原图像和人工处理后的目标真值图像组成。
S12、采用训练集计算生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数。由于整个生成式对抗网络优化目标包括三项,分别为生成式对抗网络目标函数、距离函数和颜色损失函数,因此,本步骤在训练过程中,只需要计算出这三个目标的数据,
具体地,通过公式1根据训练集计算生成式对抗网络中的生成式对抗网络目标函数:
其中,LcGAN(G,D)为生成式对抗网络目标函数值;G表示编解码生成网络;D表示判别网络;x表示原图像;y表示目标真值图像;z表示随机噪声;和分别表示关于(x,y)和(x,z)的数学期望;pdata(x,y)表示关于(x,y)的联合数据分布。
通过公式2根据训练集计算生成式对抗网络中的距离函数:
通过公式3根据训练集计算生成式对抗网络中的颜色损失函数:
其中,Lcolor(G)为颜色损失值;[G(x,z)]b和Yb分别为生成图像G(x,z)和目标真值图像y 高斯滤波处理后的结果。
在得到上述优化目标函数后,执行步骤S13。
S13、根据生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数。其中,S13可通过公式4计算得到:
其中,G*为目标参数值;G表示编解码生成网络;D表示判别网络;LcGAN(G,D)为生成式对抗网络目标函数值;LL1(G)为距离函数值;Lcolor(G)为颜色损失值;λ为平衡损失权重。
S14、将生成式对抗网络的参数更新为所述目标参数,即表示生成式对抗网络完成训练过程。接着将完成训练的生成式对抗网络应用于实际的图像美颜过程,以避免图像处理过程出现破坏原图像的情况,从而在一定程度上提供高质量的保持原图细节特征的自然图像。
参照图4,本发明实施例提供了一种美颜处理方法,本实施例可应用于服务器、平台或者终端设备的后台处理器。
在实施过程中,本实施例包括以下步骤:
S21、获取待处理图像。该带处理图像为用户在应用终端设备进行拍照过程中的实时拍摄图像。
S22、对待处理图像分别进行祛痘、磨皮、美白和滤镜处理,生成目标图像。其中,滤镜处理过程为采用图1方法训练后的生成式对抗网络进行处理。
在一些实施例中,对待处理图像进行祛痘处理这一步骤,可通过以下方式实现:
提取待处理图像的人脸关键点,其中,人脸关键点可以包括4个,人脸的上下左右各一个关键点。接着根据人脸关键点确定人脸椭圆区域,并构建人脸椭圆区域的掩码图像。同时对待处理图像灰度化。然后将灰度化后的图像与掩码图像进行相与计算,得到人脸部位图像;对人脸部位图像依次进行自适应阈值二值化操作和连通域分析,以找到孤立点区域。根据孤立点区域确定痘斑的位置坐标;最后根据位置坐标对待处理图像进行修复。
在一些实施例中,对待处理图像进行磨皮处理这一步骤,可通过采用表面滤波算法对待处理图像进行磨皮处理。其中,表面滤波算法如公式5所示:
vres为输出像素值;w为当前像素值;r为领域半径,wi为半径r内的像素值;Q为用户参数,范围为[0,255]。
在一些实施例中,对待处理图像进行美白处理这一步骤,可通过采用对数曲线公式构建映射表;然后根据映射表对待处理图像进行选择性增强区域,例如过低或者过高的像素小幅度增加,中间部分的像素较大幅度增加。具体地,本实施例的处理过程如公式6所示:
其中,w(x,y)为原图像像素;v(x,y)为提亮后的值;β为对数曲线参数。
综上可知,上述实施例通过对待处理图像分别进行祛痘、磨皮、美白处理,并采用训练后的生成式对抗网络对待处理图像进行滤镜处理后得到目标图像,避免出现破坏原图像的情况,从而在一定程度上提供高质量的保持原图细节特征的自然图像。
本发明实施例提供了一种与图4方法对应的美颜处理系统,包括:
获取模块,用于获取待处理图像;
处理模块,用于对待处理图像分别进行祛痘、磨皮、美白和滤镜处理,生成目标图像;
其中,采用预先训练的生成式对抗网络对所述待处理图像进行滤镜处理;所述生成式对抗网络的训练步骤如图1所示,其包括:
获取若干张训练图像作为训练集;
采用训练集计算所述生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数;
根据生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数;
将生成式对抗网络的参数更新为所述目标参数。
本发明方法实施例的内容均适用于本系统实施例,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法达到的有益效果也相同。
本发明实施例提供了一种美颜处理系统,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于加载所述程序以执行的美颜处理方法。
本发明方法实施例的内容均适用于本系统实施例,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法达到的有益效果也相同。
本发明实施例提供了一种存储介质,其中存储有处理器可执行的程序,所述处理器可执行的程序在由处理器执行时用于执行的美颜处理方法。
本发明实施例提供了一种终端设备,所述终端设备通过图4所示的美颜处理方法控制图像美颜处理过程。
上面结合附图对本发明实施例作了详细说明,但是本发明不限于上述实施例,在所属技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。此外,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
Claims (10)
1.一种美颜处理方法,其特征在于,包括以下步骤:
获取待处理图像;
对所述待处理图像分别进行祛痘、磨皮、美白和滤镜处理,生成目标图像;
其中,采用预先训练的生成式对抗网络对所述待处理图像进行滤镜处理;所述生成式对抗网络的训练步骤包括:
获取若干张训练图像作为训练集;
采用所述训练集计算所述生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数;
根据所述生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数;
将所述生成式对抗网络的参数更新为所述目标参数。
2.根据权利要求1所述的一种美颜处理方法,其特征在于,所述生成式对抗网络包括编解码生成网络和判别网络,所述编解码生成网络包括若干个编码单元和若干个解码单元;
所述编码单元对输入图像进行压缩,提取高层次语义特征;
所述解码单元对输入图像进行上采样后与解码单元对所述输入图像处理得到的信息进行结合,得到输入图像的空间维度和细节。
3.根据权利要求2所述的一种美颜处理方法,其特征在于,所述若干张训练图像包括原图像和目标真值图像;所述生成式对抗网络目标函数如公式1:
其中,LcGAN(G,D)为生成式对抗网络目标函数值;G表示编解码生成网络;D表示判别网络;x表示原图像;y表示目标真值图像;z表示随机噪声;和分别表示关于(x,y)和(x,z)的数学期望;pdata(x,y)表示关于(x,y)的联合数据分布;
所述距离函数如公式2所示:
所述颜色损失函数如公式3所示:
其中,Lcolor(G)为颜色损失值;[G(x,z)]b和Yb分别为生成图像G(x,z)和目标真值图像y高斯滤波处理后的结果;
所述目标参数的计算公式如公式4所示:
其中,G*为目标参数值;G表示编解码生成网络;D表示判别网络;LcGAN(G,D)为生成式对抗网络目标函数值;LL1(G)为距离函数值;Lcolor(G)为颜色损失值;λ为平衡损失权重。
4.根据权利要求1所述的一种美颜处理方法,其特征在于,所述对所述待处理图像进行祛痘处理这一步骤,包括:
提取所述待处理图像的人脸关键点;
根据所述人脸关键点确定人脸椭圆区域;
构建所述人脸椭圆区域的掩码图像;
对所述待处理图像灰度化;
将灰度化后的图像与所述掩码图像进行相与计算,得到人脸部位图像;
对所述人脸部位图像依次进行二值化操作和连通域分析,得到孤立点区域;
根据所述孤立点区域确定痘斑的位置坐标;
根据所述位置坐标对所述待处理图像进行修复。
5.根据权利要求1所述的一种美颜处理方法,其特征在于,所述对所述待处理图像进行磨皮处理这一步骤,其具体为:
采用表面滤波算法对所述待处理图像进行磨皮处理。
6.根据权利要求1所述的一种美颜处理方法,其特征在于,所述对所述待处理图像进行美白处理这一步骤,包括:
采用对数曲线公式构建映射表;
根据所述映射表对所述待处理图像进行选择性增强区域。
7.一种美颜处理系统,其特征在于,包括:
获取模块,用于获取待处理图像;
处理模块,用于对所述待处理图像分别进行祛痘、磨皮、美白和滤镜处理,生成目标图像;
其中,采用预先训练的生成式对抗网络对所述待处理图像进行滤镜处理;所述生成式对抗网络的训练步骤包括:
获取若干张训练图像作为训练集;
采用所述训练集计算所述生成式对抗网络中的生成式对抗网络目标函数、距离函数和颜色损失函数;
根据所述生成式对抗网络目标函数、距离函数和颜色损失函数的计算结果计算目标参数;
将所述生成式对抗网络的参数更新为所述目标参数。
8.一种美颜处理系统,其特征在于,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于加载所述程序以执行如权利要求1-6任一项所述的美颜处理方法。
9.一种存储介质,其中存储有处理器可执行的程序,其特征在于,所述处理器可执行的程序在由处理器执行时用于执行如权利要求1-6任一项所述的美颜处理方法。
10.一种终端设备,其特征在于,所述终端设备通过权利要求1-6任一项所述的美颜处理方法控制图像美颜处理过程。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110136729.1A CN112862712A (zh) | 2021-02-01 | 2021-02-01 | 美颜处理方法、系统、存储介质和终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110136729.1A CN112862712A (zh) | 2021-02-01 | 2021-02-01 | 美颜处理方法、系统、存储介质和终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112862712A true CN112862712A (zh) | 2021-05-28 |
Family
ID=75987493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110136729.1A Pending CN112862712A (zh) | 2021-02-01 | 2021-02-01 | 美颜处理方法、系统、存储介质和终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112862712A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344833A (zh) * | 2021-05-31 | 2021-09-03 | 电子科技大学中山学院 | 一种图像增强方法、装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107274452A (zh) * | 2017-05-31 | 2017-10-20 | 成都品果科技有限公司 | 一种痘痘自动检测方法 |
CN108960408A (zh) * | 2018-06-12 | 2018-12-07 | 杭州米绘科技有限公司 | 一种面向超高清分辨率图案的风格化系统及方法 |
CN109345480A (zh) * | 2018-09-28 | 2019-02-15 | 广州云从人工智能技术有限公司 | 一种基于图像修复模型的人脸自动去痘方法 |
CN111669611A (zh) * | 2020-06-19 | 2020-09-15 | 广州繁星互娱信息科技有限公司 | 图像处理方法、装置、终端及存储介质 |
US20200349391A1 (en) * | 2019-04-30 | 2020-11-05 | Shenzhen Sensetime Technology Co., Ltd. | Method for training image generation network, electronic device, and storage medium |
CN112270300A (zh) * | 2020-11-17 | 2021-01-26 | 衡阳师范学院 | 基于生成式对抗网络的人脸素描图像转换为rgb图像方法 |
-
2021
- 2021-02-01 CN CN202110136729.1A patent/CN112862712A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107274452A (zh) * | 2017-05-31 | 2017-10-20 | 成都品果科技有限公司 | 一种痘痘自动检测方法 |
CN108960408A (zh) * | 2018-06-12 | 2018-12-07 | 杭州米绘科技有限公司 | 一种面向超高清分辨率图案的风格化系统及方法 |
CN109345480A (zh) * | 2018-09-28 | 2019-02-15 | 广州云从人工智能技术有限公司 | 一种基于图像修复模型的人脸自动去痘方法 |
US20200349391A1 (en) * | 2019-04-30 | 2020-11-05 | Shenzhen Sensetime Technology Co., Ltd. | Method for training image generation network, electronic device, and storage medium |
CN111669611A (zh) * | 2020-06-19 | 2020-09-15 | 广州繁星互娱信息科技有限公司 | 图像处理方法、装置、终端及存储介质 |
CN112270300A (zh) * | 2020-11-17 | 2021-01-26 | 衡阳师范学院 | 基于生成式对抗网络的人脸素描图像转换为rgb图像方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344833A (zh) * | 2021-05-31 | 2021-09-03 | 电子科技大学中山学院 | 一种图像增强方法、装置、电子设备及存储介质 |
CN113344833B (zh) * | 2021-05-31 | 2023-12-15 | 电子科技大学中山学院 | 一种图像增强方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gurrola-Ramos et al. | A residual dense u-net neural network for image denoising | |
Pan et al. | Physics-based generative adversarial models for image restoration and beyond | |
Li et al. | Fast multi-scale structural patch decomposition for multi-exposure image fusion | |
Fu et al. | Clearing the skies: A deep network architecture for single-image rain removal | |
CN108604369B (zh) | 一种去除图像噪声的方法、装置、设备及卷积神经网络 | |
Kim et al. | Unsupervised real-world super resolution with cycle generative adversarial network and domain discriminator | |
US10863206B2 (en) | Content-weighted deep residual learning for video in-loop filtering | |
CN112541877B (zh) | 基于条件生成对抗网络的去模糊方法、系统、设备及介质 | |
CN109816612A (zh) | 图像增强方法和装置、计算机可读存储介质 | |
CN111275643A (zh) | 基于通道和空间注意力的真实噪声盲去噪网络模型及方法 | |
CN113284051A (zh) | 一种基于频率分解多注意力机制的人脸超分辨方法 | |
CN111986132A (zh) | 一种基于DLatLRR与VGG·Net的红外与可见光图像融合方法 | |
CN109961397B (zh) | 图像重建方法及设备 | |
Lepcha et al. | A deep journey into image enhancement: A survey of current and emerging trends | |
Du et al. | Blind image denoising via dynamic dual learning | |
Liu et al. | Facial image inpainting using multi-level generative network | |
Zhang et al. | Multi-scale frequency separation network for image deblurring | |
CN112862712A (zh) | 美颜处理方法、系统、存储介质和终端设备 | |
Chen et al. | Deep learning for linear inverse problems using the plug-and-play priors framework | |
Pu et al. | Fractional-order retinex for adaptive contrast enhancement of under-exposed traffic images | |
CN112232292A (zh) | 应用于移动端的人脸检测方法及装置 | |
CN112509144A (zh) | 人脸图像处理方法、装置、电子设备及存储介质 | |
Van Noord et al. | Light-weight pixel context encoders for image inpainting | |
Shin et al. | Deep orthogonal transform feature for image denoising | |
Lee et al. | Two-stream learning-based compressive sensing network with high-frequency compensation for effective image denoising |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |