CN109308725B - 一种移动端表情趣图生成的系统 - Google Patents

一种移动端表情趣图生成的系统 Download PDF

Info

Publication number
CN109308725B
CN109308725B CN201810998168.4A CN201810998168A CN109308725B CN 109308725 B CN109308725 B CN 109308725B CN 201810998168 A CN201810998168 A CN 201810998168A CN 109308725 B CN109308725 B CN 109308725B
Authority
CN
China
Prior art keywords
unit
picture
mobile terminal
loss
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810998168.4A
Other languages
English (en)
Other versions
CN109308725A (zh
Inventor
陈梓蓉
舒琳
徐向民
伍思航
孙梓凯
伍冠中
蔡子瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201810998168.4A priority Critical patent/CN109308725B/zh
Publication of CN109308725A publication Critical patent/CN109308725A/zh
Application granted granted Critical
Publication of CN109308725B publication Critical patent/CN109308725B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于人工智能与互联网技术领域,为移动端表情趣图生成的系统,包括移动端和服务器端;移动端包括数据采集获取单元、控制单元、显示单元和数据请求单元,保存单元、分享单元分别与显示单元连接,数据采集获取单元、显示单元、数据请求单元分别与控制单元连接;服务器端采用基于生成对抗网络的方法构造深度卷积神经网络模型;控制单元通过数据请求单元对深度神经网络模型进行先验的条件控制,使其将数据请求单元输入的原图进行相应控制单元所需要图片的生成,生成完成之后通过数据请求单元返回显示单元。本发明能学习出面部表情特征以生成不同情绪、不同发色、不同年龄的人脸表情,转换性能好、速率快,满足人们猎奇和趣味恶搞的心理需求。

Description

一种移动端表情趣图生成的系统
技术领域
本发明属于人工智能与互联网技术领域,特别涉及一种移动端表情趣图生成的系统。
背景技术
随着生活质量的提高和信息技术的迅猛发展,智能手机已走入人们的日常生活。日新月异的移动终端应用为人们的生活添加了更多的便捷与乐趣,人们越来越关注聊天的娱乐用户性体验,表情趣图在移动端市场的需求量越来越大,扮演着重要的角色,表情趣图作为情绪与信息的一种新兴载体,以其幽默、诙谐、直观等特点渐渐改变了人们的网络表达方式,成为网络中人们用以表达喜怒哀乐等多种情绪不可或缺的交流方式,用户的个性化定制需求,创造力编辑成为了人们关注的新型主题。
卷积神经网络是人工神经网络的一种,是为了识别二维形状而设计的多层感知器。这种网络结构平移,比例缩放,倾斜或者其他形式的变形具有不变性,已经成为当前语音和图像识别领域的研究热点。卷积神经网络类似于生物神经网络,具有权值共享网络结构,大大降低了网络模型的复杂度,减少了权值的数量。该优点在网络的输入是多维图像时表现的比较明显,图像可以作为网络输入,避免了传统识别算法复杂特征提取和数据重建过程。
生成对抗网络对图像的风格迁移和不同区域图像的生成有着重大意义,结构上受博弈论中的二人零和博弈启发,系统由一个生成器和一判别器构成。生成器捕捉真实数据样本的潜在分布,并生成新的数据样本;判别器是一个二分类器,判别输入是真实数据还是生成的样本。生成器和判别器均采用深度神经网络。作为机器学习的一个分支,生成对抗网络在图像重构、图像超分辨率、图像风格迁移等各个领域有着广泛的应用。
近几年来,生成对抗网络的研究工作不断深入,已经取得了很大的进展,其在图片领域解决了许多问题,表现出了良好的智能特性。
发明内容
本发明为了解决现有技术存在问题,提供一种移动端表情趣图生成的系统,该系统能够学习出人脸面部表情特征从而更好的生成不同情绪、不同发色、不同年龄的人脸表情,转换性能好、转换速率快,满足当下人们普遍猎奇和趣味恶搞的心理需求。
本发明采用如下技术方案实现:一种移动端表情趣图生成的系统,包括移动端和服务器端,其中:
移动端包括数据采集获取单元、控制单元、显示单元和数据请求单元,保存单元、分享单元分别与显示单元连接,数据采集获取单元、显示单元、数据请求单元分别与控制单元连接;
服务器端采用基于生成对抗网络的方法构造深度卷积神经网络模型;
控制单元通过数据请求单元对服务器端所构造的深度神经网络模型进行先验的条件控制,使深度神经网络模型将数据请求单元输入的原图进行相应控制单元所需要图片的生成,生成完成之后通过数据请求单元返回显示单元。
优选地,所述控制单元包括:变发单元,用于控制头发的颜色;改变年龄单元,用于控制生成后图片中人物的年龄效果;改变性别单元,用于控制生成图片中人物性别;改变表情单元,用于改变图片中人物的表情;动图单元,用于在移动端输出两张或两张以上图片转换生成的过程图;
所述改变表情单元包括开心单元和震惊单元,开心单元用于改变人物表情使人物在图片中为开心的表情,震惊单元用于改变人物表情使人物在图片中为震惊的表情;
所述变发单元、改变年龄单元、改变性别单元、改变表情单元和动图单元通过数据请求单元对服务器端所构造的深度神经网络模型进行先验的条件控制。
优选地,所述服务器端构造深度卷积神经网络模型,包括以下步骤:
S1、利用StarGAN框架,构造深度卷积神经网络,设定网络参数和更新迭代方式进行训练;
S2、从移动端输入图片,通过所构造的深度神经卷积网络,设定网络参数,计算最小损失函数得到结果。
优选地,步骤S2包括:
(2-1)设定每一次批量训练的图像数目为Btrain张,将所述训练图像输入到所构建的深度卷积神经网络中进行批量训练,一次批量训练数为Bbatch,并采用随机梯度下降方法对构建的深度卷积神经网络进行训练;设定网络初始参数,所述参数包括:初始学习率lr0、当前训练迭代次数epoch和最大训练迭代次数epochmax,其中初始学习率lr0即表示深度卷积神经网络在训练样本中寻找最优解的起始迭代速率;
(2-2)设定网络损失函数,损失函数包括生成器的损失函数和判别器的损失函数。
优选地,所述生成器的损失函数包括三个损失:(1)生成图片产生的损失,通过对生成图片的各个像素点取平均值的负值得到;(2)真实标签与生成图片判别的概率的损失值,通过交叉熵公式后取均值得到;(3)重建图片与原标签图片的损失,通过重建图片像素点减去原标签图片像素点的平均值得到。
优选地,所述判别器的损失函数包括四个损失:(1)判别器对真实图片的损失,通过对真实图片的像素点取平均的负值得到;(2)判别器对生成器生成图片的损失判定,通过对生成图片像素点去平均值得到;(3)衡量真实标签与标签估计的损失值,通过对真实标签与标签估计的差值,使用交叉熵公式再求均值计算得到;(4)对生成器生成图片与背景的损失。
本发明相对于现有技术具有如下的优点和效果:
(1)本发明针对于各种移动端的图片,能够较好的从图像中得到需要的人脸的准确性特征,进行图像转换。
(2)本发明使用深度卷积神经网络,能够提取到较好的局部特征,具备平移不变性,避免传统算法中复杂的特征提取和数据重建过程,提高了本发明的转换准确性能与健壮性。
(3)本发明的鲁棒性强,能够从训练图像集中学习到人脸特征,并且在训练和测试结构上进行优化,从而获得更好的检测性能。
附图说明
图1为本发明移动端表情趣图生成的系统的结构框图;
图2为生成器神经网络结构图;
图3为判别器神经网络结构图;
图4为生成对抗网络的架构图。
具体实施方式
为了使本发明的目的、技术方案以及优点更加清楚明白,以下结合附图及实施例,对本发明做进一步的详细说明。应当理解,此处所描述的具体实施例仅用于解释本发明,并不限于本发明。
实施例
参见图1,本发明移动端表情趣图生成的系统,包括通过网络相连接的移动端及服务器端,所述移动端包括数据采集获取单元、控制单元、显示单元、保存单元、分享单元和数据请求单元,其中控制单元包括变发单元、改变年龄单元、改变性别单元、改变表情单元和动图单元,改变表情单元包括开心、震惊单元;保存单元、分享单元分别与显示单元连接,数据采集获取单元、显示单元、数据请求单元分别与控制单元连接。
本发明采用微信小程序做载体,基于移动端实现,而移动端可以采用手机、平板电脑、台式电脑中的任一种来实现。数据采集获取单元从移动端的相机采集图片,或从移动端内相册或移动端系统图片中获取图片。控制单元中,变发单元用于控制头发的颜色,改变年龄单元用于控制生成后图片中人物的年龄效果,改变性别单元用于控制生成图片中人物性别,改变表情单元用于改变图片中人物的表情,改变表情单元包括开心单元和震惊单元,开心单元用于改变人物表情使人物在图片中为开心的表情,震惊单元用于改变人物表情使人物在图片中为震惊的表情,动图单元用于在移动端输出两张或两张以上图片转换生成的过程图。显示单元用于在移动端显示生成图片的效果;保存单元用于保存图片至移动端;分享单元用于发送分享URL连接;数据请求单元用于连接移动端和服务器端。
控制单元内的变发单元、改变年龄单元、改变性别单元、改变表情单元和动图单元通过数据请求单元对服务器端训练生成好的深度神经网络模型进行先验的条件控制,使服务器端训练好的深度神经网络模型将数据请求单元输入的原图进行相应控制单元所需要图片的生成,生成完成之后通过数据请求单元返回显示单元。
服务器端采用基于生成对抗网络的方法构造深度卷积神经网络模型,包括以下步骤:
S1、利用StarGAN框架,构造深度卷积神经网络,设定网络参数和更新迭代方式进行训练。本步骤包含下列各步骤:
(1-1)基于starGAN框架,将图像输入宽为Wtrain,高为Htrain的图像作为训练图像;
(1-2)构造深度卷积神经网络,该网络包括一个生成器和一个鉴别器(也叫判别器),生成器包括一个输入卷积层、2个下采样卷积层、6个残差卷积层、两个上采样层及一个输出卷积层,每个残差卷积层后跟上一个BN层,输入卷积层后跟上一个BN层,每个上采样层后跟上一个BN层,输出卷积层后跟上一个BN层,每个卷积层紧跟一个RELU激活层;鉴别器包括1个卷积输入层、6个卷积层、LeakyReLu激活层和1个卷积输出层,前7个卷积层后面紧跟一个LeakyReLu激活层。
如图2所示,本实例构建的生成器的深度卷积神经网络如下:Input(64×64)->64C(7×7)S1P3->BN->Relu>128C(4×4)S2P1->ReLu->256C(4×4)S2P1->ReLu->256C(3×3)S1P1->BN->ReLu->256C(3×3)S1P1->BN->ReLu->256C(3×3)S1P1->BN->ReLu->256C(3×3)S1P1->BN->ReLu->256C(3×3)S1P1->BN->ReLu->256C(3×3)S1P1->BN->ReLu->128C(4×4)S2P1->BN->ReLu->128C(7×7)S1P3->BN->ReLu->Output。
生成器的输入层接受图片尺寸大小为64×64像素;第一个输入卷积层的卷积核大小为7×7,步长为1,接下来2个下采样卷积层的卷积核大小为4×4,下采样步长为2,残差层网络中卷积核大小3×3,步长为1,每个卷积层后跟上一BatchNorm正则化层,后面在跟上一个RELU层;上采样的卷积核大小为4×4,下采样步长为2;输出卷积层的卷积核大小为7×7,步长为1,padding为3;ReLu激活层对卷积得到的特征进行线性修正;输出为生成的图片,各个卷积层输出的特征图的个数分别为64、128、256、256、256、256、256、256、256、128和64。
如图3所示,本实例构建的鉴别器的深度卷积神经网络如下:Input(64×64)->64C(4×4)S2P1->leakyRelu>128C(4×4)S2P1->leakyReLu->256C(4×4)S2P1->leakyReLu->512C(4×4)S2P1->leaky ReLu->1024C(4×4)S2P1->leakyReLu->2048C(4×4)S2P1->leakyReLu->1C(3×3)S1P1->5C(7×7)S1P1->Sofmax/Output。
其中Input(64×64)表示输入层接受的图片大小为64×64像素,64C(3×3)S1P1表示对输入图像进行特征提取的卷积层,核大小为3×3,步长为1,输出64的特征图;ReLu表示对卷积得到的特征层进行修正的线性纠正激活层;BN表示BN正则化层;leakyReLu表示对ReLu进行负半轴修正的线性纠正激活层;Softmax/Output表示输出层为softmax层,输出的是图片中人头的概率分布。
判别器的输入卷积层的卷积核大小为4×4,步长为2,接下来5个卷积层的卷积核大小为4×4,下采样步长为2,输出卷积层的第一个卷积层输出维度为1,卷积核大小为3×3,可判别输入的真假,第二个卷积层输出维度为5,卷积核大小为7×7,即判别输入图像的标签,每个卷积层后跟上一个LeakReLu激活层,所述LeakyReLu激活层对卷积得到的特征进行线性修正,各个卷积层输出的特征图的个数为64、128、256、512、1024、2048、1和5。对于判别器的输出,去掉了使用sigmoid层,将LeakyReLu激活层后结果直接作为输出。
S2、从移动端输入图片,通过所构造的深度神经卷积网络,设定网络参数,计算最小损失函数得到结果。参见图4,具体步骤包括:
所述服务器端采用基于生成对抗网络的方法构建深度卷积神经网络进行设定网络参数和更新迭代方式进行训练和测试,具体过程如下:
(2-1)设定每一次批量训练的图像数目为Btrain张,Btrain为100,将所述训练图像输入到所构建的深度卷积神经网络中进行批量训练,一次批量训练数为Bbatch,Bbatch为20,并采用随机梯度下降方法对构建的深度卷积神经网络进行训练。本实施例不使用基于动量的优化的传统算法,用随机梯度下降方法对构建的深度卷积神经网络进行训练。
设定网络初始参数,所述参数包括:初始学习率lr0,lr0为0.0001,当前训练迭代次数epoch和最大训练迭代次数epochmax,epochmax为100;其中初始学习率lr0即表示深度卷积神经网络在训练样本中寻找最优解的起始迭代速率。
学习率减少数的更新方式如下:
Figure BDA0001782343220000061
学习率更新方式如下:
lr=lr0×lr_decay
(2-2)设定网络损失函数,损失函数包括生成器的损失函数和判别器的损失函数,要求判别器损失最小作为生成器梯度下降结果,判别器的损失最小作为判别器的训练。
Lloss=gloss+dloss
其中,gloss为生成器的总损失,dloss为判别器的总损失,Lloss为整个网络的总损失。对于生成器和判别器的损失函数,gloss函数和dloss函数的取值不再根据传统损失值的设定去log函数,自定义了gloss函数和dloss函数的实现方式。
生成器的损失函数包括以下三个损失:
(1)生成图片产生的损失gloss_f,通过对生成图片的各个像素点取平均值的负值得到;
(2)真实标签与生成图片判别的概率的损失值gloss_cls,通过交叉熵公式后取均值得到;
(3)重建图片与原标签图片的损失gloss_rec,通过重建图片像素点减去原标签图片像素点的平均值得到。
判别器的损失函数包括四个损失:
(1)判别器对真实图片的损失dloss_r,通过对真实图片的像素点取平均的负值得到;
(2)判别器对生成器生成图片的损失判定dloss_f,通过对生成图片像素点去平均值得到;
(3)衡量真实标签与标签估计的损失值dloss_c,通过对真实标签与标签估计的差值,使用交叉熵公式再求均值计算得到;
(4)对生成器生成图片与背景的损失dloss_g,通过gradient_penalty公式实现。
其中,生成器损失函数公式如下:
gloss=gloss_f+lambdacls×gloss_cls+lambdarec×gloss_rec
上式中,lambdacls、lambdarec为更新生成器的参数,将每次生成器更新迭代参数之后把其设定为一个固定常数,本实施例设定lambdacls=1,lambdarec=1,生成器gloss_f为生成图片的损失值,公式为:
gloss_f=-mean(outsrc)
其中outsrc为得到生成图片的判别概率,其中估计标签越真实,损失越少。
gloss_cls为衡量真实标签与标签估计的差值,使用交叉熵公式再求均值计算,公式如下:
gloss_cls=mean(L(logits,lables))
标签越接近目标标签损失越小,使用交叉熵计算,公式如下:
Figure BDA0001782343220000071
Figure BDA0001782343220000072
gloss_rec为重建图像与原图的损失,得到的重建图越像原图损失越小:
gloss_rec=mean|xreal-xreconst|
其中xreal为输入的原图像,xreconst为重建后的图像。
而判别器损失函数公式如下:
dloss=dloss_r+dloss_f+lambdacls×dloss_c+lambdagp×dloss_g
其中,lambdacls、lambdagp为更新判别器的参数,将每次判别器更新迭代参数之后把其设定为一个固定常数,本实施例设定lambdacls=1,lambdagp=1,dloss_r为判别器对真实图片的损失,dloss_r值越小判定越接近为真,判定公式如下:
dloss_r=-mean(outsrc)
dloss_f为判别器对生成器生成图片的损失判定,其中dloss_f值越小,判定越接近为假。
dloss_f=mean(outcls)
其中,outsrc为判别器根据图片生成的第一个输出,outcls为判别器根据图片生成的第二个输出。
dloss_c为衡量真实标签与标签估计的差值,使用交叉熵公式再求均值计算,公式如下:
dloss_c=mean(L(logits,lables))
dloss_g为判别器对生成器生成图片与背景的损失判定,由gradient_penalty公式实现,公式如下:
Figure BDA0001782343220000081
其中,D(x)为生成器生成的输出,x满足的分布记为px,x满足的真实图片分布记为pr,x满足的背景图片分布记为pg,λ为自定义常数。
构造好深度卷积神经网络后,依据数据请求单元所发送的请求,生成相应图片返回移动端。服务器在相应的端口,时刻监听HTTPS请求,收到请求后使用PHP接收并解析请求的内容,服务器解析请求的URL,以及图片的二进制数据流和实现何种功能,利用算法生成图片,并作相应的处理。将图片和参数传给Python算法,并将结果图片部署成为URL返回移动端。
以上所述实施例仅表达了本发明的一部分实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明保护范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以权利要求所述为准。

Claims (7)

1.一种移动端表情趣图生成的系统,其特征在于,包括移动端和服务器端,其中:
移动端包括数据采集获取单元、控制单元、显示单元和数据请求单元,保存单元、分享单元分别与显示单元连接,数据采集获取单元、显示单元、数据请求单元分别与控制单元连接;
服务器端采用基于生成对抗网络的方法构造深度卷积神经网络模型;
控制单元通过数据请求单元对服务器端所构造的深度神经网络模型进行先验的条件控制,使深度神经网络模型将数据请求单元输入的原图进行相应控制单元所需要图片的生成,生成完成之后通过数据请求单元返回显示单元;
所述控制单元包括:
变发单元,用于控制头发的颜色;改变年龄单元,用于控制生成后图片中人物的年龄效果;改变性别单元,用于控制生成图片中人物性别;改变表情单元,用于改变图片中人物的表情;动图单元,用于在移动端输出两张或两张以上图片转换生成的过程图;
所述改变表情单元包括开心单元和震惊单元,开心单元用于改变人物表情使人物在图片中为开心的表情,震惊单元用于改变人物表情使人物在图片中为震惊的表情;
所述变发单元、改变年龄单元、改变性别单元、改变表情单元和动图单元通过数据请求单元对服务器端所构造的深度神经网络模型进行先验的条件控制。
2.根据权利要求1所述的移动端表情趣图生成的系统,其特征在于,所述移动端还包括分别与显示单元连接的保存单元、分享单元;保存单元用于保存图片至移动端;分享单元用于发送分享URL连接。
3.根据权利要求1所述的移动端表情趣图生成的系统,其特征在于,所述数据采集获取单元用于从移动端的相机采集图片,或者从移动端内相册或移动端系统图片中获取图片。
4.根据权利要求1所述的移动端表情趣图生成的系统,其特征在于,所述服务器端构造深度卷积神经网络模型,包括以下步骤:
S1、利用StarGAN框架,构造深度卷积神经网络,设定网络参数和更新迭代方式进行训练;
S2、从移动端输入图片,通过所构造的深度神经卷积网络,设定网络参数,计算最小损失函数得到结果。
5.根据权利要求4所述的移动端表情趣图生成的系统,其特征在于,步骤S2包括:
(2-1)设定每一次批量训练的图像数目为Btrain张,将所述训练图像输入到所构建的深度卷积神经网络中进行批量训练,一次批量训练数为Bbatch,并采用随机梯度下降方法对构建的深度卷积神经网络进行训练;设定网络初始参数,所述参数包括:初始学习率lr0、当前训练迭代次数epoch和最大训练迭代次数epochmax,其中初始学习率lr0即表示深度卷积神经网络在训练样本中寻找最优解的起始迭代速率;
(2-2)设定网络损失函数,损失函数包括生成器的损失函数和判别器的损失函数。
6.根据权利要求5所述的移动端表情趣图生成的系统,其特征在于,所述生成器的损失函数包括三个损失:(1)生成图片产生的损失,通过对生成图片的各个像素点取平均值的负值得到;(2)真实标签与生成图片判别的概率的损失值,通过交叉熵公式后取均值得到;(3)重建图片与原标签图片的损失,通过重建图片像素点减去原标签图片像素点的平均值得到。
7.根据权利要求5所述的移动端表情趣图生成的系统,其特征在于,所述判别器的损失函数包括四个损失:(1)判别器对真实图片的损失,通过对真实图片的像素点取平均的负值得到;(2)判别器对生成器生成图片的损失判定,通过对生成图片像素点去平均值得到;(3)衡量真实标签与标签估计的损失值,通过对真实标签与标签估计的差值,使用交叉熵公式再求均值计算得到;(4)对生成器生成图片与背景的损失。
CN201810998168.4A 2018-08-29 2018-08-29 一种移动端表情趣图生成的系统 Active CN109308725B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810998168.4A CN109308725B (zh) 2018-08-29 2018-08-29 一种移动端表情趣图生成的系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810998168.4A CN109308725B (zh) 2018-08-29 2018-08-29 一种移动端表情趣图生成的系统

Publications (2)

Publication Number Publication Date
CN109308725A CN109308725A (zh) 2019-02-05
CN109308725B true CN109308725B (zh) 2020-09-22

Family

ID=65224342

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810998168.4A Active CN109308725B (zh) 2018-08-29 2018-08-29 一种移动端表情趣图生成的系统

Country Status (1)

Country Link
CN (1) CN109308725B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2586260B (en) * 2019-08-15 2021-09-15 Huawei Tech Co Ltd Facial image processing
CN110647864A (zh) * 2019-09-30 2020-01-03 上海依图网络科技有限公司 基于生成对抗网络的单人多图特征识别方法、设备及介质
CN111145080B (zh) * 2019-12-02 2023-06-23 北京达佳互联信息技术有限公司 一种图像生成模型的训练方法、图像生成方法及装置
CN111369468B (zh) * 2020-03-09 2022-02-01 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及计算机可读介质
CN111784565B (zh) * 2020-07-01 2021-10-29 北京字节跳动网络技术有限公司 图像处理方法、迁移模型训练方法、装置、介质及设备
CN113108792A (zh) * 2021-03-16 2021-07-13 中山大学 Wi-Fi指纹地图重建方法、装置、终端设备及介质
CN114092649B (zh) * 2021-11-25 2022-10-18 马上消费金融股份有限公司 基于神经网络的图片生成方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107369174A (zh) * 2017-07-26 2017-11-21 厦门美图之家科技有限公司 一种人脸图像的处理方法及计算设备
CN107924579A (zh) * 2015-08-14 2018-04-17 麦特尔有限公司 生成个性化3d头部模型或3d身体模型的方法
CN108171770A (zh) * 2018-01-18 2018-06-15 中科视拓(北京)科技有限公司 一种基于生成式对抗网络的人脸表情编辑方法
CN108257195A (zh) * 2018-02-23 2018-07-06 深圳市唯特视科技有限公司 一种基于几何对比生成对抗网络的面部表情合成方法
CN108460812A (zh) * 2018-04-04 2018-08-28 北京红云智胜科技有限公司 一种基于深度学习的表情包生成系统及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110091081A1 (en) * 2009-10-16 2011-04-21 General Electric Company Method and system for analyzing the expression of biomarkers in cells in situ in their tissue of origin

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107924579A (zh) * 2015-08-14 2018-04-17 麦特尔有限公司 生成个性化3d头部模型或3d身体模型的方法
CN107369174A (zh) * 2017-07-26 2017-11-21 厦门美图之家科技有限公司 一种人脸图像的处理方法及计算设备
CN108171770A (zh) * 2018-01-18 2018-06-15 中科视拓(北京)科技有限公司 一种基于生成式对抗网络的人脸表情编辑方法
CN108257195A (zh) * 2018-02-23 2018-07-06 深圳市唯特视科技有限公司 一种基于几何对比生成对抗网络的面部表情合成方法
CN108460812A (zh) * 2018-04-04 2018-08-28 北京红云智胜科技有限公司 一种基于深度学习的表情包生成系统及方法

Also Published As

Publication number Publication date
CN109308725A (zh) 2019-02-05

Similar Documents

Publication Publication Date Title
CN109308725B (zh) 一种移动端表情趣图生成的系统
TWI779969B (zh) 圖像處理方法、處理器、電子設備與電腦可讀存儲介質
JP2022513272A (ja) 訓練深層学習ネットワークの3dモデルから大量訓練データセットを自動的に生成する方法及びシステム
CN111476708B (zh) 模型生成方法、模型获取方法、装置、设备及存储介质
CN111767979A (zh) 神经网络的训练方法、图像处理方法、图像处理装置
CN111325851A (zh) 图像处理方法及装置、电子设备和计算机可读存储介质
CN110232722B (zh) 一种图像处理方法及装置
CN112330684B (zh) 对象分割方法、装置、计算机设备及存储介质
CN111108508B (zh) 脸部情感识别方法、智能装置和计算机可读存储介质
CN114782864B (zh) 一种信息处理方法、装置、计算机设备及存储介质
CN112633425B (zh) 图像分类方法和装置
CN112712127A (zh) 一种结合图卷积神经网络的图像情感极性分类方法
CN112597824A (zh) 行为识别方法、装置、电子设备和存储介质
CN114743080A (zh) 图像处理方法及装置、终端、存储介质
CN113361387A (zh) 人脸图像融合方法及装置、存储介质及电子设备
CN114783022B (zh) 一种信息处理方法、装置、计算机设备及存储介质
CN114677730A (zh) 活体检测方法、装置、电子设备及存储介质
CN110598097B (zh) 一种基于cnn的发型推荐系统、方法、设备及存储介质
CN114581918A (zh) 一种文本识别模型训练方法及装置
CN110555379B (zh) 一种根据性别动态调整特征的人脸愉悦度估计方法
CN116701706B (zh) 一种基于人工智能的数据处理方法、装置、设备及介质
CN117078816A (zh) 一种虚拟形象的生成方法、装置、终端设备和存储介质
CN111445545A (zh) 一种文本转贴图方法、装置、存储介质及电子设备
CN113538214B (zh) 一种妆容迁移的控制方法、系统和存储介质
CN113569809A (zh) 一种图像处理方法、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant