CN110096156B - 基于2d图像的虚拟换装方法 - Google Patents

基于2d图像的虚拟换装方法 Download PDF

Info

Publication number
CN110096156B
CN110096156B CN201910395740.2A CN201910395740A CN110096156B CN 110096156 B CN110096156 B CN 110096156B CN 201910395740 A CN201910395740 A CN 201910395740A CN 110096156 B CN110096156 B CN 110096156B
Authority
CN
China
Prior art keywords
loss
network
user
generator
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910395740.2A
Other languages
English (en)
Other versions
CN110096156A (zh
Inventor
于瑞云
王晓琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201910395740.2A priority Critical patent/CN110096156B/zh
Publication of CN110096156A publication Critical patent/CN110096156A/zh
Application granted granted Critical
Publication of CN110096156B publication Critical patent/CN110096156B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提出了基于2D图像的虚拟换装方法,属于计算机视觉领域。该方法采用首先生成用户穿着目标服装的分割图,来清晰地划分用户的肢体和服装的范围;接下来使用该新生成的分割图来引导合成最终图像,避免了服装和肢体两部分互相争抢而出现缺失的现象,进而得到更好的合成效果。相比于传统的3D虚拟换装方法,该方法具有更广泛的应用场景。

Description

基于2D图像的虚拟换装方法
技术领域
本发明属于计算机视觉领域,具体涉及基于2D图像的虚拟换装方法。
背景技术
现在,越来越多的人选择网上购物,其中就包括服装的购买。网上购物不仅便利了我们的生活,还促进了商业的发展。然而,当我们在网上购买服装时,往往不知道这个服装是否真的适合自己。如果我们可以虚拟地试穿服装,那么这将极大地提高我们的购物体验。亦或是,当我们游玩在景区,总会看到提供换装拍照的服务,然而有时候我们并不想真正地换上那些服装,这时,虚拟换装将会为我们带来便利,我们可以通过移动设备,看到自己虚拟换装后的效果并进行拍照。
近年来,随着卷积网络等神经网络的发展,计算机视觉领域掀起了新的发展热潮。对于物体识别方面,计算机甚至可以超越人类的识别能力;对于物体检测方面,计算机视觉技术越来越多的进入我们的生活中,例如监控系统已经可以通过计算机来进行24小时监控;对于图像生成方面,随着生成对抗网络的发展,计算机可以做更多有趣的事情,例如人脸生成和照片风格迁移等等。相对于传统的视觉方法,深度学习方法不需要人工设计特征,节省了大量的人力和时间,且近几年的研究成果充分展现了它更高的准确性和更广泛的适用性。本方法基于深度学习,设计了新的虚拟换装方法。
然而,传统的虚拟换装是基于3D信息的,需要用户提供额外的3D信息,例如身材尺寸,或是服装的3D模型;除此之外,还需要高昂的计算代价。这对于增强现实系统,亦或是,网上购物是非常不利的。基于此,有一些基于2D图像的虚拟换装算法被提出,然而,这一任务充满了挑战,现阶段的方法不能在保留服装细节的同时,保留用户完整的身体信息,从而产生错误的生成结果。
发明内容
针对现有技术存在的不足,本发明提供了一种新的基于2D图像的虚拟换装方法。
本发明的技术方案:
基于2D图像的虚拟换装方法,包括以下步骤:
步骤1:输入一张用户照片I和一张目标服装照片C;
步骤2:根据照片I中的用户,提取该用户的骨骼节点姿态图Pose和该用户的身体分割图M1(身体分割图M1是按照肢体结构进行分割获得的);
步骤2.1:将用户照片I输入识别姿态关节点的网络模型,最终得到18个骨骼关节点,然后将18个点分别绘制成18个11×11的小矩形框,得到用户的骨骼节点姿态图Pose;
步骤2.2:将图像I输入分割网络模型,最终得到单通道用户身体的肢体分割图M1(肢体分割图M1包括脸部、头发、上半身、胳膊、腿、脚6个部分);
步骤3:将Pose、M1和C合并作为第一个卷积网络(CNN网络)的输入,经过编码解码过程,该网络输出用户穿着目标服装的新分割图M2(新分割图M2是按照服装进行分割获得的)和变形后的服装分割图Mc;
步骤3.1:将Pose、M1和C按照通道进行合并,作为input1;
步骤3.2:将input1输入卷积神经网络,该卷积神经网络为U-Net编码解码网络,在其中,添加Attention机制,使得网络更关注与任务相关的位置。编码网络部分,逐步提取input1的特征;解码网络部分,根据得到的最终特征,进行转置操作,逐步将特征放大还原为原图大小。网络最终输出两张图,分别是用户穿着目标服装的新分割图M2(这里按照服装进行分割)和变形后的服装分割图Mc。
步骤3.3:针对网络训练过程,对于M2和Mc使用Focal-loss损失结合L1损失。
步骤4:依据变形后的服装分割图Mc,对未变形的RGB三通道的服装C进行形状上下文TPS插值变形,得到变形后的RGB三通道服装图像C’;
步骤5:将Pose、C’、M2和用户脸部头发的分割图Face_hair合并作为条件对抗网络(cGAN网络)的输入,经过生成器和判别器的对抗合成,输出最终的用户换装后的合成图像I’。
步骤5.1:将Pose、C’、M2和Face_hair按照通道进行合并,作为input2;
步骤5.2:将input2输入条件对抗网络。条件对抗网络包括一个生成器和一个判别器,生成器根据输入的input2生成合成换装图,判别器则要判断出来合成换装图是真还是假,生成器和判别器互相监督互相督促,最终得到优化的生成器和判别器,生成器能够生成足以以假乱真的合成图I’。生成器要生成两个输出,分别是一个初始的人像合成图I_coarse,和一个掩膜mask,mask用来权衡最终合成图I’哪些部分来自于I_coarse,哪些部分来自于变形后的服装C’。
步骤5.3:针对网络训练过程,对于mask使用L1损失,对I_coarse使用VGG-loss损失,对I’使用VGG-loss损失、L1损失和cGAN-loss损失。
本发明的有益效果:本发明提出了一种新的基于2D图像的虚拟换装方法,该方法一共包括三个模块,分别是分割图生成模块、服装变形模块和图像合成模块。针对当前的算法不能同时保留服装细节和用户肢体信息的问题,我们的方法采用首先生成用户穿着目标服装的分割图,来清晰地划分用户的肢体和服装的范围;接下来使用该新生成的分割图来引导最终合成图像的方法,避免了服装和肢体两部分互相争抢而出现缺失的现象,进而得到更好的合成效果。
附图说明
图1为本发明的整体路程图;
图2为本发明方法的功能模块图;
图3为本发明中第一个分割图生成模块的方法流程图;
图4为本发明中第二个服装变形模块的方法示意图;
图5位本发明中cGAN的流程示意图;
图6为本发明中第三个图像合成模块的方法流程图;
图7为本发明的应用结果展示图。
具体实施方式
下面结合附图对本发明的具体训练和测试步骤详细说明。
本实施方式的方式,软件环境为Ubuntu16.04。
针对训练阶段,该方法的整体流程如图1所示。
步骤1:输入任意一张用户照片I和一张目标服装照片C。将两张图调整到256×192×3大小,3表示RGB三通道彩色图片。
步骤2:根据照片I中的用户,提取该用户的骨骼节点姿态图Pose,和该用户的身体分割图M1(这里按照肢体结构进行分割)。
步骤2.1:将图像I输入识别姿态关节点的网络模型,得到18个骨骼关节点(包括左眼、右眼、鼻子、左耳、右耳、脖子、左手、右手、左肘关节、右肘关节、左肩、右肩、左胯骨、右胯骨、左膝、右膝、左脚和右脚,然后将18个点分别绘制成18个11×11的小矩形框,最终组成256×192×18的输入特征图Pose。
步骤2.2:将图像I输入分割网络模型,得到单通道用户身体的肢体分割图(包括脸部、头发、上半身、胳膊、腿、脚6个部分),最终得到256×192×1特征图M1。
步骤3:将Pose、M1和C合并作为第一个卷积网络(CNN网络)的输入,经过编码解码过程,该网络输出用户穿着目标服装的新分割图M2(这里按照服装进行分割)和变形后的服装分割图Mc,如图3所示。
步骤3.1:将姿态关节点的特征图Pose、用户的身体分割图M1和服装照片C按照通道方向进行合并,得到256×192×22的输入特征图作为input1,如图3所示;
步骤3.2:将input1输入Attention-U-Net卷积神经网络,该卷积网络为编码解码网络,包括5层编码层和5层解码层,其中Attention机制通过学习权重,叠加在中间特征图中使得网络更关注与任务相关的位置。
如图3所示,其中实线细箭头为编码网络部分,通过卷积层结合批归一化层,它逐步提取input1的特征;实线宽箭头为解码网络部分,根据得到的最终特征,通过转置卷积结合批归一化层,逐步将特征放大还原为原图大小;虚线细箭头为跳层拼接部分,通过将编码层的特征直连到后面解码层,让网络保留更多的输入信息,在跳层之前,首先通过Attention机制对跳层特征图进行修改。图中额外特征是从未变形的服装图像上提取的卷积特征,通过提供更多的信息,让网络结构更加鲁棒。为了防止网络过拟合,我们在网络结构中加入Dropout层,激活函数选择LeakyReLU。
网络最终输出的output为256×192×2,将它按照通道拆分成两张图,分别是用户穿着目标服装的新分割图M2,大小为256×192×1(这里按照服装进行分割)和变形后的服装分割图Mc,大小为256×192×1。
步骤3.3:针对网络训练过程,对于M2和Mc使用Focal-loss损失(1)结合L1损失(2):
Figure BDA0002056787290000041
Figure BDA0002056787290000042
损失(1)中,N表示参与计算的像素数量,C表示类别总数,
Figure BDA0002056787290000043
表示预测的类别,yik表示类别真值。损失(2)中,x表示预测类别,
Figure BDA0002056787290000044
表示类别真值,γ表示常量。
步骤4:依据变形后的服装分割图Mc,对未变形的RGB三通道的服装C进行形状上下文薄板样条插值(Thin-Plate Spline,TPS)变形,得到变形后的RGB三通道服装图像C’,如图4所示。变形后的服装给第三个合成模块提供更多的服装信息,若是直接将未变形的服装送给合成模块作为输入,由于服装与人体姿态未对齐,最终的合成效果将不理想。
形状上下文(Shape Context)是一种轮廓形状描述子,在该服装变形模块中,分别获取变形后的服装C’和未变形的服装C的形状上下文描述子,并计算N对匹配的点对集合。
薄板样条插值将根据这N对匹配的点对集合求出TPS参数。TPS是一种用于2D形状变形的常用方法,对于两张图像中的N对匹配的点集,计算一个形变来模拟2D的变形,使得其中一张图像变形后,这N对匹配的点相重合。最后,根据计算得到的TPS参数,对原RGB三通道的服装图像C,进行相同的变换,得到RGB三通道变形后的服装C’。
步骤5:将用户的骨骼节点姿态图Pose、变形后的服装C’、用户穿着目标服装的新分割图M2和用户脸部头发的分割图Face_hair合并作为条件对抗网络(cGAN网络,如图5所示)的输入,经过生成器和判别器的对抗合成,输出最终的用户换装后的合成图像I’,如图6所示。
步骤5.1:将Pose、C’、M2和Face_hair按照通道进行合并,作为input2,大小为256×192×25,这里Face_hair是RGB三通道彩色图像,单独拿出它作为输入是为了保证合成的图像保持用户的脸部和头发信息不改变;
步骤5.2:将input2输入条件对抗网络。条件对抗网络包括一个生成器和一个判别器,生成器根据输入的input2生成我们要的合成换装图,判别器则要判断出来合成换装图是真还是假,基于此,生成器和判别器互相监督互相督促,最终我们得到优秀的生成器和判别器,生成器可以生成足以以假乱真的合成图I’。条件对抗网络结构如图5所示。
生成器是一个更深层的Attention-U-Net卷积神经网络,判别器是一个浅层的卷积网络。在生成器的解码网络中,使用双线性插值首先放大特征图,进而连接卷积网络;以之替换转置操作,避免了生成结果中的棋盘伪影现象,得到更好的生成效果。
在这里生成器要生成两个输出,分别是一个初始的人像合成图I_coarse,和一个掩膜mask。通过掩膜mask分别与I_coarse和变形后的服装C’做元素积,来权衡最终合成图I’哪些部分来自于I_coarse,哪些部分来自于变形后的服装C’。在保证用户肢体信息完整的前提下,尽可能多地保留服装细节。
步骤5.3:针对网络训练过程,对于mask使用L1损失(2),对I_coarse使用VGG-loss损失(3),对I’使用VGG-loss损失(3)、L1损失(2)和cGAN-loss损失(4)。
Figure BDA0002056787290000051
LcGAN=Ex,y[logD(x,y)]+Ex,z[log(1-D(x,G(x,z)))] (4)
在公式(3)中,I′为预测值,
Figure BDA0002056787290000052
为真值,
Figure BDA0002056787290000053
为VGG网络第i层卷积的输出特征图,αi为权重,靠前的层,权重低。在公式(4)中,x表示输入条件,在这里表示的就是input2;y表示真值,在这里表示原图I;z为预测值,在这里表示最终合成图I’,Ex,y表示求取均值;Ex,z表示求取均值。
针对测试阶段,整体流程与训练阶段类似,流程图如图1所示。
由用户首先输入两张图像,分别是用户自身照片和一张目标服装照片;然后,经过第一个分割图生成模块,得到用户穿着目标服装的新分割图和变形后的服装分割图;接着,按照服装分割图进行服装变形;最后,根据前两阶段的结果合成最终用户穿着该目标服装的新图像,完成虚拟换装的任务。换装流程及效果如图7所示。
综上所述,基于2D图像的虚拟换装方法可以在不借助于任何额外3D信息的情况下,完成虚拟换装的任务。相比于传统的3D虚拟换装方法,该方法不需要高昂的软硬件成本,具有更广泛的适用场景。相比于最近的2D换装方法,该方法采用首先生成分割图的策略,进一步引导最终合成图像,避免了肢体部分和服装部分的冲突,保证了生成图像的完整性。

Claims (8)

1.一种基于2D图像的虚拟换装方法,其特征在于,包括以下步骤:
步骤1:输入一张用户照片I和一张目标服装照片C;
步骤2:根据照片I中的用户,提取该用户的骨骼节点姿态图Pose和该用户的身体分割图M1;
步骤3:将Pose、M1和C合并作为第一个卷积神经网络的输入,经过编码解码过程,该网络输出用户穿着目标服装的新分割图M2和变形后的服装分割图Mc;
步骤4:依据变形后的服装分割图Mc,对未变形的RGB三通道的服装C进行形状上下文TPS插值变形,得到变形后的RGB三通道服装图像C’;
步骤5:将Pose、C’、M2和用户脸部头发的分割图Face_hair合并作为条件对抗网络的输入,经过生成器和判别器的对抗合成,输出最终的用户换装后的合成图像I’。
2.根据权利要求1所述的基于2D图像的虚拟换装方法,其特征在于,所述步骤2具体按如下步骤执行:
步骤2.1:将用户照片I输入识别姿态关节点的网络模型,最终得到18个骨骼关节点,然后将18个点分别绘制成18个11×11的小矩形框,得到用户的骨骼节点姿态图Pose;
步骤2.2:将照片I输入分割网络模型,最终得到单通道用户的身体分割图M1。
3.根据权利要求1或2所述的基于2D图像的虚拟换装方法,其特征在于,所述步骤3具体按如下步骤执行:
步骤3.1:将Pose、M1和C按照通道进行合并,作为input1;
步骤3.2:将input1输入卷积神经网络,该卷积神经网络为U-Net编码解码网络,在其中,添加Attention机制,使得网络更关注与任务相关的位置;编码网络部分,逐步提取input1的特征;解码网络部分,根据得到的最终特征,进行转置操作,逐步将特征放大还原为原图大小;网络最终输出两张图,分别是用户穿着目标服装的新分割图M2和变形后的服装分割图Mc;
步骤3.3:针对网络训练过程,对于M2和Mc使用Focal-loss损失结合L1损失;Focal-loss损失与L1损失表达式如下:
Figure FDA0002951230960000011
Figure FDA0002951230960000012
其中,损失(1)中,N表示参与计算的像素数量,C表示类别总数,
Figure FDA0002951230960000013
表示预测的类别,γ表示常量,yik表示类别真值;损失(2)中,x表示预测类别,
Figure FDA0002951230960000021
表示类别真值。
4.根据权利要求1或2所述的基于2D图像的虚拟换装方法,其特征在于,所述步骤5具体按如下步骤执行:
步骤5.1:将Pose、C’、M2和Face_hair按照通道进行合并,作为input2;
步骤5.2:将input2输入条件对抗网络;条件对抗网络包括一个生成器和一个判别器,生成器根据输入的input2生成合成换装图,判别器则要判断出来合成换装图是真还是假,生成器和判别器互相监督互相督促,最终得到优化的生成器和判别器,生成器能够生成足以以假乱真的合成图I’;生成器要生成两个输出,分别是一个初始的人像合成图I_coarse和一个掩膜mask,mask用来权衡最终合成图I’哪些部分来自于I_coarse,哪些部分来自于变形后的服装C’;
步骤5.3:针对网络训练过程,对于mask使用L1损失,对I_coarse使用VGG-loss损失,对I’使用VGG-loss损失、L1损失和cGAN-loss损失;L1损失、VGG-loss损失和cGAN-loss损失表达式如下:
Figure FDA0002951230960000022
Figure FDA0002951230960000023
LcGAN=Ex,y[logD(x,y)]+Ex,z[log(1-D(x,G(x,z)))] (4)
公式(2)中,x表示预测类别,
Figure FDA0002951230960000024
表示类别真值;公式(3)中,I′为预测值,
Figure FDA0002951230960000025
为真值,
Figure FDA0002951230960000026
为VGG网络第i层卷积的输出特征图,αi为权重,靠前的层,权重低;公式(4)中,x表示输入条件,在这里表示input2;y表示真值,在这里表示原图I;z为预测值,在这里表示最终合成图I’,Ex,y表示求取均值;Ex,z表示求取均值。
5.根据权利要求3所述的基于2D图像的虚拟换装方法,其特征在于,所述步骤5具体按如下步骤执行:
步骤5.1:将Pose、C’、M2和Face_hair按照通道进行合并,作为input2;
步骤5.2:将input2输入条件对抗网络;条件对抗网络包括一个生成器和一个判别器,生成器根据输入的input2生成合成换装图,判别器则要判断出来合成换装图是真还是假,生成器和判别器互相监督互相督促,最终得到优化的生成器和判别器,生成器能够生成足以以假乱真的合成图I’;生成器要生成两个输出,分别是一个初始的人像合成图I_coarse,和一个掩膜mask,mask用来权衡最终合成图I’哪些部分来自于I_coarse,哪些部分来自于变形后的服装C’;
步骤5.3:针对网络训练过程,对于mask使用L1损失,对I_coarse使用VGG-loss损失,对I’使用VGG-loss损失、L1损失和cGAN-loss损失;L1损失、VGG-loss损失和cGAN-loss损失表达式如下:
Figure FDA0002951230960000031
Figure FDA0002951230960000032
LcGAN=Ex,y[logD(x,y)]+Ex,z[log(1-D(x,G(x,z)))] (4)
公式(2)中,x表示预测类别,
Figure FDA0002951230960000033
表示类别真值;公式(3)中,I′为预测值,
Figure FDA0002951230960000034
为真值,
Figure FDA0002951230960000035
为VGG网络第i层卷积的输出特征图,αi为权重,靠前的层,权重低;公式(4)中,x表示输入条件,在这里表示input2;y表示真值,在这里表示原图I;z为预测值,在这里表示最终合成图I’,Ex,y表示求取均值;Ex,z表示求取均值。
6.根据权利要求1、2或5所述的基于2D图像的虚拟换装方法,其特征在于,所述步骤2中,18个骨骼关节点包括左眼、右眼、鼻子、左耳、右耳、脖子、左手、右手、左肘关节、右肘关节、左肩、右肩、左胯骨、右胯骨、左膝、右膝、左脚和右脚;身体分割图M1包括脸部、头发、上半身、胳膊、腿、脚6个部分。
7.根据权利要求3所述的基于2D图像的虚拟换装方法,其特征在于,所述步骤2中,18个骨骼关节点包左眼、右眼、鼻子、左耳、右耳、脖子、左手、右手、左肘关节、右肘关节、左肩、右肩、左胯骨、右胯骨、左膝、右膝、左脚和右脚;身体分割图M1包括脸部、头发、上半身、胳膊、腿、脚6个部分。
8.根据权利要求4所述的基于2D图像的虚拟换装方法,其特征在于,所述步骤2中,18个骨骼关节点包括左眼、右眼、鼻子、左耳、右耳、脖子、左手、右手、左肘关节、右肘关节、左肩、右肩、左胯骨、右胯骨、左膝、右膝、左脚和右脚;身体分割图M1包括脸部、头发、上半身、胳膊、腿、脚6个部分。
CN201910395740.2A 2019-05-13 2019-05-13 基于2d图像的虚拟换装方法 Active CN110096156B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910395740.2A CN110096156B (zh) 2019-05-13 2019-05-13 基于2d图像的虚拟换装方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910395740.2A CN110096156B (zh) 2019-05-13 2019-05-13 基于2d图像的虚拟换装方法

Publications (2)

Publication Number Publication Date
CN110096156A CN110096156A (zh) 2019-08-06
CN110096156B true CN110096156B (zh) 2021-06-15

Family

ID=67447930

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910395740.2A Active CN110096156B (zh) 2019-05-13 2019-05-13 基于2d图像的虚拟换装方法

Country Status (1)

Country Link
CN (1) CN110096156B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023039183A1 (en) * 2021-09-09 2023-03-16 Snap Inc. Controlling interactive fashion based on facial expressions

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112015272B (zh) * 2020-03-10 2022-03-25 北京欧倍尔软件技术开发有限公司 虚拟现实系统及虚拟现实对象控制装置
CN111784845B (zh) * 2020-06-12 2023-05-30 腾讯科技(深圳)有限公司 基于人工智能的虚拟试穿方法、装置、服务器及存储介质
CN112529914B (zh) * 2020-12-18 2021-08-13 北京中科深智科技有限公司 一种实时头发分割方法和系统
CN112258659B (zh) * 2020-12-23 2021-04-13 恒信东方文化股份有限公司 一种虚拟穿衣图像的处理方法及其系统
CN112699261A (zh) * 2020-12-28 2021-04-23 大连工业大学 一种服装图像自动生成系统及方法
CN112613439A (zh) * 2020-12-28 2021-04-06 湖南大学 一种新型的虚拟试衣网络
CN112884638A (zh) * 2021-02-02 2021-06-01 北京东方国信科技股份有限公司 虚拟试衣方法及装置
CN113269072B (zh) * 2021-05-18 2024-06-07 咪咕文化科技有限公司 图片处理方法、装置、设备及计算机程序
US11670059B2 (en) 2021-09-01 2023-06-06 Snap Inc. Controlling interactive fashion based on body gestures
US11673054B2 (en) 2021-09-07 2023-06-13 Snap Inc. Controlling AR games on fashion items
US11734866B2 (en) 2021-09-13 2023-08-22 Snap Inc. Controlling interactive fashion based on voice
US11983826B2 (en) 2021-09-30 2024-05-14 Snap Inc. 3D upper garment tracking
US11651572B2 (en) 2021-10-11 2023-05-16 Snap Inc. Light and rendering of garments

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105528799A (zh) * 2014-10-21 2016-04-27 三星电子株式会社 虚拟试衣装置及其虚拟试衣方法
CN106503286A (zh) * 2016-09-18 2017-03-15 福建网龙计算机网络信息技术有限公司 量体裁衣服务及其系统
CN107481099A (zh) * 2017-07-28 2017-12-15 厦门大学 可360度转身的实时虚拟试衣的实现方法
EP3479296A1 (en) * 2016-08-10 2019-05-08 Zeekit Online Shopping Ltd. System, device, and method of virtual dressing utilizing image processing, machine learning, and computer vision

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5786463B2 (ja) * 2011-06-01 2015-09-30 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
SG10201912801UA (en) * 2012-11-12 2020-02-27 Univ Singapore Technology & Design Clothing matching system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105528799A (zh) * 2014-10-21 2016-04-27 三星电子株式会社 虚拟试衣装置及其虚拟试衣方法
EP3479296A1 (en) * 2016-08-10 2019-05-08 Zeekit Online Shopping Ltd. System, device, and method of virtual dressing utilizing image processing, machine learning, and computer vision
CN106503286A (zh) * 2016-09-18 2017-03-15 福建网龙计算机网络信息技术有限公司 量体裁衣服务及其系统
CN107481099A (zh) * 2017-07-28 2017-12-15 厦门大学 可360度转身的实时虚拟试衣的实现方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于2D图像变换的虚拟试衣算法;苏卓等;《计算机技术与发展》;20180228;第28卷(第2期);24-26 *
虚拟试衣系统中的模型变形;杨晨辉等;《厦门大学学报》;20140130;第53卷(第1期);46-51 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023039183A1 (en) * 2021-09-09 2023-03-16 Snap Inc. Controlling interactive fashion based on facial expressions
US11900506B2 (en) 2021-09-09 2024-02-13 Snap Inc. Controlling interactive fashion based on facial expressions

Also Published As

Publication number Publication date
CN110096156A (zh) 2019-08-06

Similar Documents

Publication Publication Date Title
CN110096156B (zh) 基于2d图像的虚拟换装方法
US20200193591A1 (en) Methods and systems for generating 3d datasets to train deep learning networks for measurements estimation
CN110399849A (zh) 图像处理方法及装置、处理器、电子设备及存储介质
CN110599395B (zh) 目标图像生成方法、装置、服务器及存储介质
US20210279515A1 (en) Data processing method and device for generating face image and medium
WO2022143645A1 (zh) 三维人脸重建的方法、装置、设备和存储介质
JP6207210B2 (ja) 情報処理装置およびその方法
CN108363973A (zh) 一种无约束的3d表情迁移方法
WO2013078404A1 (en) Perceptual rating of digital image retouching
Liu et al. Psgan++: Robust detail-preserving makeup transfer and removal
CN108876936A (zh) 虚拟显示方法、装置、电子设备及计算机可读存储介质
WO2021087425A1 (en) Methods and systems for generating 3d datasets to train deep learning networks for measurements estimation
CN113724354A (zh) 基于参考图颜色风格的灰度图像着色方法
Habermann et al. A deeper look into deepcap
Zhu et al. Mvp-human dataset for 3d human avatar reconstruction from unconstrained frames
Lu et al. Parametric shape estimation of human body under wide clothing
JP2007102478A (ja) 画像処理装置、画像処理方法、及び半導体集積回路
US20230050535A1 (en) Volumetric video from an image source
Mena-Chalco et al. 3D human face reconstruction using principal components spaces
CN116452601A (zh) 虚拟试衣方法、装置、电子设备及存储介质
CN109658326A (zh) 一种图像显示方法及装置、计算机可读存储介质
Zhang et al. See through occlusions: Detailed human shape estimation from a single image with occlusions
CN113793409A (zh) 虚拟道具展示方法及装置
CN115147526B (zh) 服饰生成模型的训练、生成服饰图像的方法和装置
Yoon Metaverse in the Wild: Modeling, Adapting, and Rendering of 3D Human Avatars from a Single Camera

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant