CN107481099A - 可360度转身的实时虚拟试衣的实现方法 - Google Patents

可360度转身的实时虚拟试衣的实现方法 Download PDF

Info

Publication number
CN107481099A
CN107481099A CN201710631788.XA CN201710631788A CN107481099A CN 107481099 A CN107481099 A CN 107481099A CN 201710631788 A CN201710631788 A CN 201710631788A CN 107481099 A CN107481099 A CN 107481099A
Authority
CN
China
Prior art keywords
joint point
model
data
virtual
kinect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710631788.XA
Other languages
English (en)
Inventor
姚俊峰
张晓丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN201710631788.XA priority Critical patent/CN107481099A/zh
Publication of CN107481099A publication Critical patent/CN107481099A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Multimedia (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明一种可360度转身的实时虚拟试衣的实现方法,包括一基于Kinect和灰色预测的虚拟试衣系统,提前制作好虚拟人物模型、服装模型、配件模型,将服装模型穿在虚拟人物模型上进行对应绑定,然后再将Kinect获得骨骼关节点数据与虚拟人物模型进行交叉对应绑定,利用椭圆肤色模型的人脸检测来判断人体的前背面,利用灰色预测模型对人体左右胯部关节点的数据变化进行实时预测,结合人脸检测和灰色预测的结果,判断是否需要对控制虚拟人物模型的骨骼关节点数据进行纠正,针对不同情况,利用不同的人体骨骼关节点数据驱动虚拟人物模型运动,本发明可实现360度的试衣体验,用户不仅可以看到正面的试衣效果,也可以看到侧面和背面的试衣效果,实时性好,稳定性强。

Description

可360度转身的实时虚拟试衣的实现方法
技术领域
本发明属于虚拟现实和人机交互领域,特别是利用Unity3D开发平台,基于Kinect和灰色预测的可360度转身的实时虚拟试衣的实现方法。
背景技术
目前,伴随着虚拟现实和人机交互技术的快速发展,其应用领域越来越广,涉及方方面面,特别是大众所能接触的生活方面,更得到了大家的热爱和推崇。三维建模技术的成熟,让三维模型的创建变得更加简便快捷,利用三维建模软件可以快速构建人体、衣物模型等各种三维模型。相比于二维图片,三维模型与我们生活的世界更加接近,能够带给人们更加真实的视觉效果。因此,基于三维衣物,利用虚拟现实和人机交互技术,对三维场景进行模拟的虚拟试衣系统应运而生。虚拟试衣系统就是运用虚拟模拟的手段,模拟出不同的用户穿上不同款式、尺寸、颜色的服装表现出的不同效果,可以让用户看到衣物穿在自己身上的展示效果,判断是否符合自身要求。它解决了传统试衣时频繁穿脱衣服的繁琐,让试衣变得方便快捷。
国内国外出现了许多虚拟试衣系统,但是目前大多数虚拟试衣系统主要研究布料模拟和人机交互方面,正面试衣效果可以很好地展示出来,但无法实现全方位的试衣。然而用户试衣时,会综合考虑正面、背面以及侧面的试衣效果,综合分析来判断衣服是否符合自身要求。因此,现在的虚拟试衣系统不能很好的满足用户的需求,应用范围受限。随着,生活节奏的加快和电商的普及,传统试衣系统急需改进,为了更好的满足用户的试衣需求,针对虚拟试衣系统存在的问题,提出了新的方法。
发明内容
本发明的目的为了解决上述现有虚拟试衣系统存在的问题,提供一种基于Kinect和灰色预测的可360度转身的实时虚拟试衣的实现方法,可以控制衣物随人体进行360度转身,用户不仅可以看到正面的试衣效果,也可以看到侧面和背面的试衣效果。
本发明一种可360度转身的实时虚拟试衣的实现方法,包括一Unity3D开发平台,一基于Kinect和灰色预测的虚拟试衣系统,具体实现步骤如下:
步骤1、模型构建、导入和绑定
提前制作好虚拟试衣系统中使用的三维虚拟人物模型、服装模型、配件模型,并导入Unity3D开发平台中,将服装模型穿在虚拟人物模型上进行对应绑定,并将虚拟人物模型的身体隐藏起来;
步骤2、试衣时,虚拟试衣系统通过Kinect获得用户的骨骼关节点数据,将该骨骼关节点数据与虚拟人物模型进行绑定;
步骤3、虚拟试衣系统同时通过Kinect实时捕捉用户的人体彩色图像,通过OpenCV的功能函数实时显示通过Kinect获得人体彩色图像;
步骤4、对人体彩色图像进行分割获得人脸头部图像
通过索引从步骤2的骨骼关节点数据中获得人体头部关节点位置坐标为HeadPos(x,y,z),将该坐标转换到OpenCV的坐标系中表示为HeadPosCV(CV_x,CV_y),用人体头部关节点位置坐标HeadPosCV(CV_x,CV_y)在人体彩色图像上定位人体头部位置,以人体头部关节点位置坐标HeadPosCV(CV_x,CV_y)为中心,画一个可以把人脸完全标出来的矩形框,将这个矩形框内的图像分割保存下来定义为人脸头部图像;
步骤5、人脸肤色检测
利用椭圆肤色模型,针对人脸头部图像中的每一个像素点进行色彩空间的转换,转换到YCrCb颜色空间,然后再非线性变换到YCb’Cr’空间,并判断人脸头部图像中的每个像素点是否在椭圆肤色模型的椭圆里,若是,则判定该像素点为肤色像素点,否则,判定该像素点为非肤色像素点;
步骤6、对肤色像素点的数量进行统计,计算人脸头部图像中肤色像素点所占的比值,设定一大一小两个阈值,当该比值大于大的阈值时,就判定所采集的图像为人的正面,当该比值小于小的阈值时,就判定所采集的图像为人的背面,当该比值位于该两阈值的区间内时,就判定所采集的图像为人的侧面;
步骤7、人体骨骼关节点运动轨迹的预测
步骤2中虚拟试衣系统通过Kinect获得用户的骨骼关节点数据,通过索引从上述骨骼关节点数据中得到左右胯部关节点数据,通过灰色模型预测公式计算得到左右胯部关节点三维坐标中深度值的预测值,并将该预测值与Kinect获得的实测数据进行对比,用于识别数据出现突变的时刻,当一边胯部关节点数据出现突变时,则用预测值代替该胯部关节点坐标的深度值,而该胯部关节点坐标的另外两个数据(x,y)保持在数据突变之前的最后一帧Kinect捕获到的关节点坐标的数值,用这样组合起来的关节点坐标数据来控制虚拟人物模型的运动;
在左右两侧胯部数据突变之间,对肩部关节点坐标的深度值也用胯部关节点坐标的深度值的预测值进行代替;当检测到左右胯部关节点三维坐标中深度值都产生了突变时,将左边和右边胯部骨骼关节点三维坐标数据进行互换,对Kinect获取到的其他人体左右对称的骨骼关节点数据进行互换,利用互换后的数据驱动虚拟人物模型跟随用户进行旋转;
步骤8、利用人脸检测和灰色预测的结果,进行试衣控制
(1)当步骤6人脸检测到用户是正面时,虚拟试衣系统判断用户处于正面试衣状态,此时无论步骤7的灰色模型预测公式的结果如何,都用Kinect获取到的骨骼关节点数据进行试衣控制;
(2)当步骤6人脸检测到用户是侧面时,虚拟试衣系统判断用户处于侧面试衣状态,当检测到任意一侧胯部关节点数据突变时,则用步骤7的灰色模型预测公式计算得到的深度值的预测值代替原来的胯部骨骼关节点三维坐标中的深度值,利用校正后的数据进行虚拟人物模型的试衣控制,直到检测到另一侧胯部关节点数据也发生了突变,则对Kinect捕获到的骨骼关节点数据进行左右互换,用校正后的骨骼关节点数据来对虚拟人物模型进行试衣控制;
(3)当步骤6人脸检测到用户是背面时,虚拟试衣系统判断用户处于背面试衣状态,此时也不考虑灰色模型预测公式的结果,对Kinect捕获到的骨骼关节点数据进行左右互换,用校正后的骨骼关节点数据来对虚拟人物模型进行试衣控制。
所述的灰色模型预测公式如下:
其中为预测值,为参数向量,a为发展系数,u为灰色作用量,x(1)(1)为累加生成数列,k=0,1,2,...,n,e为自然对数的底数。
本发明提前制作好虚拟试衣系统中使用的三维虚拟人物模型、服装模型、配件模型等,并导入Unity3D开发平台中,将服装模型穿在虚拟人物模型上进行对应绑定,然后再将Kinect获得骨骼关节点数据与虚拟人物模型进行交叉对应绑定,通过两个绑定,就能实现通过Kinect捕获到的用户骨骼关节数据来控制虚拟人物模型运动,进而带动服装运动,之后把虚拟人物模型隐藏起来,替换用户自身的人脸头部图像,便可以实现用户试衣照镜子的效果。
本发明与现有技术相比具如下优点:
(1)可实现360度的试衣体验,用户不仅可以看到正面的试衣效果,也可以看到侧面和背面的试衣效果。
(2)实时性好,衣物可实时跟随用户运动,不存在滞后问题。
(3)稳定性强,针对Kinect获得的数据进行预测纠正,保证数据的正确性、连续性。
附图说明
图1是本发明的流程图;
图2是本发明中虚拟人物模型和衣服模型绑定效果图;
图3是本发明中人脸检测的流程图。
以下结合附图和具体实施例对本发明做进一步详述。
具体实施方式
本发明一种可360度转身的实时虚拟试衣的实现方法,利用Unity3D开发平台,包括一基于Kinect和灰色预测实现可360度转身的虚拟试衣系统,具体实现步骤如下:
步骤1、模型构建、导入和绑定
提前制作好虚拟试衣系统中使用的三维虚拟人物模型、服装模型、配件模型等,并导入Unity3D开发平台中,将服装模型穿在虚拟人物模型上进行对应绑定,并将虚拟人物模型的身体隐藏起来;
通过将服装模型穿在虚拟人物模型上进行对应绑定,就做到将衣服穿在了虚拟人物模型上,然后把虚拟人物模型的身体隐藏起来,就做到服装穿在人身上的效果,虚拟人物模型和服装绑定效果如图2所示,实现虚拟人物模型带动服装模型运动的功能;
步骤2、试衣时,用户距离Kinect大约2.5米(这样距离下采集的人脸在图像上大小差异不大),虚拟试衣系统通过Kinect获得用户的骨骼关节点数据,将该骨骼关节点数据与虚拟人物模型进行绑定;
步骤3、虚拟试衣系统通过Kinect实时捕捉用户的人体彩色图像,图像处理时,先对图像进行光线补偿,提高整体图像亮度,通过OpenCV的功能函数实时显示通过Kinect获得人体彩色图像;
步骤4、对人体彩色图像进行分割获得人脸头部图像
通过索引从步骤2的骨骼关节点数据中获得人体头部关节点位置坐标为HeadPos(x,y,z),将该坐标转换到OpenCV的坐标系中表示为HeadPosCV(CV_x,CV_y),用人体头部关节点位置坐标HeadPosCV(CV_x,CV_y)在人体彩色图像上定位人体头部位置,以人体头部关节点位置坐标HeadPosCV(CV_x,CV_y)为中心,画一个可以把人脸完全标出来的矩形框,将这个矩形框内的图像分割保存下来定义为人脸头部图像HeadPic;
步骤5、人脸肤色检测
利用椭圆肤色模型,针对人脸头部图像HeadPic中的每一个像素点进行色彩空间的转换,转换到YCrCb颜色空间,然后再非线性变换到YCb’Cr’空间,之后判断人脸头部图像HEADpic中的每个像素点是否在椭圆肤色模型的椭圆里,若是,则判定该像素点为肤色像素点,否则,判定该像素点为非肤色像素点;
步骤6、计算人脸头部图像HeadPic中肤色像素点所占的比值,以此比值来判定人的前背面,用于之后的试衣控制
对肤色像素点的数量进行统计,即统计在椭圆肤色模型的椭圆内部的像素点总数,计算人脸头部图像HeadPic中肤色像素点所占的比值,设定一大一小两个阈值,当该比值大于大的阈值时,就判定所采集的图像为人的正面(即人面对Kinect),当该比值小于小的阈值时,就判定所采集的图像为人的背面,当该比值位于该两阈值的区间内时,就判定所采集的图像为人的侧面;
步骤7、人体骨骼关节点运动轨迹的预测
步骤2中虚拟试衣系统通过Kinect获得用户的骨骼关节点数据,通过索引从上述骨骼关节点数据中得到左右胯部关节点数据,通过灰色模型预测公式对左右胯部关节点三维坐标中的深度值z的变化进行实时预测,得到胯部关节点三维坐标中深度值的预测值,并将该预测值与Kinect实时获得的实测数据进行对比,用于识别数据出现突变的时刻,当一边胯部关节点数据出现突变时,则用预测值代替该胯部关节点坐标的深度值,而该胯部关节点坐标的另外两个数据(x,y)保持在数据突变之前的最后一帧Kinect捕获到的关节点坐标的数值,用这样组合起来的关节点坐标数据来控制虚拟人物模型的运动;
由于肩部数据对虚拟人物模型的运动控制影响也很大,在左右两侧胯部数据突变之间(为简化预测过程,本发明只对胯部进行预测),由于肩部和胯部关节点约处在垂直于地面的同一条直线上,此时对肩部关节点坐标的深度值也用胯部关节点坐标的深度值的预测值进行代替;当检测到左右胯部关节点三维坐标中深度值都产生了突变时,说明此时Kinect捕获到的人体骨骼关节点数据出现了彻底的对换,此时对左边和右边胯部骨骼关节点三维坐标数据进行互换,对Kinect获取到其他人体左右对称的骨骼关节点数据也进行互换,利用互换的数据驱动虚拟人物模型跟随用户进行旋转;
所述的灰色模型预测公式如下:
其中为预测值,为参数向量,a为发展系数,u为灰色作用量,x(1)(1)为累加生成数列,k=0,1,2,...,n,e为自然对数的底数。
当灰色模型预测公式的计算结果与Kinect获得的数据相差超过阈值时,判断为突变时刻;
步骤8、利用人脸检测和灰色预测的结果,进行试衣控制
(1)当步骤6人脸检测到用户是正面时(即人面对Kinect),虚拟试衣系统判断用户处于正面试衣状态,此时无论步骤7的灰色模型预测公式的结果如何,都用Kinect获取到的骨骼关节点数据进行试衣控制;
(2)当步骤6人脸检测到用户是侧面时,虚拟试衣系统判断用户处于侧面试衣状态,这时就要考虑步骤7的灰色模型预测公式计算得到的预测值;当检测到任意一侧胯部关节点数据突变时,则用预测值代替原来的胯部骨骼关节点三维坐标中的深度值,利用代替后的数据(即校正后的数据)进行虚拟人物模型的试衣控制,直到检测到另一侧胯部关节点数据也发生了突变,则对Kinect捕获到的骨骼关节点数据进行左右互换,用校正后的骨骼关节点数据来对虚拟人物模型进行试衣控制,虚拟人物模型带动衣服做相应的运动;
(3)当步骤6人脸检测到用户是背面时,虚拟试衣系统判断用户处于背面试衣状态,此时也不考虑灰色模型预测公式的结果,对Kinect捕获到的骨骼关节点数据进行左右互换,用校正后的骨骼关节点数据来对虚拟人物模型进行试衣控制,虚拟人物模型带动衣服做相应的运动,便可以实现衣服实时跟随用户运动、旋转。
以上所述,并非对本发明的技术范围作任何限制,故凡是依据本发明的技术实质对以上实施例所作的任何细微修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (2)

1.一种可360度转身的实时虚拟试衣的实现方法,其特征在于:包括一Unity3D开发平台,一基于Kinect和灰色预测的虚拟试衣系统,具体实现步骤如下:
步骤1、模型构建、导入和绑定
提前制作好虚拟试衣系统中使用的三维虚拟人物模型、服装模型、配件模型,并导入Unity3D开发平台中,将服装模型穿在虚拟人物模型上进行对应绑定,并将虚拟人物模型的身体隐藏起来;
步骤2、试衣时,虚拟试衣系统通过Kinect获得用户的骨骼关节点数据,将该骨骼关节点数据与虚拟人物模型进行绑定;
步骤3、虚拟试衣系统同时通过Kinect实时捕捉用户的人体彩色图像,通过OpenCV的功能函数实时显示通过Kinect获得人体彩色图像;
步骤4、对人体彩色图像进行分割获得人脸头部图像
通过索引从步骤2的骨骼关节点数据中获得人体头部关节点位置坐标为HeadPos(x,y,z),将该坐标转换到OpenCV的坐标系中表示为HeadPosCV(CV_x,CV_y),用人体头部关节点位置坐标HeadPosCV(CV_x,CV_y)在人体彩色图像上定位人体头部位置,以人体头部关节点位置坐标HeadPosCV(CV_x,CV_y)为中心,画一个可以把人脸完全标出来的矩形框,将这个矩形框内的图像分割保存下来定义为人脸头部图像;
步骤5、人脸肤色检测
利用椭圆肤色模型,针对人脸头部图像中的每一个像素点进行色彩空间的转换,转换到YCrCb颜色空间,然后再非线性变换到YCb’Cr’空间,并判断人脸头部图像中的每个像素点是否在椭圆肤色模型的椭圆里,若是,则判定该像素点为肤色像素点,否则,判定该像素点为非肤色像素点;
步骤6、对肤色像素点的数量进行统计,计算人脸头部图像中肤色像素点所占的比值,设定一大一小两个阈值,当该比值大于大的阈值时,就判定所采集的图像为人的正面,当该比值小于小的阈值时,就判定所采集的图像为人的背面,当该比值位于该两阈值的区间内时,就判定所采集的图像为人的侧面;
步骤7、人体骨骼关节点运动轨迹的预测
步骤2中虚拟试衣系统通过Kinect获得用户的骨骼关节点数据,通过索引从上述骨骼关节点数据中得到左右胯部关节点数据,通过灰色模型预测公式计算得到左右胯部关节点三维坐标中深度值的预测值,并将该预测值与Kinect获得的实测数据进行对比,用于识别数据出现突变的时刻,当一边胯部关节点数据出现突变时,则用预测值代替该胯部关节点坐标的深度值,而该胯部关节点坐标的另外两个数据(x,y)保持在数据突变之前的最后一帧Kinect捕获到的关节点坐标的数值,用这样组合起来的关节点坐标数据来控制虚拟人物模型的运动;
在左右两侧胯部数据突变之间,对肩部关节点坐标的深度值也用胯部关节点坐标的深度值的预测值进行代替;当检测到左右胯部关节点三维坐标中深度值都产生了突变时,将左边和右边胯部骨骼关节点三维坐标数据进行互换,对Kinect获取到的其他人体左右对称的骨骼关节点数据进行互换,利用互换后的数据驱动虚拟人物模型跟随用户进行旋转;
步骤8、利用人脸检测和灰色预测的结果,进行试衣控制
(1)当步骤6人脸检测到用户是正面时,虚拟试衣系统判断用户处于正面试衣状态,此时无论步骤7的灰色模型预测公式的结果如何,都用Kinect获取到的骨骼关节点数据进行试衣控制;
(2)当步骤6人脸检测到用户是侧面时,虚拟试衣系统判断用户处于侧面试衣状态,当检测到任意一侧胯部关节点数据突变时,则用步骤7的灰色模型预测公式计算得到的深度值的预测值代替原来的胯部骨骼关节点三维坐标中的深度值,利用校正后的数据进行虚拟人物模型的试衣控制,直到检测到另一侧胯部关节点数据也发生了突变,则对Kinect捕获到的骨骼关节点数据进行左右互换,用校正后的骨骼关节点数据来对虚拟人物模型进行试衣控制;
(3)当步骤6人脸检测到用户是背面时,虚拟试衣系统判断用户处于背面试衣状态,此时也不考虑灰色模型预测公式的结果,对Kinect捕获到的骨骼关节点数据进行左右互换,用校正后的骨骼关节点数据来对虚拟人物模型进行试衣控制。
2.根据权利要求1所述的一种可360度转身的实时虚拟试衣的实现方法,其特征在于:
所述的灰色模型预测公式如下:
<mrow> <msup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mo>(</mo> <mn>0</mn> <mo>)</mo> </mrow> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msup> <mi>e</mi> <mover> <mi>a</mi> <mo>^</mo> </mover> </msup> <mo>)</mo> </mrow> <mo>&amp;lsqb;</mo> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>-</mo> <mfrac> <mi>u</mi> <mi>a</mi> </mfrac> <mo>&amp;rsqb;</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mi>k</mi> <mover> <mi>a</mi> <mo>^</mo> </mover> </mrow> </msup> </mrow>
其中为预测值,为参数向量,a为发展系数,u为灰色作用量,x(1)(1)为累加生成数列,k=0,1,2,...,n,e为自然对数的底数。
CN201710631788.XA 2017-07-28 2017-07-28 可360度转身的实时虚拟试衣的实现方法 Pending CN107481099A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710631788.XA CN107481099A (zh) 2017-07-28 2017-07-28 可360度转身的实时虚拟试衣的实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710631788.XA CN107481099A (zh) 2017-07-28 2017-07-28 可360度转身的实时虚拟试衣的实现方法

Publications (1)

Publication Number Publication Date
CN107481099A true CN107481099A (zh) 2017-12-15

Family

ID=60597793

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710631788.XA Pending CN107481099A (zh) 2017-07-28 2017-07-28 可360度转身的实时虚拟试衣的实现方法

Country Status (1)

Country Link
CN (1) CN107481099A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107704851A (zh) * 2017-10-30 2018-02-16 歌尔股份有限公司 人物识别方法、公共传媒展示装置、服务器和系统
CN109799910A (zh) * 2019-01-29 2019-05-24 王茂洋 虚拟节点投影服
CN110096156A (zh) * 2019-05-13 2019-08-06 东北大学 基于2d图像的虚拟换装方法
CN113822986A (zh) * 2021-09-13 2021-12-21 温州医科大学 一种基于改进的GRNet网络的虚拟换衣方法及系统
CN114723860A (zh) * 2022-06-08 2022-07-08 深圳智华科技发展有限公司 虚拟形象的生成方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156810A (zh) * 2011-03-30 2011-08-17 北京触角科技有限公司 增强现实实时虚拟试衣系统及方法
CN103530903A (zh) * 2013-10-28 2014-01-22 智慧城市系统服务(中国)有限公司 一种虚拟试衣间的实现方法及实现系统
WO2015024397A1 (zh) * 2013-08-19 2015-02-26 北京京东尚科信息技术有限公司 一种处理虚拟试衣模特图像的方法和装置
CN106228592A (zh) * 2016-09-12 2016-12-14 武汉布偶猫科技有限公司 一种服装三维模型自动绑定蒙皮信息的方法
CN106327589A (zh) * 2016-08-17 2017-01-11 北京中达金桥技术股份有限公司 基于Kinect的3D虚拟试衣镜的实现方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156810A (zh) * 2011-03-30 2011-08-17 北京触角科技有限公司 增强现实实时虚拟试衣系统及方法
WO2015024397A1 (zh) * 2013-08-19 2015-02-26 北京京东尚科信息技术有限公司 一种处理虚拟试衣模特图像的方法和装置
CN103530903A (zh) * 2013-10-28 2014-01-22 智慧城市系统服务(中国)有限公司 一种虚拟试衣间的实现方法及实现系统
CN106327589A (zh) * 2016-08-17 2017-01-11 北京中达金桥技术股份有限公司 基于Kinect的3D虚拟试衣镜的实现方法及系统
CN106228592A (zh) * 2016-09-12 2016-12-14 武汉布偶猫科技有限公司 一种服装三维模型自动绑定蒙皮信息的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张晓丽 等: "基于Kinect的实时360度虚拟试衣", 《系统仿真学报》 *
张晓丽: "基于Kinect与灰色预测的360度实时虚拟试衣系统研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107704851A (zh) * 2017-10-30 2018-02-16 歌尔股份有限公司 人物识别方法、公共传媒展示装置、服务器和系统
CN107704851B (zh) * 2017-10-30 2021-01-15 歌尔股份有限公司 人物识别方法、公共传媒展示装置、服务器和系统
CN109799910A (zh) * 2019-01-29 2019-05-24 王茂洋 虚拟节点投影服
CN109799910B (zh) * 2019-01-29 2022-04-12 王茂洋 虚拟节点投影服
CN110096156A (zh) * 2019-05-13 2019-08-06 东北大学 基于2d图像的虚拟换装方法
CN110096156B (zh) * 2019-05-13 2021-06-15 东北大学 基于2d图像的虚拟换装方法
CN113822986A (zh) * 2021-09-13 2021-12-21 温州医科大学 一种基于改进的GRNet网络的虚拟换衣方法及系统
CN113822986B (zh) * 2021-09-13 2023-06-30 温州医科大学 一种基于改进的GRNet网络的虚拟换衣方法及系统
CN114723860A (zh) * 2022-06-08 2022-07-08 深圳智华科技发展有限公司 虚拟形象的生成方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN107481099A (zh) 可360度转身的实时虚拟试衣的实现方法
JP7061694B2 (ja) 画像処理方法および装置、画像機器、ならびに記憶媒体
CN105006014B (zh) 虚拟衣物快速模拟试穿的实现方法及系统
CN104589356B (zh) 基于Kinect人手运动捕捉的灵巧手遥操作控制方法
CN108830150B (zh) 一种基于三维人体姿态估计方法及装置
CN110222665A (zh) 一种基于深度学习和姿态估计的监控中人体动作识别方法
CN105354876B (zh) 一种基于移动终端的实时立体试衣方法
CN102982578B (zh) 单幅人物图像中着装人体三维模型估计方法
CN108805977A (zh) 一种基于端到端卷积神经网络的人脸三维重建方法
CN102184541B (zh) 多目标优化人体运动跟踪方法
CN102831638B (zh) 一种采用手绘草图的三维人体多姿态建模方法
CN109325437A (zh) 图像处理方法、装置和系统
CN109671142A (zh) 一种智能美妆方法及智能美妆镜
CN106650687A (zh) 一种基于深度信息和骨骼信息的姿势矫正方法
CN106991408A (zh) 一种候选框生成网络的生成方法及人脸检测方法
CN102184562B (zh) 一种三维人脸动画模型自动构造方法及系统
CN107590708A (zh) 一种生成用户特定体形模型的方法和装置
CN102708575A (zh) 基于人脸特征区域识别的生活化妆容设计方法及系统
CN103646421B (zh) 基于增强型PyrLK光流法的树木轻量化3D重建方法
CN103824326B (zh) 一种动态的人体三维建模方法
CN109145802A (zh) 基于Kinect的多人手势人机交互方法及装置
CN109079794A (zh) 一种基于人体姿态跟随的机器人控制与示教方法
CN103310478B (zh) 一种多样化虚拟人群生成的方法
Ishikawa et al. Semantic segmentation of 3D point cloud to virtually manipulate real living space
Xie et al. Visual feedback for core training with 3d human shape and pose

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20171215

RJ01 Rejection of invention patent application after publication