CN110176016B - 一种基于人体轮廓分割与骨骼识别的虚拟试衣方法 - Google Patents

一种基于人体轮廓分割与骨骼识别的虚拟试衣方法 Download PDF

Info

Publication number
CN110176016B
CN110176016B CN201910451678.4A CN201910451678A CN110176016B CN 110176016 B CN110176016 B CN 110176016B CN 201910451678 A CN201910451678 A CN 201910451678A CN 110176016 B CN110176016 B CN 110176016B
Authority
CN
China
Prior art keywords
human body
segmentation
image
different parts
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910451678.4A
Other languages
English (en)
Other versions
CN110176016A (zh
Inventor
姜宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhaoyuan state owned Assets Management Co.,Ltd.
Original Assignee
Zhaoyuan State Owned Assets Management Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhaoyuan State Owned Assets Management Co ltd filed Critical Zhaoyuan State Owned Assets Management Co ltd
Priority to CN201910451678.4A priority Critical patent/CN110176016B/zh
Publication of CN110176016A publication Critical patent/CN110176016A/zh
Application granted granted Critical
Publication of CN110176016B publication Critical patent/CN110176016B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

本发明提出了一种基于人体轮廓分割与骨骼识别的虚拟试衣方法,属于智能生活网络技术领域。所述方法包括:一、基于彩色图和深度图建立U‑Net网络,对人体前景与环境背景进行两类分割,得到人体轮廓掩模标记;二、改进U‑Net网络,利用改进后的U‑Net网络对人体不同部位进行多类图像分割,得到人体不同部位轮廓掩模标记;所述人体不同部位包括头、身体、左手臂、右手臂、左腿和右腿;三、将所述人体不同部位轮廓掩模标记与骨骼识别方法进行结合,完成转身动作的人体识别及不同部位标记,并进行衣服的匹配。本发明提出的虚拟试衣方法适用性强,能够提高大范围转身操作等复杂情况的虚拟试衣体验感。

Description

一种基于人体轮廓分割与骨骼识别的虚拟试衣方法
技术领域
本发明涉及一种基于人体轮廓分割与骨骼识别的虚拟试衣方法,属于智能生活网络技术领域。
背景技术
近年来,图像分割等计算机视觉与深度学习相关技术取得了飞速发展。随着传感器技术的发展,越来越多的设备可以获取深度信息,深度信息作为独立于室内光照条件的附加信息,不仅弥补了传统二维彩色图像受相机参数变化、室内光照不可控的强烈影响,而且弥补了三维深度信息数据存在遮挡、数据不完整、无序、特征提取困难、数据量大、场景类型变化大、背景混乱等问题,在图像分割中取得了新的发展。
在虚拟试衣方面,识别人体是进行试衣操作的关键。传统的虚拟试衣中采用骨骼识别进行人体检测,而当人在试衣过程中出现转身等操作时,骨骼识别具有不稳定性,特别是当人体侧身站立时,骨骼识别易出现混乱情况,无法完成试衣操作,使得目前的整个虚拟试衣局限在小范围三维尺度,无法完成转身操作。而且骨骼识别仅仅识别出骨骼,不同体型的人无法完成人体与衣服的完美匹配。
本发明将图像分割运用在虚拟试衣中,结合骨骼识别判断身体的不同部位,并进行不同部位的准确轮廓分割,进行人体的实时监测,在一定程度上解决人体与衣服的匹配问题,为虚拟试衣带来新的发展机遇。
发明内容
本发明的目的是将图像分割运用在虚拟试衣中,结合骨骼识别判断人体的不同部位,并进行不同部位的准确轮廓分割,实现人体与虚拟服装的完美匹配。该方法适用性强,能够提高大范围三维尺度、转身操作等复杂情况下的虚拟试衣体验感。本发明的目的是通过以下技术方案实现的:首先,基于彩色图和深度图设计U-Net网络架构,对人体前景与环境背景进行两类分割,得到人体轮廓掩模标记;然后,改进U-Net网络对人体不同部位(头、身体、左手臂、右手臂、左腿、右腿)进行多类图像分割,得到人体不同部位轮廓掩模标记;最后,将多类分割结果与骨骼识别技术进行结合,完成转身动作的人体识别及不同部位标记,并进行衣服的匹配。
一种基于人体轮廓分割与骨骼识别的虚拟试衣方法,所述虚拟试衣方法包括:
步骤一、基于彩色图和深度图建立U-Net网络,对人体前景与环境背景进行两类分割,得到人体轮廓掩模标记,其中,所述U-Net网络即为两类分割网络;
步骤二、改进U-Net网络,利用改进后的U-Net网络对人体不同部位进行多类图像分割,得到人体不同部位轮廓掩模标记;所述人体不同部位包括头、身体、左手臂、右手臂、左腿和右腿;其中,所述改进后的U-Net网络即为多类分割网络;
步骤三、将步骤二所述人体不同部位轮廓掩模标记与骨骼识别方法进行结合,完成转身动作的人体识别及不同部位标记,并进行衣服的匹配。
进一步地,步骤一所述对人体前景与环境背景进行两类分割的具体过程包括:
第一步、建立基于U-Net的图像分割网络模型,所述U-Net的图像分割网络模型包括彩色图像信息数据流训练通道、深度数据流训练通道和贡献决策层;
第二步、利用基于U-Net的图像分割网络模型分别对彩色图像和深度图像进行分割处理,并别通过彩色图像信息数据流训练通道和深度数据流训练通道获得彩色图和深度图分割结果;
第三步、利用所述贡献决策层将彩色图和深度图分割结果进行合并;
第四步、在所述贡献决策层中学习一个加权门阵列来衡量每个像素位置处彩色图与深度图这两个模态对场景中物体最终图像分割的贡献率;最终将整个U-Net的图像分割网络模型中彩色图和深度图的不同特点进行综合,并将每个数据流的结果进行有效的融合,达到端到端的图像分割。
进一步地,所述彩色图像信息数据流训练通道和深度数据流训练通道是两个不交叉的独立部分,用于训练的网络使用传统的U-Net网络架构,保证各自特征学习有效性的同时,避免了相互之间干扰造成的原始误差。
进一步地,所述贡献决策层由串接层、卷积层和sigmoid层三部分组成。
进一步地,步骤二的具体步骤如下:
第1步、针对人体的不同部位进行多类分割,将步骤一的分割结果根据掩模进行深度图与彩色图的提取,提取出只含有人体的像素,其他像素标记为其他类,作为多类分割网络的输入;
第2步、对U-Net网络进行改进,所述改进包括在U-Net网络中引入BN层;利用BN层通过标准化的方法,使不同层输入数据的均值与方差的分布差异减少,降低梯度计算中参数范围与初始权值的影响程度;
第3步、将人体的部位分为如下6类作为分割目标,所述6类包括:头、身体、左手臂、右手臂、左腿、右腿;
第4步、在U-Net网络训练过程中,针对人体6类部位的分割目标,损失函数根据人体6类部位所占像素设置不同的学习权重值,其中,对像素占比小的类别设置较大的学习权重,对像素占比大的类别设置较小的学习权重;其他类的背景像素不用于修改损失函数,通过样本迭代训练不断的降低损失函数,实现对人体6类部位更好的有效分割;最后,通过不同颜色的掩模表示不同的分割部位轮廓。
进一步地,步骤三的具体过程包括:
步骤1、通过步骤一的两类分割网络与步骤二的多类分割网络,得到边界清晰的人体以及人体部位,与骨骼识别算法得到的结果进行融合;
步骤2、在转身动作中,当转到一定角度导致骨骼识别错误时,采用当前时刻采集图像所含有的人体部位的轮廓分割结果,取竖直方向的中轴线估计新的骨骼,提取当前人体部位对应的衣服进行纹理映射,完成转身过程的过渡;
步骤3、进行衣服的匹配,此时根据人体不同部位的轮廓分割结果,提取边界信息,根据阈值对衣服模型的不同部位进行智能化的伸缩变换,使衣服模型更加符合当前试衣者。
本发明有益效果:
本发明利用彩色信息与深度信息,减弱图像分割中二维彩色照片受相机参数变化、室内光照不可控的强烈影响,减少三维深度信息存在遮挡、数据不完整、无序、特征提取困难、数据量大、场景类型变化大、背景混乱等问题对图像分割的难度,将三维深度数据转换为二维深度图,作为独立于室内光照条件的附加信息,实现了在骨骼识别的基础上引入人体不同部位的轮廓分割信息提高虚拟试衣体验感的目标。
附图说明
图1为本发明方法的流程图。
图2为基于U-Net的彩色图与深度图分割网络架构。
图3为人体不同部位轮廓分割图。
具体实施方式
下面结合具体实施例对本发明做进一步说明,但本发明不受实施例的限制。
实施例1:
一种基于人体轮廓分割与骨骼识别的虚拟试衣方法,如图1所示,所述虚拟试衣方法包括:
步骤一:基于彩色图和深度图设计U-Net网络架构,对人体前景与环境背景进行两类分割,得到人体轮廓掩模标记。其中,具体步骤如下:
第一步、建立基于U-Net的图像分割网络模型,所述U-Net的图像分割网络模型包括彩色图像信息数据流训练通道、深度数据流训练通道和贡献决策层;
第二步、利用基于U-Net的图像分割网络模型分别对彩色图像和深度图像进行分割处理,并别通过彩色图像信息数据流训练通道和深度数据流训练通道获得彩色图和深度图分割结果;
第三步、利用所述贡献决策层将彩色图和深度图分割结果进行合并;
第四步、在所述贡献决策层中学习一个加权门阵列来衡量每个像素位置处彩色图与深度图这两个模态对场景中物体最终图像分割的贡献率;最终将整个U-Net的图像分割网络模型中彩色图和深度图的不同特点进行综合,并将每个数据流的结果进行有效的融合,达到端到端的图像分割。
如图2所示,基于U-Net的图像分割网络模型由三部分组成:彩色图像信息数据流训练通道、深度数据流训练通道、贡献决策层。其中彩色图与深度图数据流训练部分是两个不交叉的独立部分,用于训练的网络使用传统的U-Net网络架构,保证各自特征学习有效性的同时,避免了相互之间干扰造成的原始误差。而贡献决策层由串接层、卷积层和sigmoid层三部分组成,通过将彩色图和深度图的分割结果合并,学习一个加权门阵列来衡量每个像素位置处彩色图与深度图这两个模态对场景中物体最终图像分割的贡献率,所以整个网络很好的综合了彩色图与深度图的不同特点,将每个数据流的结果进行有效的融合,达到端到端的图像分割,通过红色掩模显示分割出的人体。
步骤二:改进U-Net网络对人体不同部位(头、身体、左手臂、右手臂、左腿、右腿)进行多类图像分割,得到人体不同部位轮廓掩模标记。具体步骤如下:
第1步、针对人体的不同部位进行多类分割,需要将步骤一的分割结果根据掩模进行深度图与彩色图的提取,提取出只含有人体的像素,其他像素标记为其他类,作为多类分割网络的输入。
第2步、改进U-Net网络主要包括:BN(Batch Normalization)层的引入。由于网络深度增加,引入BN层,它是一种批标准化的方法,通过批标准化的方法,使不同层输入数据的均值与方差的分布差异减少,降低梯度计算中参数范围与初始权值的影响程度,即使网络深度较深,较小的参数变化也不会对每一层的输入带来巨大的影响,避免了梯度发散与爆炸问题,从而运行设置较大的学习率,加快了网络的训练速度。
第3步、为了满足试衣的需求,将人体的部位分为如下6类:头、身体、左手臂、右手臂、左腿、右腿,作为分割目标。
第4步、在U-Net网络训练过程中,针对人体6类部位的分割目标,损失函数根据人体6类部位所占像素设置不同的学习权重值,其中,对像素占比小的类别设置较大的学习权重,对像素占比大的类别设置较小的学习权重;其他类的背景像素不用于修改损失函数,通过样本迭代训练不断的降低损失函数,实现对人体6类部位更好的有效分割;最后,通过不同颜色的掩模表示不同的分割部位轮廓,如图3所示。
步骤三:将多类分割结果与骨骼识别技术进行结合,完成转身动作的人体识别及不同部位标记,并进行衣服的匹配。具体流程如下:
步骤1、通过步骤一的两类分割网络与步骤二的多类分割网络,得到边界清晰的人体以及人体部位,与骨骼识别算法得到的结果进行融合。
步骤2、在转身动作中,当转到一定角度导致骨骼识别错误时,采用当前时刻采集图像所含有的人体部位的轮廓分割结果,取竖直方向的中轴线估计新的骨骼,提取当前人体部位对应的衣服进行纹理映射,完成转身过程的过渡。
步骤3、进行衣服的匹配时,根据人体不同部位的轮廓分割结果,提取边界信息,根据一定的阈值对衣服模型的不同部位进行智能化的伸缩变换,使衣服模型更加符合当前试衣者。
虽然本发明已以较佳的实施例公开如上,但其并非用以限定本发明,任何熟悉此技术的人,在不脱离本发明的精神和范围内,都可以做各种改动和修饰,因此本发明的保护范围应该以权利要求书所界定的为准。

Claims (5)

1.一种基于人体轮廓分割与骨骼识别的虚拟试衣方法,其特征在于,所述虚拟试衣方法包括;
步骤一、基于彩色图和深度图建立U-Net网络,对人体前景与环境背景进行两类分割,得到人体轮廓掩模标记,其中,所述U-Net网络即为两类分割网络;具体过程包括:
第一步、建立基于U-Net的图像分割网络模型,所述U-Net的图像分割网络模型包括彩色图像信息数据流训练通道、深度数据流训练通道和贡献决策层;
第二步、利用基于U-Net的图像分割网络模型分别对彩色图像和深度图像进行分割处理,并分别通过彩色图像信息数据流训练通道和深度数据流训练通道获得彩色图和深度图分割结果;
第三步、利用所述贡献决策层将彩色图和深度图分割结果进行合并;
第四步、在所述贡献决策层中学习一个加权门阵列来衡量每个像素位置处彩色图与深度图这两个模态对场景中物体最终图像分割的贡献率;最终将整个U-Net的图像分割网络模型中彩色图和深度图的不同特点进行综合,并将每个数据流的结果进行有效的融合,达到端到端的图像分割;
步骤二、改进U-Net网络,利用改进后的U-Net网络对人体不同部位进行多类图像分割,得到人体不同部位轮廓掩模标记;所述人体不同部位包括头、身体、左手臂、右手臂、左腿和右腿;其中,所述改进后的U-Net网络即为多类分割网络;将步骤一的分割结果根据掩模进行深度图与彩色图的提取,提取出只含有人体的像素,其他像素标记为其他类,作为多类分割网络的输入;
步骤三、将步骤二所述人体不同部位轮廓掩模标记与骨骼识别方法进行结合,完成转身动作的人体识别及不同部位标记,并进行衣服的匹配。
2.根据权利要求1所述虚拟试衣方法,其特征在于,所述彩色图像信息数据流训练通道和深度数据流训练通道是两个不交叉的独立部分,用于训练的网络使用传统的U-Net网络架构,保证各自特征学习有效性的同时,避免了相互之间干扰造成的原始误差。
3.根据权利要求1所述虚拟试衣方法,其特征在于,所述贡献决策层由串接层、卷积层和sigmoid层三部分组成。
4.根据权利要求1所述虚拟试衣方法,其特征在于,步骤二的具体步骤如下:
第1步、针对人体的不同部位进行多类分割,将步骤一的分割结果根据掩模进行深度图与彩色图的提取,提取出只含有人体的像素,其他像素标记为其他类,作为多类分割网络的输入;
第2步、对U-Net网络进行改进,所述改进包括引入BN层;利用BN层通过标准化的方法,使不同层输入数据的均值与方差的分布差异减少,降低梯度计算中参数范围与初始权值的影响程度;
第3步、将人体的部位分为如下6类作为分割目标,所述6类包括:头、身体、左手臂、右手臂、左腿、右腿;
第4步、在U-Net网络训练过程中,针对人体6类部位的分割目标,损失函数根据人体6类部位所占像素设置不同的学习权重值,其中,对像素占比小的类别设置较大的学习权重,对像素占比大的类别设置较小的学习权重;其他类的背景像素不用于修改损失函数,通过样本迭代训练不断的降低损失函数,实现对人体6类部位更好的有效分割;最后,通过不同颜色的掩模表示不同的分割部位轮廓。
5.根据权利要求1所述虚拟试衣方法,其特征在于,步骤三的具体过程包括:
步骤1、通过步骤一的两类分割网络与步骤二的多类分割网络,得到边界清晰的人体以及人体部位,与骨骼识别算法得到的结果进行融合;
步骤2、在转身动作中,当转到一定角度导致骨骼识别错误时,采用当前时刻采集图像所含有的人体部位的轮廓分割结果,取竖直方向的中轴线估计新的骨骼,提取当前人体部位对应的衣服进行纹理映射,完成转身过程的过渡;
步骤3、进行衣服的匹配,此时根据人体不同部位的轮廓分割结果,提取边界信息,根据阈值对衣服模型的不同部位进行智能化的伸缩变换,使衣服模型更加符合当前试衣者。
CN201910451678.4A 2019-05-28 2019-05-28 一种基于人体轮廓分割与骨骼识别的虚拟试衣方法 Active CN110176016B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910451678.4A CN110176016B (zh) 2019-05-28 2019-05-28 一种基于人体轮廓分割与骨骼识别的虚拟试衣方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910451678.4A CN110176016B (zh) 2019-05-28 2019-05-28 一种基于人体轮廓分割与骨骼识别的虚拟试衣方法

Publications (2)

Publication Number Publication Date
CN110176016A CN110176016A (zh) 2019-08-27
CN110176016B true CN110176016B (zh) 2021-04-30

Family

ID=67696519

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910451678.4A Active CN110176016B (zh) 2019-05-28 2019-05-28 一种基于人体轮廓分割与骨骼识别的虚拟试衣方法

Country Status (1)

Country Link
CN (1) CN110176016B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110660066B (zh) * 2019-09-29 2023-08-04 Oppo广东移动通信有限公司 网络的训练方法、图像处理方法、网络、终端设备及介质
CN110826430A (zh) * 2019-10-22 2020-02-21 苏州浩哥文化传播有限公司 一种基于影像分析的配色修正系统及其工作方法
CN111062777B (zh) * 2019-12-10 2022-06-24 中山大学 一种可保留示例衣服细节的虚拟试穿方法及系统
CN113496507A (zh) * 2020-03-20 2021-10-12 华为技术有限公司 一种人体三维模型重建方法
CN113192073A (zh) * 2021-04-06 2021-07-30 浙江科技学院 基于交叉融合网络的服装语义分割方法
CN114758109A (zh) * 2022-05-20 2022-07-15 深圳市镭神智能系统有限公司 虚拟试穿方法及其系统、和提供虚拟试穿信息方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103106604A (zh) * 2013-01-23 2013-05-15 东华大学 基于体感技术的3d虚拟试衣方法
CN104821006A (zh) * 2015-05-18 2015-08-05 浙江理工大学 一种基于人体混合包围盒的动态服装仿真方法
CN107067299A (zh) * 2017-03-29 2017-08-18 深圳奥比中光科技有限公司 虚拟试衣方法和系统
WO2018011336A1 (en) * 2016-07-13 2018-01-18 Naked Labs Austria Gmbh Skeleton estimation from body mesh
CN108830150A (zh) * 2018-05-07 2018-11-16 山东师范大学 一种基于三维人体姿态估计方法及装置
CN109377564A (zh) * 2018-09-30 2019-02-22 清华大学 基于单目深度相机的虚拟试衣方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120287122A1 (en) * 2011-05-09 2012-11-15 Telibrahma Convergent Communications Pvt. Ltd. Virtual apparel fitting system and method
US9147207B2 (en) * 2012-07-09 2015-09-29 Stylewhile Oy System and method for generating image data for on-line shopping
CN104008571B (zh) * 2014-06-12 2017-01-18 深圳奥比中光科技有限公司 基于深度相机的人体模型获取方法及网络虚拟试衣系统
CN107230224B (zh) * 2017-05-19 2019-09-24 深圳奥比中光科技有限公司 三维虚拟服装模型制作方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103106604A (zh) * 2013-01-23 2013-05-15 东华大学 基于体感技术的3d虚拟试衣方法
CN104821006A (zh) * 2015-05-18 2015-08-05 浙江理工大学 一种基于人体混合包围盒的动态服装仿真方法
WO2018011336A1 (en) * 2016-07-13 2018-01-18 Naked Labs Austria Gmbh Skeleton estimation from body mesh
CN107067299A (zh) * 2017-03-29 2017-08-18 深圳奥比中光科技有限公司 虚拟试衣方法和系统
CN108830150A (zh) * 2018-05-07 2018-11-16 山东师范大学 一种基于三维人体姿态估计方法及装置
CN109377564A (zh) * 2018-09-30 2019-02-22 清华大学 基于单目深度相机的虚拟试衣方法及装置

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
"A CNN Model for Human Parsing Based on Capacity Optimization";Yalong Jiang等;《Applied Sciences》;20190329;第9卷(第7期);全文 *
"A Mixed Reality Virtual Clothes Try-On System";M. Yuan等;《IEEE Transactions on Multimedia》;20131231;第15卷(第8期);全文 *
"A survey of human pose estimation: The body parts parsing based methods";Zhao Liu等;《Journal of Visual Communication and Image Representation》;20151031;第32卷;全文 *
"Accurate Human-Limb Segmentation in RGB-D Images for Intelligent Mobility Assistance Robots";S. Chandra等;《2015 IEEE International Conference on Computer Vision Workshop (ICCVW)》;20160215;全文 *
"Weakly and Semi Supervised Human Body Part Parsing via Pose-Guided Knowledge Transfer";H. Fang等;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20181217;全文 *
"基于图像的虚拟试衣技术研究";谢坤;《中国优秀硕士学位论文全文数据库·信息科技辑》;20160915;第2016年卷(第9期);全文 *
"基于骨骼蒙皮模型的三维人体与服装对象的姿态联动";李端;《中国优秀硕士学位论文全文数据库·信息科技辑》;20100815;第2010年卷(第8期);全文 *

Also Published As

Publication number Publication date
CN110176016A (zh) 2019-08-27

Similar Documents

Publication Publication Date Title
CN110176016B (zh) 一种基于人体轮廓分割与骨骼识别的虚拟试衣方法
CN108345869B (zh) 基于深度图像和虚拟数据的驾驶人姿态识别方法
CN107168527B (zh) 基于区域卷积神经网络的第一视角手势识别与交互方法
WO2020108362A1 (zh) 人体姿态检测方法、装置、设备及存储介质
CN105869178B (zh) 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法
CN104392223B (zh) 二维视频图像中的人体姿态识别方法
CN107481315A (zh) 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法
CN109584251A (zh) 一种基于单目标区域分割的舌体图像分割方法
CN110688965B (zh) 基于双目视觉的ipt模拟训练手势识别方法
CN104167016B (zh) 一种基于rgb彩色与深度图像的三维运动重建方法
CN109344813B (zh) 一种基于rgbd的目标识别和场景建模方法
CN103810491B (zh) 融合深度和灰度图像特征点的头姿估计兴趣点检测方法
CN105279769B (zh) 一种联合多特征的层次粒子滤波跟踪方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN108346160A (zh) 基于视差图背景差法和Meanshift结合的多运动目标跟踪方法
CN103914699A (zh) 一种基于色彩空间的自动唇彩的图像增强的方法
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN108470178B (zh) 一种结合深度可信度评价因子的深度图显著性检测方法
CN107066969A (zh) 一种人脸识别方法
CN103903013A (zh) 一种无标记平面物体识别的优化算法
CN104751111B (zh) 识别视频中人体行为的方法和系统
CN108629336A (zh) 基于人脸特征点识别的颜值计算方法
CN105426882B (zh) 一种人脸图像中快速定位人眼的方法
CN114758288A (zh) 一种配电网工程安全管控检测方法及装置
CN106815855A (zh) 基于产生式和判别式结合的人体运动跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210226

Address after: 265400 No. 128, Wenquan Road, Zhaoyuan, Shandong, Yantai

Applicant after: Zhaoyuan state owned Assets Management Co.,Ltd.

Address before: No.108 Shengtai Road, Zhaoyuan City, Yantai City, Shandong Province 265499

Applicant before: HIT NEW MATERIALS INTELLIGENT EQUIPMENT TECHNOLOGY RESEARCH INSTITUTE (ZHAOYUAN) Co.,Ltd.

GR01 Patent grant
GR01 Patent grant