CN110378291A - 一种基于半监督学习的人体特征参数预测方法 - Google Patents
一种基于半监督学习的人体特征参数预测方法 Download PDFInfo
- Publication number
- CN110378291A CN110378291A CN201910661335.0A CN201910661335A CN110378291A CN 110378291 A CN110378291 A CN 110378291A CN 201910661335 A CN201910661335 A CN 201910661335A CN 110378291 A CN110378291 A CN 110378291A
- Authority
- CN
- China
- Prior art keywords
- human body
- parameter
- semi
- data
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于半监督学习的人体特征参数预测方法。构建数据集,数据集包含基于真实人体的有标签数据集和基于虚拟人体的无标签数据集;数据集的图像预处理;利用数据集训练半监督模型,构建输入图像与人体特征参数之间的稳定的映射模型;利用半监督模型对待测输入图像进行处理,预测获得人体特征参数。本发明仅采集少量真实的有标签人体数据,同时借助模拟器生成大量无标签人体数据,能够利用少量有标签人体数据建立稳定的半监督模型映射模型,准确预测人体特征参数。
Description
技术领域
本发明涉及人体特征参数预测领域,特别是涉及了一种基于半监督学习的人体特征参数预测方法。
背景技术
以身高、体重、三围、臂长等为代表的人体特征参数反应了人体特征点之间空间位置关系,表征了人体形态信息,在三维人体重建、虚拟试衣等领域得到了广泛的应用。
随着智能手机的快速发展,获取清晰稳定的人体图像的成本逐渐降低,相对于工作量巨大的人体特征点手工标定,研究者正不断尝试构建人体图像与人体特征参数之间的稳定的映射模型。但是基于图像处理的人体特征点定位通常易受到人体姿态、光照等外界因素的影响,存在定位精度低,定位稳定性差等问题。同时,受限于人体特征点的数量,根据统计规律计算得到的人体特征参数通常存在一定的偏差。
深度学习作为一类新兴的解决方案,正逐渐应用于生产生活的方方面面,而其训练样本的数量与质量对模型的泛化能力起到了决定性的作用。
有标签人体特征参数数据集包含了大量的真实人体图像及对应的人体特征参数,构建工作量大、成本高,目前并不存在任何开源的有标签人体特征参数数据集,因而无法为有监督学习模型提供足够的训练样本支撑。
无监督学习模型作为深度学习领域的另一重要组成部分,由于训练样本无需标签,获取成本明显降低,虽然在样本分类问题上取得了良好的分类效果,却无法应用于人体特征参数等数据回归问题。
发明内容
为了克服现有技术的不足,本发明的目的在于提供了一种基于半监督学习的人体特征参数预测方法,建立输入图像与人体特征参数之间的稳定的映射模型,并应用于三维人体重建。
本发明能够利用少量有标签人体数据建立稳定的映射模型,准确预测人体特征参数。
本发明采用的技术方案为:
S1、构建数据集,数据集包含基于真实人体的有标签数据集和基于虚拟人体的无标签数据集;
S2、数据集的图像预处理,以去除数据集图像中的背景、光照、人体姿态等外界因素的影响,以降低后续半监督模型训练难度;
S3、利用数据集训练半监督模型,构建输入图像与人体特征参数之间的稳定的映射模型;
S4、利用半监督模型对待测输入图像进行处理,如图7所示,预测获得人体特征参数,并进一步进行三维人体重建。
所述步骤S1具体包括:
S101、如图2所示,采集真实人体在站立姿态下不同手臂姿势的正面图像;
S102、如图3所示,采集真实人体在站立姿态下不同穿着服装的正面图像;
S103、重复步骤S101、S102,采集不同真实人体的正面图像,并测量获得真实人体的人体特征参数,由该些正面图像及其对应的人体特征参数组成构建有标签数据集;
S104、利用现有模拟器模拟生成虚拟人体在站立姿态下不同手臂姿势、不同穿着服装的三维模型,并投影获得的正面图像,由该些未知的不带有人体特征参数的正面图像组成构建无标签数据集。
本发明创造性采用模拟生成的不带有标签信息的无标签数据集结合到有标签数据集一起进行训练处理,降低了训练集中有标签数据的比重,降低了数据采集成本,大大降低训练所使用的有标签数据集的数据量要求(有标签数据获取成本较高,需要找大量的真实人体进行测量)。
现有模拟器包括有Marvelous Designer,ARCSim system,VegaFEM。
3、根据权利要求1所述的一种基于半监督学习的人体特征参数预测方法,其特征在于:所述的人体特征参数反应了人体特征点之间空间位置关系,表征了人体形态信息。
所述步骤S103中,人体特征参数包含身高、体重、三围和臂长的数据,其定义参照《人体测量方法》中的定义,由于部分人体特征参数如胸围等会受到人体姿态的影响,因而对于不同的真实人体,其人体特征参数均在同一姿态下测量。
所述步骤S2的图像预处理具体包括:
S201、如图4所示,分离前景与背景,排除背景因素的影响;
S202、如图5所示,二值化图像,排除服装色彩信息、光照等外界因素的影响;
S203、如图6所示,检测获得图像中的人体目标对象,缩放平移人体目标对象,并归一化图像尺寸,排除人体站立位置、相机分辨率的影响。
所述步骤S3具体包括:
从步骤S1中构建得到的数据集中,分别将有标签数据集及无标签数据集中取适量的训练样本共同作为半监督模型的输入,所述的半监督模型包括有两个编码器I和II和一个解码器,两个编码器I和II共享权重f(k),其中的编码器I未加入高斯噪声,编码器II加入高斯噪声,由编码器II单独组成第一部分训练,编码器I、编码器II及解码器依次连接共同组成第二部分训练;以有标签数据集中的训练样本通过半监督模型的第一训练部分的编码器II中进行处理,由编码器II预测输出的结果作为人体特征参数的预测标签数据,进而将预测标签数据与人体特征参数的真实标签数据之间作误差作为第一误差;以无标签数据集中的训练样本通过半监督模型的第二训练部分训练进行处理,以编码器II的最后一层数据为解码器的输入,以解码器各层的特征值为无标签数据预测特征数据,编码器I即共享权重参数,的各层的特征值为无标签数据真实特征数据,进而将无标签数据预测特征数据和无标签数据真实特征数据之间做误差为第二类误差;由第一误差和第二误差加权得到总体误差,通过最小化总体误差优化训练半监督模型,这其中的半监督模型的编码部分的模型参数是由有标签数据集和无标签数据集中的训练样本共同训练获得。
将所述步骤S4预测获得的人体特征参数进行三维人体重建,具体为:
S501、使用主成分分析对现有人体数据库中的各个样本人体进行处理,构建人体形状空间;
S502、建立人体形状空间与人体特征参数之间的线性映射;
S503、利用线性映射将人体特征参数参照处理获得人体形状空间,完成重建三维人体模型。
所述步骤S501具体是对人体库中各个样本人体进行数据重采样以统一网格结构,再使用主成分分析对统一网格结构的人体数据进行处理,以互相正交的特征向量表征人体数据。其中的主成分分析具体是通过正交变换将一组可能存在相关性的变量转化为一组线性无关的变量,并按照特征值的大小选取对应的特征向量。
本发明针对目前开源的有标签人体特征参数数据集缺乏的研究现状,仅采集少量真实的有标签人体数据,同时借助模拟器生成大量无标签人体数据,通过半监督模型建立单张输入图像与人体特征参数之间的映射模型,并用于三维人体重建。
本发明的有益效果是:
本发明能够基于体量很小的有标签数据集,建立输入图像与人体特征参数之间的稳定的映射模型,并应用于三维人体重建。
本发明能够基于体量更小的有标签数据集和无标签数据集一起构建模型并三维人体重建,实现了采用了体量更大的有标签数据集处理结果相一致,大大降低了模型处理的训练样本的要求,提高了数据处理的复杂度。
附图说明
图1是本发明方法的步骤示意图;
图2是本真实人体在不同姿态下的正面图像;
图3是真实人体在不同服装下的正面图像;
图4是前/背景分割结果;
图5是前景图像二值化结果;
图6是归一化后的二值化图,用于作为半监督模型的输入;
图7是通过图片重建三维人体模型;
图8是Ladder network的网络结构示意图;
图9是人体特征参数预测误差与有标签图像数量关系图;
图10是人体特征参数预测误差与无标签图像数量关系图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图及实施例,对本发明做出进一步详细,清楚的描述。
图1为本发明方法的步骤示意图,本方法的具体实施例及实施步骤如下:
S1、构建数据集,包含基于真实人体的有标签数据集和基于虚拟人体的无标签数据集;
S101、如图2所示,采集真实人体在站立姿态下不同手臂姿势的正面图像,要求被拍摄者双脚与肩同宽站立在水平地面上,双臂与人体躯干保持在同一平面内,采集3-4组不等数据;
S102、如图3所示,采集真实人体在站立姿态下不同穿着服装的正面图像,要求被拍摄者分别穿着T恤、衬衫以及长袖,采集三组数据;
S103、重复步骤S101、S102,集不同真实人体的正面图像,并测量获得真实人体的人体特征参数,由该些正面图像及其对应的人体特征参数组成构建有标签数据集,共包含600张图像;
人体特征参数反应了人体特征点之间空间位置关系,表征了人体形态信息。手动采集的人体特征数据包含身高、三围、臂长以及腿长,其定义参照《人体测量方法》,具体为:身高——头顶点至地面的垂直距离;胸围——平静呼吸时经乳头点的胸部水平围长;腰围——经脐部中心的水平围长,或肋最低点与髂嵴上缘两水平线间中点线的围长;臀围——臀部向后最突出部位的水平围长;臂长——从肩峰点至桡骨茎突点的直线距离;腿长——从髂前上棘点(或耻骨联合点)至地面的直线距离。
由于部分人体特征参数如胸围等会受到人体姿态的影响,因而对于不同的真实人体,其人体特征参数均在同一姿态(T姿态,即双臂呈水平状态)下测量。
S104、从现有人体库中取若干不同形态的人体,使用模拟器(MarvelousDesigner)模拟人体在站立姿态下不同服装(T恤、衬衫、长袖)的着装效果,并改变虚拟人体手臂姿势,使得其手臂姿势尽可能接近于S103中真实人体的姿态。将着装效果投影至图像,构建无标签数据集,共包含2000张图像。
S2、图像预处理,去除背景、光照、人体姿态等外界因素的影响,降低半监督模型训练难度;
S201、如图4所示,采用Grabcut算法分离前景与背景,排除背景因素的影响;
S202、如图5所示,将图像二值化,排除服装色彩信息、光照等外界因素的影响;
S203、如图6所示,检测获得图像中的人体目标对象,缩放平移人体目标对象并归一化图像尺寸至128*128,排除人体站立位置、相机分辨率的影响。
不同相机之间的分辨率也不尽相同,为了统一分辨率,便于半监督模型训练,首先将图像均归一化至128*128。
由于不同的人体在采集数据时难以准确地站立在同一位置,图像中像素点的数量与人体特征参数并不成正比,图像中的信息只能反应出各人体特征参数之间的比例关系,为了更加准确的建立人体特征参数与输入图像之间的映射模型,将人体图像的平均点与图像中轴线对齐,将人体整体缩放并在竖直方向平移直至头顶位置图像最上方边缘处,人体脚部位于图像最下方边缘处,同时将所有人体特征参数与身高之间的比例作为半监督模型的输出。
S3、利用数据集训练半监督模型,构建输入图像与人体特征参数之间的稳定的映射模型。
从步骤S1中构建得到的数据集中,分别将有标签数据集及无标签数据集中取适量的训练样本共同作为半监督模型的输入,所述的半监督模型包括有两个编码器I和II和一个解码器,两个编码器I和II共享权重f(k),其中的编码器I未加入高斯噪声,编码器II加入高斯噪声,由编码器II单独完成第一部分训练,编码器I、编码器II及解码器共同完成第二部分训练;以有标签数据集中的训练样本通过半监督模型的第一训练部分的编码器II中进行处理,由编码器II预测输出的结果作为人体特征参数的预测标签数据,进而将预测标签数据与人体特征参数的真实标签数据之间作误差作为第一误差;以无标签数据集中的训练样本通过半监督模型的第二训练部分训练进行处理,以编码器II的最后一层数据为解码器的输入,以解码器各层的特征值为无标签数据预测特征数据,编码器I即共享权重参数,的各层的特征值为无标签数据真实特征数据,进而将无标签数据预测特征数据和无标签数据真实特征数据之间做误差为第二类误差;由第一误差和第二误差加权得到总体误差,通过最小化总体误差优化训练半监督模型,这其中的半监督模型的编码部分的模型参数是由有标签数据集和无标签数据集中的训练样本共同训练获得。半监督模型Ladder network的网络结构如图8所示,半监督模型Ladder network主要包含两个编码器I和II以及一个解码器,其中这两个编码器共享权重f(k),Nk(0,σk 2)是施加到半监督模型的编码器II的高斯噪声,以提升半监督模型的抗干扰性,k表示编码器/解码器的第k层,σk表示施加到编码器II的第k层的高斯噪声的标准差。
半监督模型的损失函数建立为:
其中,z(k)和表示编码器I和解码器分别提取出的特征,k表示编码器/解码器的第k层,λk为编码器各层的权重;n为有标签数据集的大小,即其中的图像总数,i表示有标签数据集中图像的序数,表示第i幅图像经模型中的编码器II预测获得的标签;ti表示第i幅图像的真实标签,xi表示输入的第i幅图像;表示第i幅图像经模型中的编器II预测获得的标签和对应的真实标签保持一致的概率。
人体特征参数预测下,将损失函数优化为:
其中,△ychest/△ywaist/.../△yleg分别表示有标签数据集中的训练样本的胸围/腰围/.../腿长的预测误差,α1/α2/.../α5表示权重。
在当前实施例的实验条件下,半监督模型Ladder network的每个编码器均包含依次连接的3个卷积层和2个全连接层,卷积层分别含有16,32,64个卷积核,其激活函数均被设置为ReLU;全连接层尺寸分别为1024,5。
每个解码器均包含依次连接的3个反卷积层。
S4、利用半监督模型预测人体特征参数并进行三维人体重建。
S401、使用主成分分析对现有人体库中的各个样本人体进行处理,构建人体形状空间,以低维向量近似表征高维样本人体;
对人体库中各个样本人体进行数据重采样以统一网格结构,再使用主成分分析对统一网格结构的人体数据进行处理,以互相正交的特征向量表征人体数据。其中,主成分分析是一种常用的高维数据降维方法,其主要思想为通过正交变换将一组可能存在相关性的变量转化为一组线性无关的变量,并按照特征值的大小选取对应的特征向量。
S402、建立代表高维样本人体的低维向量与人体特征参数之间的线性映射,其线性映射矩阵为T=V*FT*(F*FT)-1,其中V是样本人体的低维向量组成的矩阵,F是样本人体的人体特征参数组成的矩阵(粗体T是线性映射矩阵,仅F右上角的非粗体T表示矩阵的转置);
S403、如图7所示,通过S3中预测得到的人体特征参数重建三维人体模型,通过半监督模型Ladder network预测各人体特征参数与身高之间的比例,通过身高求解各人体特征参数,借助S402中的线性映射矩阵,求解对应的低维向量,恢复三维人体模型。
为了证明本方法的有效性,首先仅仅采用有标签数据进行训练,如图9所示,人体特征参数的预测误差随着无标签数据的增大而减少;同时,我们采用600张有标签数据及不同数量的无标签数据进行网络训练,如图10所示,人体特征参数预测误差随着无标签数据的逐渐增加而减小,当无标签数据大于1000时,人体特征参数预测误差约为1.5cm。
上述具体实施方式用来解释说明本发明,而不是对本发明进行限制,都在本发明的精神和权利要求的保护范围之内,对本发明做出的任何修改和改变,都落入本发明的保护范围。
Claims (7)
1.一种基于半监督学习的人体特征参数预测方法,其特征在于:
S1、构建数据集,数据集包含基于真实人体的有标签数据集和基于虚拟人体的无标签数据集;
S2、数据集的图像预处理;
S3、利用数据集训练半监督模型,构建输入图像与人体特征参数之间的稳定的映射模型;
S4、利用半监督模型对待测输入图像进行处理,预测获得人体特征参数。
2.根据权利要求1所述的一种基于半监督学习的人体特征参数预测方法,其特征在于:所述步骤S1具体包括:
S101、采集真实人体在站立姿态下不同手臂姿势的正面图像;
S102、采集真实人体在站立姿态下不同穿着服装的正面图像;
S103、重复步骤S101、S102,采集不同真实人体的正面图像,并测量获得真实人体的人体特征参数,由该些正面图像及其对应的人体特征参数组成构建有标签数据集;
S104、利用模拟器模拟生成虚拟人体在站立姿态下不同手臂姿势、不同穿着服装的三维模型,并投影获得的正面图像,由该些不带有人体特征参数的正面图像组成构建无标签数据集。
现有模拟器包括有Marvelous Designer,ARCSim system,VegaFEM。
3.根据权利要求1所述的一种基于半监督学习的人体特征参数预测方法,其特征在于:所述步骤S103中,人体特征参数包含身高、体重、三围和臂长的数据。
4.根据权利要求1所述的一种基于半监督学习的人体特征参数预测方法,其特征在于:所述步骤S2的图像预处理具体包括:
S201、分离前景与背景;
S202、二值化图像;
S203、检测获得图像中的人体目标对象,缩放平移人体目标对象,并归一化图像尺寸。
5.根据权利要求1所述的一种基于半监督学习的人体特征参数预测方法,其特征在于:所述步骤S3具体包括:
从步骤S1中构建得到的数据集中,分别将有标签数据集及无标签数据集的训练样本共同作为半监督模型的输入,所述的半监督模型包括有两个编码器I和II和一个解码器,两个编码器I和II共享权重f(k),其中的编码器I未加入高斯噪声,编码器II加入高斯噪声,由编码器II单独组成第一部分训练,编码器I、编码器II及解码器共同组成第二部分训练;以有标签数据集中的训练样本通过半监督模型的第一训练部分的编码器II中进行处理,由编码器II预测输出的结果作为人体特征参数的预测标签数据,进而将预测标签数据与人体特征参数的真实标签数据之间作误差作为第一误差;以无标签数据集中的训练样本通过半监督模型的第二训练部分训练进行处理,以编码器II的最后一层数据为解码器的输入,以解码器各层的特征值为无标签数据预测特征数据,编码器I的各层的特征值为无标签数据真实特征数据,进而将无标签数据预测特征数据和无标签数据真实特征数据之间做误差为第二类误差;由第一误差和第二误差加权得到总体误差,通过最小化总体误差优化训练半监督模型。
6.根据权利要求1所述的一种基于半监督学习的人体特征参数预测方法,其特征在于:将所述步骤S4预测获得的人体特征参数进行三维人体重建,具体为:
S501、使用主成分分析对现有人体数据库中的各个样本人体进行处理,构建人体形状空间;
S502、建立人体形状空间与人体特征参数之间的线性映射;
S503、利用线性映射将人体特征参数参照处理获得人体形状空间,完成重建三维人体模型。
7.根据权利要求6所述的一种基于半监督学习的人体特征参数预测方法,其特征在于:所述步骤S501具体是对人体库中各个样本人体进行数据重采样以统一网格结构,再使用主成分分析对统一网格结构的人体数据进行处理,以互相正交的特征向量表征人体数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910661335.0A CN110378291B (zh) | 2019-07-22 | 2019-07-22 | 一种基于半监督学习的人体特征参数预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910661335.0A CN110378291B (zh) | 2019-07-22 | 2019-07-22 | 一种基于半监督学习的人体特征参数预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110378291A true CN110378291A (zh) | 2019-10-25 |
CN110378291B CN110378291B (zh) | 2021-06-25 |
Family
ID=68254671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910661335.0A Active CN110378291B (zh) | 2019-07-22 | 2019-07-22 | 一种基于半监督学习的人体特征参数预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110378291B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113447997A (zh) * | 2021-05-21 | 2021-09-28 | 中国石油大学(北京) | 储层裂缝识别方法、识别装置及识别系统 |
CN115019891A (zh) * | 2022-06-08 | 2022-09-06 | 郑州大学 | 一种基于半监督图神经网络的个体驱动基因预测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140270406A1 (en) * | 2013-03-17 | 2014-09-18 | Suja Ani George | Suja's Aesthetic Grading SAG - check pattern |
CN107170039A (zh) * | 2017-05-12 | 2017-09-15 | 西安蒜泥电子科技有限责任公司 | 人体三维数据模型库的生成方法 |
CN107194987A (zh) * | 2017-05-12 | 2017-09-22 | 西安蒜泥电子科技有限责任公司 | 对人体测量数据进行预测的方法 |
CN107862302A (zh) * | 2017-11-29 | 2018-03-30 | 合肥赑歌数据科技有限公司 | 一种基于半监督学习的人体运动检测系统及方法 |
CN108269302A (zh) * | 2018-01-19 | 2018-07-10 | 浙江大学 | 一种基于简易测量服的三维人体快速重建方法 |
CN108471954A (zh) * | 2016-08-10 | 2018-08-31 | 鲍里斯·伊万诺维奇·帕斯图霍夫 | 多参数评估环境对人体的影响的方法和系统 |
CN109919036A (zh) * | 2019-01-18 | 2019-06-21 | 南京理工大学 | 基于时域分析深度网络的工人作业姿势分类方法 |
-
2019
- 2019-07-22 CN CN201910661335.0A patent/CN110378291B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140270406A1 (en) * | 2013-03-17 | 2014-09-18 | Suja Ani George | Suja's Aesthetic Grading SAG - check pattern |
CN108471954A (zh) * | 2016-08-10 | 2018-08-31 | 鲍里斯·伊万诺维奇·帕斯图霍夫 | 多参数评估环境对人体的影响的方法和系统 |
CN107170039A (zh) * | 2017-05-12 | 2017-09-15 | 西安蒜泥电子科技有限责任公司 | 人体三维数据模型库的生成方法 |
CN107194987A (zh) * | 2017-05-12 | 2017-09-22 | 西安蒜泥电子科技有限责任公司 | 对人体测量数据进行预测的方法 |
CN107862302A (zh) * | 2017-11-29 | 2018-03-30 | 合肥赑歌数据科技有限公司 | 一种基于半监督学习的人体运动检测系统及方法 |
CN108269302A (zh) * | 2018-01-19 | 2018-07-10 | 浙江大学 | 一种基于简易测量服的三维人体快速重建方法 |
CN109919036A (zh) * | 2019-01-18 | 2019-06-21 | 南京理工大学 | 基于时域分析深度网络的工人作业姿势分类方法 |
Non-Patent Citations (3)
Title |
---|
HAOCAN XU 等: "Modeling 3D human body with a smart vest", 《ELSEVIER》 * |
MING ZENG 等: "Semi-Supervised Convolutional Neural Networks for Human Activity Recognition", 《ARXIV》 * |
杜若琪 等: "基于双目立体视觉的行人身高测量方法", 《信息技术》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113447997A (zh) * | 2021-05-21 | 2021-09-28 | 中国石油大学(北京) | 储层裂缝识别方法、识别装置及识别系统 |
CN115019891A (zh) * | 2022-06-08 | 2022-09-06 | 郑州大学 | 一种基于半监督图神经网络的个体驱动基因预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110378291B (zh) | 2021-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Attribute-aware face aging with wavelet-based generative adversarial networks | |
US10679046B1 (en) | Machine learning systems and methods of estimating body shape from images | |
WO2021175050A1 (zh) | 三维重建方法和三维重建装置 | |
CN105069746B (zh) | 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统 | |
TWI378402B (en) | Image preprocessing system for 3d image database construction | |
CN112861624A (zh) | 一种人体姿态检测方法、系统、存储介质、设备及终端 | |
CN107924579A (zh) | 生成个性化3d头部模型或3d身体模型的方法 | |
CN106778563A (zh) | 一种基于空间连贯特征的快速任意姿态人脸表情识别方法 | |
CN109271895A (zh) | 基于多尺度特征学习和特征分割的行人重识别方法 | |
CN109919230A (zh) | 基于循环特征金字塔的医学图像肺结节检测方法 | |
CN106469465A (zh) | 一种基于灰度和深度信息的三维人脸重建方法 | |
Neumann et al. | Capture and Statistical Modeling of Arm‐Muscle Deformations | |
CN112070078B (zh) | 基于深度学习的土地利用分类方法及系统 | |
CN112232106B (zh) | 一种二维到三维人体姿态估计方法 | |
CN110310285A (zh) | 一种精确的基于三维人体重建的烧伤面积计算方法 | |
CN106952335A (zh) | 建立人体模型库的方法及其系统 | |
CN108269302A (zh) | 一种基于简易测量服的三维人体快速重建方法 | |
CN112016497A (zh) | 基于人工智能的单视角太极拳动作分析及考核系统 | |
CN112784736A (zh) | 一种多模态特征融合的人物交互行为识别方法 | |
CN114445664A (zh) | 基于自适应动态卷积网络的图像分类识别方法、装置和计算机设备 | |
CN110263768A (zh) | 一种基于深度残差网络的人脸识别方法 | |
CN110717391A (zh) | 一种基于视频图像的身高测量方法、系统、装置和介质 | |
CN110009745B (zh) | 根据平面基元和模型驱动对点云提取平面的方法 | |
CN110378291A (zh) | 一种基于半监督学习的人体特征参数预测方法 | |
CN110210293A (zh) | 一种基于三维数据和面部图像的性别识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |