CN112085105A - 一种基于人体形状与姿态估计的动作相似度评价方法 - Google Patents

一种基于人体形状与姿态估计的动作相似度评价方法 Download PDF

Info

Publication number
CN112085105A
CN112085105A CN202010946255.2A CN202010946255A CN112085105A CN 112085105 A CN112085105 A CN 112085105A CN 202010946255 A CN202010946255 A CN 202010946255A CN 112085105 A CN112085105 A CN 112085105A
Authority
CN
China
Prior art keywords
video
human body
similarity
body shape
joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010946255.2A
Other languages
English (en)
Inventor
刘丰凯
张文
张海波
杨跞
许楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Pont Technology Co Ltd
Original Assignee
Shanghai Pont Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Pont Technology Co Ltd filed Critical Shanghai Pont Technology Co Ltd
Priority to CN202010946255.2A priority Critical patent/CN112085105A/zh
Publication of CN112085105A publication Critical patent/CN112085105A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Abstract

一种基于人体形状与姿态估计的动作相似度评价方法,使用人体形状估计参数与姿态估计参数更准确的描述动态的人体模型,进而使用人体3D蒙皮结构提取真实的人体骨骼坐标位置,代替传统的人体表面骨骼点提取方法;基于这些人体形状参数、姿态参数以及真实人体骨骼坐标位置,构造出对人体动作对比敏感的特征指标,实现准确、智能的动作相似度对比评估方法。该方法对人体形状、姿态、真实骨骼的提取,以及动作相似度的评价更加准确。

Description

一种基于人体形状与姿态估计的动作相似度评价方法
技术领域
本发明涉及计算机视觉领域,特别涉及一种人体动作相似度评价方法。
背景技术
随着深度学习技术和高性能计算技术的进步,实时视频的人体姿态评估、行为理解已经成为了目前计算机视觉领域的研究热点。一些研究成果已经成功的应用到了很多领域中,例如抖音尬舞机。在体育视频分析、体育教学等任务中,人体动作评估与相似度评价方法有着广泛的应用前景。
人体行为是由一组时序动作构成,有效的判断标准动作(教练动作)与输入动作(学生动作)差距,是衡量这两个动作相似程度的重要任务。
目前动作相似度评估方法有以下两种方法:
(1)采用RGB相机,使用RGB图像,提取二维骨骼信息,然后设计一些简单的特征指标,使用DTW或欧式距离相似度度量。如专利201810394685.0、201910143782.7。
(2)采用RGB-D相机,使用RGB图像和深度图像,提取三维骨骼信息,然后设计一些简单特征指标,使用DTW或欧式距离相似度度量。如专利201310529096.6、201910338737.7。
根据上述的这些方法可以将人体动作相似度评价过程简述如下:通过一种方法提取人体骨骼,然后手动设计一些简易的差异性特征,然后采用度量的方式比较这些差异性特征,给出相似度评价。
上述第(1)类方法中只采用了二维骨骼信息,二维骨骼信息无法反映真实的物理量,如关节的空间角度等重要的真实信息。另外,二维骨骼信息会因为关节遮挡的问题导致关节丢失或测不到,当缺失了重要骨骼点,则动作评价就会不准确。
第(2)类方法中采用了三维骨骼信息,深度的信息来自于深度图像,当关节被遮挡时,会导致深度图像的深度距离会误测,提取的三维骨骼信息会有极大的误差。例如当手在肢体的后方,这时会测量到肚子的距离,而不是手的距离,这样就会产生一个身体厚度的误差。另外,深度相机测量的深度距离只能测量到表皮的距离,没法测量真实关节点的位置,这样也会产生很大的误差。
发明内容
本公开提供一种基于人体形状与姿态估计的动作相似度评价方法,其能够避免传统人体骨骼点模型对人体骨骼空间位置的测量误差、以及因关节受遮挡而导致的关节点缺失问题,实现对人体动态更准确的描述,进而实现动作相似度的对比评估。
本公开提供的基于人体形状与姿态估计的动作相似度评价方法,包括以下步骤:
采用人体形状与姿态估计模型,分别从待评价视频和标准动作视频中逐帧估计各自的人体形状参数序列和姿态参数序列,得到其形状与姿态特征值序列;
利用所述人体形状参数序列与姿态参数序列,生成3D蒙皮人体模型,然后根据蒙皮生成真实人体的关节点坐标;
根据所述形状与姿态特征值序列,得到待评价视频和标准动作视频之间的人体形状与姿态差异性序列;
根据各帧的所述人体关节点坐标,得到待评价视频和标准动作视频之间的关节位置变化差异性序列和关节速度变化差异性序列;
根据所述人体形状与姿态差异性序列,关节位置变化差异性序列和关节速度变化差异性序列,对待评价视频与标准动作视频之间的动作相似性进行度量。
可选的,所述动作相似度评价方法还包括视频数据预处理的步骤,包括:
对待评价视频和/或标准动作视频的起止点进行裁剪;以及
将待评价视频与标准动作视频的帧数对齐。
可选的,所述视频数据预处理的步骤,还包括:
识别并画出视频中人的位置识别框,仅保留所述识别框内的视频图像用于动作相似度评价。
可选的,所述人体形状参数序列和姿态参数序列,采用基于SMPL的形状参数和姿态参数模型。
可选的,采用人体形状与姿态估计模型,分别从待评价视频和标准动作视频中逐帧估计各自的人体形状参数序列和姿态参数序列,得到各自人体形状与姿态特征值序列的步骤包括:
将待评价视频图像和标准动作视频图像,分别送入训练好的人体形状与姿态估计模型,逐帧估计各自的人体形状参数序列Si和姿态参数序列Pi,其中i表示第i帧;
分别构建各自的人体参数化模型[Si,Pi];
对所述人体参数化模型进行降维处理,得到各自的人体形状与姿态特征值序列Fi
可选的,所述待评价视频和标准动作视频之间的人体形状与姿态差异性序列表示为:
Figure BDA0002675391000000031
其中,
Figure BDA0002675391000000032
为待评价视频第i帧的人体形状与姿态特征值,
Figure BDA0002675391000000033
为标准动作视频第i帧的人体形状与姿态特征值,ρ函数为皮尔逊相关系数,N表示每种视频的总帧数。
可选的,所述待评价视频和标准动作视频之间的关节位置变化差异性序列表示为:
Figure BDA0002675391000000041
其中,i表示第i帧,N表示每种视频的总帧数,Ck in表示待评价视频的第k个关节相对于躯干坐标的变化值,Ck s表示标准动作视频的第k个关节相对于躯干坐标的变化值,K表示关节总数,关节ρ函数为皮尔逊相关系数。
可选的,所述待评价视频和标准动作视频之间的关节速度变化差异性序列表示为:
Figure BDA0002675391000000042
其中,i表示第i帧,N表示每种视频的总帧数,k表示第k个关节,K表示关节总数,
Figure BDA0002675391000000043
为待评价视频的关节坐标变化速度,
Figure BDA0002675391000000044
为标准动作视频的关节坐标变化速度,所述关节坐标变化速度由该关节在第i帧的坐标减去第i-1帧的坐标得到。
可选的,根据所述人体形状与姿态差异性序列,关节位置变化差异性序列和关节速度变化差异性序列,对待评价动作和标准动作之间的相似性进行度量的步骤包括:
将所述人体形状与姿态差异性序列,关节位置变化差异性序列,和关节速度变化差异性序列,组成为一个向量;
采用自适应回归的方法进行相似性度量。
可选的,所述采用自适应回归的方式进行相似性度量的方法,步骤包括:
建立所述人体形状与姿态差异性序列,关节位置变化差异性序列和关节速度变化差异性序列组成的向量R与相似度similarity之间的关系式如下:
Figure BDA0002675391000000051
其中,wT={w1,w2,w3,...,w3N-1};
similarity∈[-1,1];
采用少量由专家标注的动作相似度评价视频,分别将依照三种所述差异性序列构建的R,和专家标注的相似度值代入上式,采用梯度上升的方式求解出wT
然后将similarity从[-1,1]映射到[0,1]中:
Figure BDA0002675391000000052
最后输出为similarity_out,表示待评价视频与标准动作视频的相似度,数值越接近1,则表示相似程度越高。
本公开提供的基于人体形状与姿态估计的动作相似度评价方法,使用人体形状估计参数与姿态估计参数更准确的描述动态的人体模型,进而使用人体3D蒙皮结构提取真实的人体骨骼坐标位置,代替传统的人体表面骨骼点提取方法;基于这些人体形状参数、姿态参数以及真实人体骨骼坐标位置,构造出对人体动作对比敏感的特征指标,实现准确、智能的动作相似度对比评估方法。
与现有技术相比,本公开的有益效果是:①引入人体形状参数与姿态参数,全面、稳定反映人体静态特征与动态变化,基于这些参数提取人体骨骼,能够避免帧与帧之间的波动,并解决一时的关节遮挡问题;②相对于传统人体骨骼提取方法只能提取人体表皮骨骼信息,使用基于3D蒙皮模型提取真实人体骨骼更加准确;③采用少量专家标注的相似度数据来训练自适应的相似度度量,比使用简单指标的相似度,度量结果更加准确。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例方式中,相同的参考标号通常代表相同部件。
图1显示传统的人体表面骨骼点提取示意图;
图2显示基于人体形状与姿态估计的动作相似度评价方法实施例流程图;
图3显示基于SMPL的人体形状参数与姿态参数模型;
图4显示基于人体3D蒙皮结构提取的真实人体骨骼坐标位置。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
本公开的示例性实施例,使用RGB相机获取教练的标准动作视频流数据和学员的待评价视频流数据。然后使用人体形状与姿态估计模型,分别从两个视频中估计出人体的形状参数和姿态参数,构建人体参数化模型,如图3所示。再根据人体的3D蒙皮结构估计出人体真实骨骼点的位置,如图4所示。人体参数化模型的构建能够将模型的注意力集中到视频中人身上来,从而忽略了数据的背景信息,从而极大的降低了背景噪声对评价的影响。
图2显示了示例性实施例的流程图,包括以下步骤:
(1)步骤S101:采用人体形状与姿态估计模型,分别从待评价视频和标准动作视频中估计出各自的人体形状参数序列和姿态参数序列,得到各自的人体形状与姿态特征值。其中,人体形状参数序列描述人的高矮胖瘦等静态特征,姿态参数序列则用于描述人的动态特征,衡量动作的变化。
优选的,本实施例中,人的形状参数和姿态参数采用SMPL参数模型,SMPL参数模型是一种蒙皮多人线性参数模型的简写(Skinned Multi-Person Linear Model),可以通过输入的形状参数与动作参数,输出人体的形状与姿态模型,如附图3所示,包括:10个形状参数,用于构建与人类认知极度相似的体型要素,和72个姿态参数,构建与人类认知极度相似的动作要素。
可选的,从两种视频图像中分别估计各自的人体形状参数序列和姿态参数序列,得到其形状与姿态特征值的方法包括以下步骤:
将预处理好的待评价视频图像流和标准动作视频图像流,利用训练好的人体形状与姿态估计模型,分别从两种图像中估计出人的形状参数序列
Figure BDA0002675391000000071
Figure BDA0002675391000000072
和姿态参数序列
Figure BDA0002675391000000073
构建人体参数化模型[Si,Pi],其中Si为图像流中第i帧的人体形状参数,
Figure BDA0002675391000000074
表示第i帧的第k个人体形状参数分量;Pi为图像流中第i帧的人体姿态参数,
Figure BDA0002675391000000075
表示第i帧的第k个人体姿态参数分量;
当人体形状与姿态参数较多,上述人体参数化模型维度过高时,需要对其进行降维处理,如PCA降维,得到代表第i帧人体形状与姿态的特征值
Figure BDA0002675391000000076
Figure BDA0002675391000000077
其中
Figure BDA0002675391000000078
表示使用第i帧的人体参数化模型[Si,Pi]经过PCA降维后的第k个特征值分量。PCA优选采用99.9%方差时的特征维度。
如果动作涉及参数较少、无需降维处理,则直接用上述人体参数化模型作为人体形状与姿态特征值序列。
(3)步骤S102:利用所述人体形状参数与姿态参数,生成3D蒙皮人体模型,得到真实人体各关节点坐标。
可选的,S102包括以下步骤:
使用所述形状参数与姿态参数生成3D蒙皮人体模型;
根据蒙皮生成表示真实人体骨骼的各关节点坐标,其中第0个关节表示躯干。
当使用SMPL的参数模型时,输入10个形状参数与72个姿态参数,生成6890*3形态的3D蒙皮人体模型,然后根据蒙皮生成24个真实人体的骨骼点即关节点坐标。如附图4所示。此时生成的人体骨骼为真实人体骨架坐标,而不是人体表皮的坐标。
(4)差异序列生成:包括人体形状与姿态的差异和人体骨骼的差异两个方面。其中,人体形状与姿态的差异可以用步骤S101中得到的人体形状与姿态特征值来表示,该特征值能够充分反映人体形状与姿态;真实人体骨骼差异主要采用关节的位置变化和关节的速度变化来衡量。具体包括:
步骤S103:根据所述人体形状与姿态特征值序列,得到待评价视频和标准动作视频之间的人体形状与姿态差异性序列。
可选的,人体形状与姿态的差异性序列表示为:
Figure BDA0002675391000000081
其中,i表示第i帧,
Figure BDA0002675391000000082
为待评动作的人体形状与姿态特征值,
Figure BDA0002675391000000083
为标准动作的人体形状与姿态特征值,ρ函数为皮尔逊相关系数,N表示每种视频有N帧。
步骤S104:根据所述人体关节点坐标,得到待评价视频和标准动作视频之间的关节位置变化差异性序列。
可选的,关节位置变化的差异性序列可以表示为
Figure BDA0002675391000000084
其中,i表示第i帧,N表示每种视频的帧数,Ck in表示待评价动作的第k个关节相对于躯干坐标的变化值,Ck s表示标准动作的第k个关节相对于躯干坐标的变化值,K表示关节总数,关节ρ函数为皮尔逊相关系数。
对关节位置变化的计算方法进一步举例解释如下:
在3D蒙皮人体模型生成的人体关节中,0位置为躯干,设置为根关节,坐标为V0=(0,0,0),其余的第k个关节点坐标设为Vk,则第k个关节相对于躯干的位置变化Ck=Vk-V0
步骤S105:根据所述人体关节点坐标,得到待评价视频和标准动作视频之间的关节速度变化差异性序列。
可选的,待评价视频和标准动作视频之间的关节速度变化差异性序列表示为:
Figure BDA0002675391000000091
其中,i表示第i帧,N表示每种视频的总帧数,k表示第k个关节,K表示关节总数,
Figure BDA0002675391000000092
为待评价视频中的关节坐标变化速度,
Figure BDA0002675391000000093
为标准动作视频中的关节坐标变化速度,所述关节坐标变化速度由该关节在第i帧的坐标减去第i-1帧的坐标得到,即:
Figure BDA0002675391000000094
i表示第i帧,k表示第k个关节点。
(5)步骤S106:根据所述人体形状与姿态差异性序列,关节位置变化差异性序列和关节速度变化差异性序列,对待评价视频与标准动作视频之间的相似性进行度量。
可选的,S106的具体步骤包括:
将人体形状与姿态差异性序列M,关节位置变化差异性序列D,关节速度变化差异性序列CS,组合为一个向量:
R={m1,m2,..,mN,d1,d2,..,dN,Cs1,cs2,..,csN]
采用自适应回归的方式来进行相似度度量。
可选的,所述采用自适应回归的方式来进行相似度度量的步骤包括:
y=wTR
Figure BDA0002675391000000095
其中wT={w1,w2,w3,...,w3N}。在少量由专家标注的动作相似度视频中,给出[视频,相似度]的形式,然后采用每个视频对应的相似度,采用梯度上升的方式求解出wT。然后将similarity从[-1,1]映射到[0,1]中,采用如下公式:
Figure BDA0002675391000000096
最后的输出为similarity_out,表示输入动作与标准动作的相似度,数值越接近1,则表示相似程度越高。
作为优选方案,该实施例还包括步骤S201:视频数据预处理,包括:
对视频进行裁剪;以及将待评价视频的帧数与标准动作视频帧数对齐。
其中:
(1)可选的,对视频进行裁剪的步骤包括:
人为设定开始标志位与终止标志位;
自动裁剪从开始标志位到终止标志位之间的视频。
(2)可选的,将待评价视频帧数与标准动作视频对齐的步骤包括:
如果标准动作视频的帧数大,则采用帧间插值的方式对姿态参数进行插值,增加待评价视频帧数,而不改变形状参数;
反之,则采用重新采样的方法,在待评价视频中均匀采样与标准动作帧数相同的帧数。
作为优选方案,为了减少不必要的图像计算,S201的视频数据预处理还包括以下步骤:
识别并画出所述待评价视频中人的位置识别框;
截取所述识别框内的视频图像用于相似度评价。
优选采用剪枝过的YOLOv3-tiny方法。
上述技术方案只是本发明的示例性实施例,对于本领域内的技术人员而言,在本发明公开了应用方法和原理的基础上,很容易做出各种类型的改进或变形,而不仅限于本发明上述具体实施例所描述的方法,因此前面描述的方式只是优选的,而并不具有限制性的意义。

Claims (10)

1.一种基于人体形状与姿态估计的动作相似度评价方法,包括以下步骤:
采用人体形状与姿态估计模型,分别从待评价视频和标准动作视频中逐帧估计各自的人体形状参数序列和姿态参数序列,得到其形状与姿态特征值序列;
利用所述人体形状参数序列与姿态参数序列,生成3D蒙皮人体模型,然后根据蒙皮生成真实人体的关节点坐标;
根据所述形状与姿态特征值序列,得到待评价视频和标准动作视频之间的人体形状与姿态差异性序列;
根据各帧的所述人体关节点坐标,得到待评价视频和标准动作视频之间的关节位置变化差异性序列和关节速度变化差异性序列;
根据所述人体形状与姿态差异性序列,关节位置变化差异性序列和关节速度变化差异性序列,对待评价视频与标准动作视频之间的动作相似性进行度量。
2.根据权利要求1所述的动作相似度评价方法,其特征在于,还包括视频数据预处理的步骤,包括:
对待评价视频和/或标准动作视频的起止点进行裁剪;以及
将待评价视频与标准动作视频的帧数对齐。
3.根据权利要求2所述的动作相似度评价方法,其特征在于,所述视频数据预处理的步骤,还包括:
识别并画出视频中人的位置识别框,仅保留所述识别框内的视频图像用于动作相似度评价。
4.根据权利要求1所述的动作相似度评价方法,其特征在于,所述人体形状参数序列和姿态参数序列,采用基于SMPL的形状参数和姿态参数模型。
5.根据权利要求1所述的动作相似度评价方法,其特征在于,采用人体形状与姿态估计模型,分别从待评价视频和标准动作视频中逐帧估计各自的人体形状参数序列和姿态参数序列,得到各自人体形状与姿态特征值序列的步骤包括;
将待评价视频图像和标准动作视频图像,分别送入训练好的人体形状与姿态估计模型,逐帧估计各自的人体形状参数序列Si和姿态参数序列Pi,其中i表示第i帧;
分别构建各自的人体参数化模型[Si,Pi];
对所述人体参数化模型进行降维处理,得到各自的人体形状与姿态特征值序列Fi
6.根据权利要求5所述的动作相似度评价方法,其特征在于,所述待评价视频和标准动作视频之间的人体形状与姿态差异性序列表示为:
M={m1,m2,m3,...,mN},
Figure FDA0002675390990000021
其中,
Figure FDA0002675390990000022
为待评价视频第i帧的人体形状与姿态特征值,
Figure FDA0002675390990000023
为标准动作视频第i帧的人体形状与姿态特征值,ρ函数为皮尔逊相关系数,N表示每种视频的总帧数。
7.根据权利要求1所述的动作相似度评价方法,其特征在于,所述待评价视频和标准动作视频之间的关节位置变化差异性序列表示为:
D={d1,d2,d3,...,dN},
Figure FDA0002675390990000024
其中,i表示第i帧,N表示每种视频的总帧数,Ckin表示待评价视频的第k个关节相对于躯干坐标的变化值,Cks表示标准动作视频的第k个关节相对于躯干坐标的变化值,K表示关节总数,关节ρ函数为皮尔逊相关系数。
8.根据权利要求1所述的动作相似度评价方法,其特征在于,所述待评价视频和标准动作视频之间的关节速度变化差异性序列表示为:
CS={cs1,cs2,cs3,...,csN-1},
Figure FDA0002675390990000025
其中,i表示第i帧,N表示每种视频的总帧数,k表示第k个关节,K表示关节总数,
Figure FDA0002675390990000031
为待评价视频的关节坐标变化速度,
Figure FDA0002675390990000032
为标准动作视频的关节坐标变化速度,所述关节坐标变化速度由该关节在第i帧的坐标减去第i-1帧的坐标得到。
9.根据权利要求1所述的动作相似度评价方法,其特征在于,根据所述人体形状与姿态差异性序列,关节位置变化差异性序列和关节速度变化差异性序列,对待评价动作和标准动作之间的相似性进行度量的步骤包括:
将所述人体形状与姿态差异性序列,关节位置变化差异性序列,和关节速度变化差异性序列,组成为一个向量;
采用自适应回归的方法进行相似性度量。
10.根据权利要求9所述的动作相似度评价方法,其特征在于,所述采用自适应回归的方式进行相似性度量的方法,步骤包括:
建立所述人体形状与姿态差异性序列,关节位置变化差异性序列和关节速度变化差异性序列组成的向量R与相似度similarity之间的关系式如下:
Figure FDA0002675390990000033
其中,wT={w1,w2,w3,...,w3N-1};
similarity∈[-1,1];
采用少量由专家标注的动作相似度评价视频,分别将依照三种所述差异性序列构建的R,和专家标注的相似度值代入上式,采用梯度上升的方式求解出wT
然后将similarity从[-1,1]映射到[0,1]中:
Figure FDA0002675390990000034
最后输出为similarity_out,表示待评价视频与标准动作视频的相似度,数值越接近1,则表示相似程度越高。
CN202010946255.2A 2020-09-10 2020-09-10 一种基于人体形状与姿态估计的动作相似度评价方法 Pending CN112085105A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010946255.2A CN112085105A (zh) 2020-09-10 2020-09-10 一种基于人体形状与姿态估计的动作相似度评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010946255.2A CN112085105A (zh) 2020-09-10 2020-09-10 一种基于人体形状与姿态估计的动作相似度评价方法

Publications (1)

Publication Number Publication Date
CN112085105A true CN112085105A (zh) 2020-12-15

Family

ID=73732487

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010946255.2A Pending CN112085105A (zh) 2020-09-10 2020-09-10 一种基于人体形状与姿态估计的动作相似度评价方法

Country Status (1)

Country Link
CN (1) CN112085105A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906653A (zh) * 2021-03-26 2021-06-04 河北工业大学 一种多人交互的运动训练与评估系统

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070268295A1 (en) * 2006-05-19 2007-11-22 Kabushiki Kaisha Toshiba Posture estimation apparatus and method of posture estimation
AU2009281762A1 (en) * 2008-08-15 2010-02-18 Brown University Method and apparatus for estimating body shape
WO2010027015A1 (ja) * 2008-09-05 2010-03-11 国立大学法人東京大学 モーションキャプチャ装置
CN102074034A (zh) * 2011-01-06 2011-05-25 西安电子科技大学 多模型人体运动跟踪方法
CN102402288A (zh) * 2010-09-07 2012-04-04 微软公司 用于快速且概率性的骨架跟踪的系统
US20150206003A1 (en) * 2009-05-11 2015-07-23 Universitat Zu Lubeck Method for the Real-Time-Capable, Computer-Assisted Analysis of an Image Sequence Containing a Variable Pose
GB201613959D0 (en) * 2015-08-14 2016-09-28 Metail Ltd Methods of generating personalized 3d head models or 3d body models
WO2016207311A1 (en) * 2015-06-24 2016-12-29 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Skinned multi-person linear model
CN109636831A (zh) * 2018-12-19 2019-04-16 安徽大学 一种估计三维人体姿态及手部信息的方法
CN110097639A (zh) * 2019-03-18 2019-08-06 北京工业大学 一种三维人体姿态估计方法
US20190371080A1 (en) * 2018-06-05 2019-12-05 Cristian SMINCHISESCU Image processing method, system and device
US20200058137A1 (en) * 2015-06-24 2020-02-20 Sergi PUJADES Skinned Multi-Person Linear Model
CN111144217A (zh) * 2019-11-28 2020-05-12 重庆邮电大学 一种基于人体三维关节点检测的动作评价方法
CN111539352A (zh) * 2020-04-27 2020-08-14 支付宝(杭州)信息技术有限公司 一种判断人体关节运动方向的方法及系统

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070268295A1 (en) * 2006-05-19 2007-11-22 Kabushiki Kaisha Toshiba Posture estimation apparatus and method of posture estimation
AU2009281762A1 (en) * 2008-08-15 2010-02-18 Brown University Method and apparatus for estimating body shape
WO2010027015A1 (ja) * 2008-09-05 2010-03-11 国立大学法人東京大学 モーションキャプチャ装置
US20150206003A1 (en) * 2009-05-11 2015-07-23 Universitat Zu Lubeck Method for the Real-Time-Capable, Computer-Assisted Analysis of an Image Sequence Containing a Variable Pose
CN102402288A (zh) * 2010-09-07 2012-04-04 微软公司 用于快速且概率性的骨架跟踪的系统
CN102074034A (zh) * 2011-01-06 2011-05-25 西安电子科技大学 多模型人体运动跟踪方法
US20200058137A1 (en) * 2015-06-24 2020-02-20 Sergi PUJADES Skinned Multi-Person Linear Model
WO2016207311A1 (en) * 2015-06-24 2016-12-29 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Skinned multi-person linear model
GB201613959D0 (en) * 2015-08-14 2016-09-28 Metail Ltd Methods of generating personalized 3d head models or 3d body models
US20190371080A1 (en) * 2018-06-05 2019-12-05 Cristian SMINCHISESCU Image processing method, system and device
CN109636831A (zh) * 2018-12-19 2019-04-16 安徽大学 一种估计三维人体姿态及手部信息的方法
CN110097639A (zh) * 2019-03-18 2019-08-06 北京工业大学 一种三维人体姿态估计方法
CN111144217A (zh) * 2019-11-28 2020-05-12 重庆邮电大学 一种基于人体三维关节点检测的动作评价方法
CN111539352A (zh) * 2020-04-27 2020-08-14 支付宝(杭州)信息技术有限公司 一种判断人体关节运动方向的方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
XIAO, B.等: ""Simple baselines for human pose estimation and tracking"", 《PROCEEDINGS OF THE EUROPEAN CONFERENCE ON COMPUTER VISION (ECCV)》, 17 April 2018 (2018-04-17), pages 466 - 481 *
Y. ZHAO等: ""Accurate Pedestrian Detection by Human Pose Regression"", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》, vol. 29, 26 September 2019 (2019-09-26), pages 1591 - 1605, XP011754343, DOI: 10.1109/TIP.2019.2942686 *
蔡冠蓝: ""柔性姿态估计和时空特征结合的乒乓球动作视频片段关键帧提取"", 《科学技术与工程》, vol. 19, no. 25, 30 September 2019 (2019-09-30), pages 268 - 272 *
陈姝: ""基于视频的人体运动跟踪与重构方法研究"", 《中国博士学位论文全文数据库 信息科技辑》, no. 2, 15 February 2010 (2010-02-15), pages 138 - 20 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906653A (zh) * 2021-03-26 2021-06-04 河北工业大学 一种多人交互的运动训练与评估系统

Similar Documents

Publication Publication Date Title
CN110348330B (zh) 基于vae-acgan的人脸姿态虚拟视图生成方法
Murtaza et al. Analysis of face recognition under varying facial expression: a survey.
CN107229920B (zh) 基于整合深度典型时间规整及相关修正的行为识别方法
CN103049892A (zh) 基于相似块矩阵秩最小化的非局部图像去噪方法
CN109034099A (zh) 一种表情识别方法及装置
CN111028319B (zh) 一种基于面部运动单元的三维非真实感表情生成方法
CN110175534A (zh) 基于多任务级联卷积神经网络的授课辅助系统
CN111476077A (zh) 一种基于深度学习的多视角步态识别方法
CN111460976A (zh) 一种数据驱动的基于rgb视频的实时手部动作评估方法
Kaashki et al. Deep learning-based automated extraction of anthropometric measurements from a single 3-D scan
CN113920571A (zh) 基于多运动特征融合的微表情识别方法及装置
CN111914925A (zh) 一种基于深度学习的患者行为多模态感知与分析系统
CN112085105A (zh) 一种基于人体形状与姿态估计的动作相似度评价方法
Hill et al. Aging the human face-a statistically rigorous approach
CN112288645A (zh) 一种颅骨面貌复原模型构建方法及复原方法与系统
CN109165551B (zh) 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法
Kaashki et al. Automatic and fast extraction of 3d hand measurements using a deep neural network
CN114022918A (zh) 基于多姿态的学习者兴奋状态标签算法
CN111507920B (zh) 基于Kinect的骨骼运动数据增强方法及系统
Liu et al. Adaptive recognition method for VR image of Wushu decomposition based on feature extraction
Cui et al. Specialized gaze estimation for children by convolutional neural network and domain adaptation
CN114255507A (zh) 一种基于计算机视觉的学生姿势识别分析方法
Leow et al. 3-D–2-D spatiotemporal registration for sports motion analysis
Peters Efficient pose estimation using view-based object representations
CN112001213B (zh) 一种基于3d点云分割的精准面瘫程度评测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Liu Fengkai

Inventor after: Zhang Wen

Inventor after: Zhang Haibo

Inventor after: Yang Li

Inventor after: Xu Nan

Inventor before: Liu Fengkai

Inventor before: Zhang Wen

Inventor before: Zhang Haibo

Inventor before: Yang Li

Inventor before: Xu Nan

CB03 Change of inventor or designer information
CB02 Change of applicant information

Address after: 257 jinzang Road, Pudong New Area, Shanghai, 201206

Applicant after: Shanghai Chuangyi Technology Co.,Ltd.

Address before: 257 jinzang Road, Pudong New Area, Shanghai, 201206

Applicant before: Shanghai pont Technology Co., Ltd

CB02 Change of applicant information