CN112560665B - 基于深度迁移学习实现人体姿态检测的专业舞蹈评价方法 - Google Patents
基于深度迁移学习实现人体姿态检测的专业舞蹈评价方法 Download PDFInfo
- Publication number
- CN112560665B CN112560665B CN202011459008.6A CN202011459008A CN112560665B CN 112560665 B CN112560665 B CN 112560665B CN 202011459008 A CN202011459008 A CN 202011459008A CN 112560665 B CN112560665 B CN 112560665B
- Authority
- CN
- China
- Prior art keywords
- human body
- joint
- dance
- point
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度迁移学习实现人体姿态检测的专业舞蹈评价方法,包括:步骤S1:利用深度迁移学习原理,结合专业舞蹈训练的姿态特征建立专门的人体姿态检测模型;步骤S2:采集示范舞蹈动作的视频,输入前述的人体姿态检测模型中,得到随时间变化的人体关键点数据流作为评价的参考标准;步骤S3:以相同方式得到被测者舞蹈动作的人体关键点信息,将其与参考标准之间的相似度作为舞姿标准程度的评价。本发明利用深度迁移学习提高了模型训练的效率和准确性。
Description
技术领域
本发明涉及一种基于深度迁移学习实现人体姿态检测的专业舞蹈评价方法。
背景技术
在专业舞蹈学校的舞蹈教学中,一种普遍的考核方式是由学生表演一组事先学习并练习过的舞蹈动作套路,考核教师根据学生完成这组舞蹈套路的动作标准程度进行评分。主要的评价指标有肢体姿态是否到位,动作与音乐是否合拍等。然而在实际的考核过程中,尤其是在许多学生连续表演的情况下,由考核教师肉眼观察每个学生的全部舞蹈动作细节是困难且疲劳的。借助机器学习方法智能化检测学生的姿态标准程度,协助教师进行评分是一种减轻教师负担、提高考核效率的有效方式。此外,对于视频数据进行精确的人体姿态学习及评价系统还可应用于其他舞蹈教学和自学自测、医疗复健、运动健身和仿人机器人开发等相关领域。
利用深度学习训练模型实现实时人体姿态估计的研究在近年来已有诸多进展,其原理主要建立在对图像中的人体主要关节等关键点进行检测并将关键点之间的肢体进行连接以构成某种姿态。如openpose、alphapose和deeppose等模型均能在各类常态情境下取得较好的识别效果。而专业舞蹈姿态中常常包含一些比较夸张的肢体动作和大量的肢体重叠、遮挡动作,容易造成漏识别和错识别;此外,应用于专业舞蹈评分的模型对姿态识别的精确度要求更高。以上这些已有的模型并非专为识别专业舞蹈动作设计,不能达到实现准确评分的效果。为实现本应用场景下的设计目标,专门的人体姿态检测模型应具备以下特点:(1)能够识别人体躯干和四肢的姿态,以及头部、手掌和脚部的姿态,输出2D单目标的人体关键点检测信息;(2)对专业舞蹈动作具有较高的识别准确性。之后利用示范例与待评价舞蹈的关键点坐标信息之间的相似程度给出最终评价。
迁移学习是近年来随着机器学习发展而诞生的学习理念,是指运用已有的知识对不同但相关领域问题进行求解。获得足够的有标签训练样本的成本很高,从头开始训练新的模型是非常复杂且费时的,将所求问题相关领域已有的知识进行迁移和复用能有效提高学习效率。深度迁移学习将深度神经网络与迁移学习相结合,在计算机视觉领域取得了良好进展,适合应用于本发明涉及的问题。
发明内容
本发明的目的在于借助机器学习原理实现对专业舞蹈动作中的人体姿态检测和标准性评价以协助教师完成对学生的考核,而提供一种基于深度迁移学习实现人体姿态检测的专业舞蹈评价方法。
本发明的目的可以通过以下技术方案来实现:
一种基于深度迁移学习实现人体姿态检测的专业舞蹈评价方法,其特征是,如下过程:
步骤S1:利用深度迁移学习原理,结合专业舞蹈训练的姿态特征建立专门的人体姿态检测模型;
步骤S11:采用预训练卷积神经网络模型和源域训练集,用于提取图像层次结构的特征,实现人体关节点识别;
特征点对齐预处理;
改进后的ResNet-18模型;
利用源域训练集,喂入改进后的ResNet-18卷积神经网络模型,进行提取图像层次结构的特征并人体关键点识别训练;同时,将预训练卷积神经网络模型训练得到的姿态检测点与标准点的像素点欧式距离作为损失函数,为:
f=||X-g(X)||
其中f表示损失函数函数,X为关节i标准姿态点位置信息,g(X)为关节i通过预训练卷积神经网络模型得到的人体姿态点位置信息;人体姿态点信息是基于人体多部位(头部、腰部、肩部、肘部、臀部以及踝关节)组合形成的一系列多帧数多维度的坐标信息,每一关键点坐标信息是以人体中心点为参考原点,并建立人体多部位的连接关系而形成的相对极坐标表示值;以头部、腰部、肩部、肘部、臀部以及踝关节某个关节位置(以肘关节位置为例),以与其连接的其它某一关节(如肩关节为例)为相对坐标参考原点,以肘关节与肩关节形成的平面为例为坐标面,计算肘关节相对于肩关节的位移距离、方向和角度,表示如下:
xi+1=xi(ρ,α)
其中xi表示关节i的坐标点,ρ为关节i+1相对于关节i的相对位移值,α为关节i+1相对于关节i的相对角度值;
步骤S12:根据专业舞蹈评价的要求特征,进行深度迁移学习并训练,设计专门的人体姿态检测模型;
过程如下:
首先,利用ResNet-18对大量带标签源训练集进行初始网络模型训练,得到网络的具体权重和偏置参数;
其次,将少量的目标域数据集输入到预训练的网络中,对上一步建立好的卷积神经网络模型进行网络权重和偏置参数更新;
最后,对得到的无标签目标域数据集进行模型学习训练;
步骤S2:采集示范舞蹈动作的视频,输入前述的人体姿态检测模型中,得到随时间变化的人体关键点数据流作为评价的参考标准;得到人体关键点数据是随时间变化的一组二维人体关键点坐标信息,该坐标是以人体中心点为参考的一组相对坐标;
步骤S21:将示范舞蹈视频进行预处理;
步骤S22:将示范舞蹈图像输入人体姿态检测模型得到人体关键点数据;
步骤S3:以步骤S2输出的待评价舞蹈视频动作的人体关键点信息,将其与参考标准之间的相似度作为舞姿标准程度的评价;
本发明将深度迁移学习模型(即人体姿态检测模型)得到的姿态检测点与参考标准点的像素点欧式距离作为相似度函数,并通过统一的加权计分规则计算被测者舞蹈动作的评价分数;
f=||X-g(X)||
其中f表示相似度函数,X为关节i标准姿态点位置信息,g(X)为关节i通过深度迁移学习模型得到的姿态点位置信息。
相比于现有技术中其它的实时人体姿态检测模型,本发明模型在专业舞蹈考核评价这一应用领域进行了侧重优化,提高了对各类舞蹈姿态的识别准确率;并能实现以舞蹈示范样本为参考对其他舞蹈者动作标准程度的评估,以协助教师考核评分。
本发明优势在于:
(1)训练效率高、成本低:利用深度迁移学习原理训练2D单目标人体姿态检测模型,提高了训练的效率,需要的专门训练样本很少;
(2)专业化:相比于其他实时人体姿态检测模型,本发明中的模型在专业舞蹈考核评价这一应用领域进行了侧重优化,包含了手部、脚部和头部的姿态细节,提高了对各类舞蹈姿态的识别准确率,能够对舞蹈过程中发生的各类肢体重叠与肢体遮挡的动作做出有效识别;
(3)泛用性高:能通过标准化处理减少不同舞蹈者身材、体型和拍摄环境等因素对评估的影响;能根据音频自动对齐;评估具有一定的容错率。
(4)拓展性强:后续可根据不同的应用需要,方便地迁移到教育、医疗、健康和机器人等其他领域中的对视频数据的人体姿态学习及评价问题中,应用领域广泛、前景好。
附图说明
图1为本发明方法过程及网络模型架构。
图2为人体姿态检测示意图。
具体实施方式
下面结合图例和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示:
一种基于深度迁移学习实现人体姿态检测的专业舞蹈评价方法,如下过程:
步骤S1:利用深度迁移学习原理,结合专业舞蹈训练的姿态特征建立专门的人体姿态检测模型;
步骤S11:采用预训练卷积神经网络模型和源域训练集,用于提取图像层次结构的特征,实现人体关节点识别;
本发明使用的数据集为视频数据集,在进行模型训练之前,需要进行视频关键帧数检测、剪切以及对齐等预处理。具体而言,本发明选择利用Imagenet预训练的VGG-16提取每一帧的特征,并确定得到视频的关键帧,完成剪切,此外,本发明基于特征匹配度实现特征点对齐等预处理。
本发明选用ResNet改进模型作为预训练卷积神经网络模型提取视频中的图像层次结构的特征,实现人体关节点识别。
ResNet-18模型共4个卷积块,每个卷积块由4到5个卷积层构成,每两个卷积层之间通过shortcut残差结构进行连接,模型最后为全连接层。其中卷积层的卷积核大小除第一个卷积层为7*7之外均为3*3,步长除每个块第一个卷积层为2,其余层均为1,即模型通过每个块第一个卷积层进行降维;池化层窗口大小为3*3,步长为2。改进后的ResNet-18模型接框架为:1个64通道的卷积层→池化层→4个64通道的卷积层→4个128通道的卷积层→4个256通道的卷积层→4个512通道的卷积层→全局池化层→输出为N维的全连接层(N为人体姿态检测点数目)。
利用源域训练集,喂入改进后的ResNet-18卷积神经网络模型,进行提取图像层次结构的特征并人体关键点识别训练;同时,将预训练卷积神经网络模型训练得到的姿态检测点与标准点的像素点欧式距离作为损失函数,为:
f=||X-g(X)||
其中f表示损失函数函数,X为关节i标准姿态点位置信息,g(X)为关节i通过预训练卷积神经网络模型得到的人体姿态点位置信息。人体姿态点信息是基于人体多部位(头部、腰部、肩部、肘部、臀部以及踝关节等)组合形成的一系列多帧数多维度的坐标信息,每一关键点坐标信息是以人体中心点为参考原点,并建立人体多部位的连接关系而形成的相对极坐标表示值。以头部、腰部、肩部、肘部、臀部以及踝关节某个关节位置(以肘关节位置为例),本发明以与其连接的其它某一关节(如肩关节为例)为相对坐标参考原点,以肘关节与肩关节形成的平面为例为坐标面,计算肘关节相对于肩关节的位移距离、方向和角度,表示如下:
xi+1=xi(ρ,α)
其中xi表示关节i的坐标点,ρ为关节i+1相对于关节i的相对位移值,α为关节i+1相对于关节i的相对角度值。
步骤S12:根据专业舞蹈评价的要求特征,进行深度迁移学习并训练,设计专门的人体姿态检测模型;
将结合大量带标签的源域训练集和少量带标签或者专业人员评估的目标域样本进行深度迁移学习模型训练,设计得到专门的人体姿态检测网络模型。
过程如下:
首先,利用ResNet-18对大量带标签源训练集进行初始网络模型训练,得到网络的具体权重和偏置参数;
其次,将少量的目标域数据集输入到预训练的网络中,对上一步建立好的卷积神经网络模型进行网络权重和偏置参数更新;
最后,对得到的无标签目标域数据集进行模型学习训练。
步骤S2:采集示范舞蹈动作的视频,输入前述的人体姿态检测模型中,得到随时间变化的人体关键点数据流作为评价的参考标准;得到人体关键点数据是随时间变化的一组二维人体关键点坐标信息,该坐标是以人体中心点为参考的一组相对坐标。
步骤S21:将示范舞蹈视频进行剪切、对齐等预处理;
本发明将示范舞蹈视频数据集进行视频关键帧数检测、剪切以及对齐等预处理。具体而言,本发明选择利用Imagenet预训练的VGG-16提取每一帧的特征,并确定得到视频的关键帧,完成剪切,此外,本发明基于特征匹配度实现特征点对齐等预处理。
步骤S22:将示范舞蹈图像输入人体姿态检测模型得到人体关键点数据。
将预处理得到的示范舞蹈图像输入到人体姿态检测模型进行测试,获取人体姿态关键点。
步骤S3:以步骤S2输出的待评价舞蹈视频动作的人体关键点信息,将其与参考标准之间的相似度作为舞姿标准程度的评价。
本发明将深度迁移学习模型(即人体姿态检测模型)得到的姿态检测点与参考标准点的像素点欧式距离作为相似度函数,并通过统一的加权计分规则计算被测者舞蹈动作的评价分数。
f=||X-g(X)||
其中f表示相似度函数,X为关节i标准姿态点位置信息,g(X)为关节i通过深度迁移学习模型得到的姿态点位置信息。
所述步骤S3具体为:
步骤S31:将待评价舞蹈视频进行剪切、对齐等预处理;
本发明将舞蹈配乐作为时间轴参考,将处理后的待评价舞蹈与示范舞蹈的人体关键点数据按照时刻的对应关系逐帧对比。某一时刻配乐与舞蹈动作应有固定的对应关系,故将视频的声音数据作为对齐标准。
步骤S32:将待评价舞蹈视频输入人体姿态检测模型得到人体关键点数据;
步骤S33:将处理后的待评价舞蹈的人体关键点数据与示范舞蹈的人体姿态检测点数据按照时刻的对应关系逐帧对比,测定两者的相似程度并给出评价。
本发明将换算到同一标准下的待评价舞蹈与示范舞蹈的人体关键点数据中,各对应的姿态检测点与参考标准点的像素点欧式距离为相似度;将整个舞蹈过程中的总相似度作为对该舞蹈的评价。相似度的计算有合理程度上的容错率且能去除发生明显错误的数据点。
具体实施时,通过录像设备采集待评价的舞蹈视频(待评价的舞蹈动作内容应在示范舞蹈视频中完全相同的出现过),视频通过训练好的人体姿态检测模型输出人体关键点信息。将待评价舞蹈与对应的示范舞蹈的人体关键点信息对应,并对待评价舞蹈的人体关键点信息做标准化处理使其与标准信息在同一坐标系下。以舞蹈配乐的音频信息为时间轴,将两者的关键点信息流按对应时刻对齐后,把关键点坐标偏差换算为相似度。最终把整个舞蹈过程的总相似度输出作为评价。
本发明利用深度迁移学习原理训练人体姿态检测模型,提高了训练的效率和准确性;相比于其他实时人体姿态检测模型,本发明中的模型在专业舞蹈考核评价这一应用领域进行了侧重优化,提高了对各类舞蹈姿态的识别准确率。
本发明具有良好的发展前景,其应用能够拓展到其他相关领域。如将舞蹈评价系统开发到个人端,协助舞蹈专业考生或学习者根据发布的舞蹈示范进行自学自测;也可应用于健康领域,协助有行动障碍的患者复健或协助运动爱好者在运动练习中调整自己的身体姿态;此外,还可应用于仿人机器人对人类视频中动作的学习以及其他诸多相关领域的软硬体开发问题。
Claims (1)
1.一种基于深度迁移学习实现人体姿态检测的专业舞蹈评价方法,其特征是,如下过程:
步骤S1:利用深度迁移学习原理,结合专业舞蹈训练的姿态特征建立专门的人体姿态检测模型;
步骤S11:采用预训练卷积神经网络模型和源域训练集,用于提取图像层次结构的特征,实现人体关节点识别;
特征点对齐预处理;
改进后的ResNet-18模型;
利用源域训练集,输入改进后的ResNet-18卷积神经网络模型,进行提取图像层次结构的特征并人体关键点识别训练;同时,将预训练卷积神经网络模型训练得到的姿态检测点与标准点的像素点欧式距离作为损失函数,为:
f=‖X-g(X)‖
其中f表示损失函数函数,X为关节i标准姿态点位置信息,g(X)为关节i通过预训练卷积神经网络模型得到的人体姿态点位置信息;人体姿态点信息是基于人体多部位头部、腰部、肩部、肘部、臀部以及踝关节组合形成的一系列多帧数多维度的坐标信息,每一关键点坐标信息是以人体中心点为参考原点,并建立人体多部位的连接关系而形成的相对极坐标表示值;以头部、腰部、肩部、肘部、臀部以及踝关节某个关节位置,以与其连接的其它某一关节为相对坐标参考原点,以关节i+1与关节i形成的平面为坐标面,计算关节i+1相对于关节i的位移距离、方向和角度,表示如下:
xi+1=xi(ρ,α)
其中xi表示关节i的坐标点,ρ为关节i+1相对于关节i的相对位移值,α为关节i+1相对于关节i的相对角度值;
步骤S12:根据专业舞蹈评价的要求特征,进行深度迁移学习并训练,设计专门的人体姿态检测模型;
过程如下:
首先,利用ResNet-18对大量带标签源训练集进行初始网络模型训练,得到网络的具体权重和偏置参数;
其次,将少量的目标域数据集输入到预训练的网络中,对上一步建立好的卷积神经网络模型进行网络权重和偏置参数更新;
最后,对得到的无标签目标域数据集进行模型学习训练;
步骤S2:采集示范舞蹈动作的视频,输入前述的人体姿态检测模型中,得到随时间变化的人体关键点数据流作为评价的参考标准;得到人体关键点数据是随时间变化的一组二维人体关键点坐标信息,该坐标是以人体中心点为参考的一组相对坐标;
步骤S21:将示范舞蹈视频进行预处理;
步骤S22:将示范舞蹈图像输入人体姿态检测模型得到人体关键点数据;
步骤S3:以步骤S2输出的待评价舞蹈视频动作的人体关键点信息,将其与参考标准之间的相似度作为舞姿标准程度的评价;
将深度迁移学习模型即人体姿态检测模型得到的姿态检测点与参考标准点的像素点欧式距离作为相似度函数,并通过统一的加权计分规则计算被测者舞蹈动作的评价分数;
f=‖X-g(X)‖
其中f表示相似度函数,X为关节i标准姿态点位置信息,g(X)为关节i通过深度迁移学习模型得到的姿态点位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011459008.6A CN112560665B (zh) | 2020-12-13 | 2020-12-13 | 基于深度迁移学习实现人体姿态检测的专业舞蹈评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011459008.6A CN112560665B (zh) | 2020-12-13 | 2020-12-13 | 基于深度迁移学习实现人体姿态检测的专业舞蹈评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112560665A CN112560665A (zh) | 2021-03-26 |
CN112560665B true CN112560665B (zh) | 2022-05-13 |
Family
ID=75062305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011459008.6A Active CN112560665B (zh) | 2020-12-13 | 2020-12-13 | 基于深度迁移学习实现人体姿态检测的专业舞蹈评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112560665B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112990105B (zh) * | 2021-04-19 | 2021-09-21 | 北京优幕科技有限责任公司 | 对用户评价的方法、装置、电子设备和存储介质 |
CN113052138B (zh) * | 2021-04-25 | 2024-03-15 | 广海艺术科创(深圳)有限公司 | 一种舞蹈与运动动作的智能对比矫正的方法 |
WO2023108842A1 (zh) * | 2021-12-14 | 2023-06-22 | 成都拟合未来科技有限公司 | 基于健身教学训练的动作评价方法及系统 |
CN116262171A (zh) * | 2021-12-14 | 2023-06-16 | 成都拟合未来科技有限公司 | 基于健身装置的健身训练方法及系统及装置及介质 |
CN114495169A (zh) * | 2022-01-26 | 2022-05-13 | 广州鼎飞航空科技有限公司 | 一种人体姿态识别的训练数据处理方法、装置及设备 |
CN114167993B (zh) * | 2022-02-10 | 2022-05-24 | 北京优幕科技有限责任公司 | 信息处理方法及装置 |
CN114648781B (zh) * | 2022-03-30 | 2024-04-05 | 桂林电子科技大学 | 一种人体姿态估计方法及存储介质 |
CN115019395B (zh) * | 2022-06-10 | 2022-12-06 | 杭州电子科技大学 | 基于堆叠沙漏网络的团体动作一致性的检测方法及系统 |
CN115273222B (zh) * | 2022-06-23 | 2024-01-26 | 广东园众教育信息化服务有限公司 | 一种基于人工智能的多媒体互动分析控制管理系统 |
CN117077084B (zh) * | 2023-10-16 | 2024-01-26 | 南京栢拓视觉科技有限公司 | 一种基于时空异构双流卷积网络的舞蹈评分方法 |
CN117078976B (zh) * | 2023-10-16 | 2024-01-30 | 华南师范大学 | 动作评分方法、装置、计算机设备以及存储介质 |
CN118014545A (zh) * | 2024-02-19 | 2024-05-10 | 海安新知人工智能科技有限公司 | 一种招聘面试ai评分的算法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108345869A (zh) * | 2018-03-09 | 2018-07-31 | 南京理工大学 | 基于深度图像和虚拟数据的驾驶人姿态识别方法 |
CN110287880A (zh) * | 2019-06-26 | 2019-09-27 | 西安电子科技大学 | 一种基于深度学习的姿态鲁棒性人脸识别方法 |
CN110348337A (zh) * | 2019-06-26 | 2019-10-18 | 西安理工大学 | 基于卷积神经网络的舞蹈视频人体骨架检测与提取方法 |
CN111160085A (zh) * | 2019-11-19 | 2020-05-15 | 天津中科智能识别产业技术研究院有限公司 | 一种人体图像关键点姿态估计方法 |
CN111738091A (zh) * | 2020-05-27 | 2020-10-02 | 复旦大学 | 一种基于多任务深度学习的姿态估计与人体解析系统 |
CN111950412A (zh) * | 2020-07-31 | 2020-11-17 | 陕西师范大学 | 一种序列多尺度深度特征融合的层级舞蹈动作姿态估计方法 |
-
2020
- 2020-12-13 CN CN202011459008.6A patent/CN112560665B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108345869A (zh) * | 2018-03-09 | 2018-07-31 | 南京理工大学 | 基于深度图像和虚拟数据的驾驶人姿态识别方法 |
CN110287880A (zh) * | 2019-06-26 | 2019-09-27 | 西安电子科技大学 | 一种基于深度学习的姿态鲁棒性人脸识别方法 |
CN110348337A (zh) * | 2019-06-26 | 2019-10-18 | 西安理工大学 | 基于卷积神经网络的舞蹈视频人体骨架检测与提取方法 |
CN111160085A (zh) * | 2019-11-19 | 2020-05-15 | 天津中科智能识别产业技术研究院有限公司 | 一种人体图像关键点姿态估计方法 |
CN111738091A (zh) * | 2020-05-27 | 2020-10-02 | 复旦大学 | 一种基于多任务深度学习的姿态估计与人体解析系统 |
CN111950412A (zh) * | 2020-07-31 | 2020-11-17 | 陕西师范大学 | 一种序列多尺度深度特征融合的层级舞蹈动作姿态估计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112560665A (zh) | 2021-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112560665B (zh) | 基于深度迁移学习实现人体姿态检测的专业舞蹈评价方法 | |
CN108734104B (zh) | 基于深度学习图像识别的健身动作纠错方法及系统 | |
Thar et al. | A proposal of yoga pose assessment method using pose detection for self-learning | |
CN109344692B (zh) | 一种运动质量评价方法及系统 | |
US11823496B2 (en) | Professional dance evaluation method for implementing human pose estimation based on deep transfer learning | |
CN113762133A (zh) | 基于人体姿态识别的自重健身辅助教练系统、方法、终端 | |
Tunçgenç et al. | Computerized assessment of motor imitation as a scalable method for distinguishing children with autism | |
CN113052138A (zh) | 一种舞蹈与运动动作的智能对比矫正的方法 | |
Huang et al. | Miss yoga: a yoga assistant mobile application based on keypoint detection | |
Amaliya et al. | Study on hand keypoint framework for sign language recognition | |
Ma et al. | A wushu posture recognition system based on MediaPipe | |
Jedlička et al. | Sign language motion capture dataset for data-driven synthesis | |
CN116704603A (zh) | 一种基于肢体关键点分析的动作评估纠正方法及系统 | |
CN111310655A (zh) | 基于关键帧和组合注意力模型的人体动作识别方法和系统 | |
Palanimeera et al. | Yoga posture recognition by learning spatial-temporal feature with deep learning techniques | |
CN114360052A (zh) | 一种基于AlphaPose和关节点角度匹配算法的智能体感教练系统 | |
Sharma et al. | Digital Yoga Game with Enhanced Pose Grading Model | |
CN112633083A (zh) | 一种基于改进的Openpose 考试多人异常行为及口罩佩戴检测方法 | |
Tomas et al. | Comparative Study on Model Skill of ERT and LSTM in Classifying Proper or Improper Execution of Free Throw, Jump Shot, and Layup Basketball Maneuvers | |
Nguyen et al. | An automatic tool for yoga pose grading using skeleton representation | |
Truong et al. | A Vision-based Hand-sign Language Teaching System using Deep Neural Network: Methodology and Experiments | |
Shen | Learn from teachers: A teacher learner yoga pose classification and scoring network | |
Hung et al. | Building an online learning model through a dance recognition video based on deep learning | |
Hongli et al. | Learning to Score Sign Language with Two-stage Method | |
CN116343332A (zh) | 一种智能乒乓球教练方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |