CN110503077B - 一种基于视觉的实时人体动作分析方法 - Google Patents
一种基于视觉的实时人体动作分析方法 Download PDFInfo
- Publication number
- CN110503077B CN110503077B CN201910808420.5A CN201910808420A CN110503077B CN 110503077 B CN110503077 B CN 110503077B CN 201910808420 A CN201910808420 A CN 201910808420A CN 110503077 B CN110503077 B CN 110503077B
- Authority
- CN
- China
- Prior art keywords
- coordinate
- video
- data
- human body
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Epidemiology (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Physical Education & Sports Medicine (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于视觉的实时人体动作分析方法,将预训练模型移植到手机端,通过手机摄像头捕捉人体正面单摇双脚跳视频,并将视频的输入到预训练模型中实时地分析跳绳过程中身体是否保持直立、左大臂是否加紧身体、右大臂是否加紧身体、是否是手腕摇绳、双脚是否合拢、左右臂是否保持水平,将分析结果嵌入到视频中,并保存视频到本地,解决了运动训练过程中的实时动作分析和动作质量评估问题,为运动过程中的动作分析提供了参考依据。
Description
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种基于视觉的实时人体动作分析方法。
背景技术
近年来随着计算机技术与人工智能的发展和应用,基于视觉的人体动作分析技术迅速兴起并得到了广泛的关注。当前基于视觉的人体动作分析仍是计算机视觉中一个极具挑战性的课题,涉及图像处理、模式识别、人工智能等多个学科,在智能监控、人机交互、康复运动、体育训练等领域有着广泛的应用前景。
动作分析中的一个核心就是人体姿态估计,人体姿态估计的准确性和快速性将直接影响动作分析系统后续工作的结果。目前在人体姿态估计方面主要包括自顶向下和自底向上两种,其中自顶向下的方式是将人体检测和关节点检测分离,在图像上首先运行一个人体检测器,找到所有的人体实例,对每个人体子图再使用关节点检测;自底向上的方法是先检测出测试图像中的关节点信息,然后分配给单个的人。前者在实施时受到检测个人时的准确率的影响,当人离得比较近的时候,检测人体的方法无效,如果检测人体失败将不能进行姿态估计,而且随着人数的增加,时间复杂度很高,不能做到实时效果;相反地,后者对于姿态估计来说更具有鲁棒性,且时间开销稳定。
在机器学习中的传统的分类问题主要是单标签分类,目前已有很多算法可以实现单标签分类,包括支持向量机、逻辑回归、神经网络等。多标签分类是在单标签分类的基础上发展而来,目前多标签分类已经应用在蛋白质分类、音乐分类、语义场景分类、图像分类、文本分类等多个场景中。
现有的基于视觉的人体行为识别算法存在复杂度高、鲁棒性差、计算负担过重等问题,不能做到实时。此外,人体在动作分析和运动质量评估方面的研究工作较少,专业的人体运动动作分析人员缺乏,无法进行合理的指导。所以发明一种鲁棒性高,时间开销稳定的人体动作分析方法,对于实时人体动作分析和动作质量评估具有重要的意义。
发明内容
针对上述情况,为克服现有技术之缺陷,本发明之目的在于提供一种基于视觉的实时人体动作分析方法,具有构思巧妙、人性化设计的特性,解决了运动训练过程中的实时动作分析和动作质量评估问题。
其解决的技术方案是,一种基于视觉的实时人体动作分析方法,包括如下步骤:
步骤1:通过手机获取大量人体运动的视频流数据,记录并保存目标对象的基本信息,包括姓名、性别、年龄、所做动作名称;
步骤2:对视频数据进行预处理,并对视频中每一帧的人体进行姿态估计,得到关节点坐标,其步骤如下:
步骤2-1:将不同手机拍摄的视频数据转换成统一的尺度;
步骤2-2:通过迁移学习利用Open-pose方法对获得视频中每帧人体的鼻子、脖子、右肩、右手肘、右手腕、右手面、左肩、左手肘、左手腕、左手面、右臀部、右膝盖、右脚掌、右脚踝、左臀部、左膝盖、左脚踝、左脚掌这18个关节点的坐标位置,坐标表示为Ci=(cxi,cyi),其中i从1到18,Ci=(cxi,cyi)表示坐标,cx1表示第一个关节点的x坐标,cy1表示第一个关节点的y坐标,C1是第一个关节点坐标的坐标集合;
步骤3:对所得的18个关节点坐标以左臀部、右臀部和脖子三点构成的三角形重心为原点定义一个坐标系,并将直角坐标系转换成极坐标系,获得转换后的坐标矩阵P;
步骤4:对视频进行分析,按时间段进行标记,记录并保存得到的标签;
步骤5:累计每帧得到的坐标矩阵P,得到每段视频的累计坐标矩阵D,利用滑动窗口对累计坐标矩阵进行窗口分割,即滑动窗口长度设置为每20帧得到的累计坐标,步长设置为有50%的数据重叠;
步骤6:利用累计坐标矩阵D,构建数据的特征集X和标签集Y,其中X=Rd表示d维的输入空间,Y={0,1}q,表示标签的标签空间,T=(xi,yi)|1≤i≤m,m表示数据集的大小,xi∈X,是一个d维的向量,yi∈Y是Y的一个标签子集,X表示特征集,Y表示的是标签集,R是实数,d表示输入维度,q是标签个数,T表示的是特征集和标签集中一组标签对应的一组数据,xi特征集中的一组数据,yi标签集中的一组标签;
步骤7-1:利用BiGRU+GRU构建深度神经网络模型,即,一个双向的GRU层加上一个单项的GRU层;
步骤7-2:将数据分为训练集和测试集两个部分,利用测试集训练网络模型,并保存预训练模型;
步骤7-3:将测试数据输入到已有的预训练模型中,得到分类的结果。
由于以上技术方案的采用,本发明与现有技术相比具有如下优点;
1.本发明在跳绳训练结束后,用户能够立马在手机上看到自己的训练视频,然后知道自己的动作哪里出现了问题,本发明的目的就是取代人工,帮助体育教练、学生把精力放在那些他们应该关注的东西上,把学生从每日繁琐的训练中解放出来,从而专注于自己的不足之处,那么无疑将更能激发学生的潜力,提高体育考试的成绩。
2.本发明解决了运动训练过程中的实时动作分析和动作质量评估问题,为运动过程中的动作分析提供了参考依据,本发明的结果准确性高、适应性强、健壮性高、可扩展性好,完全能够满足实时人体动作分析场景下的需求。
附图说明
图1是单摇双脚跳动作分析结构图;
图2是跳绳过程中的18个点的人体姿态估计图;
图3人体关节点在直角坐标系中呈现图;
图4人体关节点在极坐标系中呈现图;
图5双向GRU结构图;
图6总体网络结构图。
具体实施方式
有关本发明的前述及其他技术内容、特点与功效,在以下配合参考附图1至图6对实施例的详细说明中,将可清楚的呈现。以下实施例中所提到的结构内容,均是以说明书附图为参考。
实施例一,一种基于视觉的实时人体动作分析方法,包括如下步骤:
步骤1:通过手机获取大量人体运动的视频流数据,记录并保存目标对象的基本信息,包括姓名、性别、年龄、所做动作名称;
步骤2:对视频数据进行预处理,并对视频中每一帧的人体进行姿态估计,得到关节点坐标,其步骤如下:
步骤2-1:将不同手机拍摄的视频数据转换成统一的尺度;
步骤2-2:通过迁移学习利用Open-pose方法对获得视频中每帧人体的鼻子、脖子、右肩、右手肘、右手腕、右手面、左肩、左手肘、左手腕、左手面、右臀部、右膝盖、右脚掌、右脚踝、左臀部、左膝盖、左脚踝、左脚掌这18个关节点的坐标位置,坐标表示为Ci=(cxi,cyi),其中i从1到18,Ci=(cxi,cyi)表示坐标,cx1表示第一个关节点的x坐标,cy1表示第一个关节点的y坐标,C1是第一个关节点坐标的坐标集合;
步骤3:对所得的18个关节点坐标以左臀部、右臀部和脖子三点构成的三角形重心为原点定义一个坐标系,并将直角坐标系转换成极坐标系,获得转换后的坐标矩阵P;
步骤4:对视频进行分析,按时间段进行标记,记录并保存得到的标签;
步骤5:累计每帧得到的坐标矩阵P,得到每段视频的累计坐标矩阵D,利用滑动窗口对累计坐标矩阵进行窗口分割,即滑动窗口长度设置为每20帧得到的累计坐标,步长设置为有50%的数据重叠;
步骤6:利用累计坐标矩阵D,构建数据的特征集X和标签集Y,其中X=Rd表示d维的输入空间,Y={0,1}q,表示标签的标签空间,T=(xi,yi)|1≤i≤m,m表示数据集的大小,xi∈X,是一个d维的向量,yi∈Y是Y的一个标签子集,X表示特征集,Y表示的是标签集,R是实数,d表示输入维度,q是标签个数,T表示的是特征集和标签集中一组标签对应的一组数据,xi特征集中的一组数据,yi标签集中的一组标签;
步骤7-1:利用BiGRU+GRU构建深度神经网络模型,即,一个双向的GRU层加上一个单项的GRU层;
步骤7-2:将数据分为训练集和测试集两个部分,利用测试集训练网络模型,并保存预训练模型;
步骤7-3:将测试数据输入到已有的预训练模型中,得到分类的结果。
实施例二,在实施例一的基础上,在执行步骤2时,通过Labelme图像标注工具,获取左脚掌、右脚掌、左手面、右手面四个坐标的位置信息,,并通过迁移学习利用Open-pose获取所需的18个关节点坐标位置;在执行步骤3时,得到左臀部C11=(cx11,cy11)、右臀部C15=(cx15,cy15)和脖子C2=(cx2,cy2)的坐标,定义坐标原点,即,C2、C11、C15三点的重心点C0=(cx0,cy0),其中 并以原点坐标为参照更新所有坐标点,将直角坐标系转换成极坐标的形式,极坐标pci=(ρii,θi),其中i从1到18, 其中ρi>0,,-π<θi≤π。
实施例三,在实施例一的基础上,在执行步骤7时,GRU模型作为LSTM长短期记忆网络的一种变体,将忘记门和输入门合成了一个单一的更新门,BiGRU是一个双向GRU,双向GRU有两个GRU上下叠加在一起组成,输出由两个GRU的状态共同决定,其中一个递归网络从前往后计算隐向量另一个递归神经网络从后往前计算隐向量最后的输出
构建网络模型时,为了使网络中每层输入数据的分布相对稳定,加速模型学习速度,在BiGRU层之前加入批归一化层Batch Normalization;
为了实现多标签分类,最后一层激活函数设置为sigmoid激活函数,损失函数选择二元交叉熵binary_crossentropy损失函数。训练网络时将GRU隐藏层的维度设置为256,参数更新时采用Adamx优化算法,其中学习率设置为0.02,一阶矩估计的指数衰减率(beta1)设置为0.9,二阶矩估计的指数衰减率(beta2)设置为0.999。
本发明具体使用时,将预训练模型移植到手机端,通过手机摄像头捕捉人体正面单摇双脚跳视频,并将视频的输入到预训练模型中实时地分析跳绳过程中身体是否保持直立、左大臂是否夹紧身体、右大臂是否夹紧身体、是否是手腕摇绳、双脚是否合拢、左右臂是否保持水平,将分析结果嵌入到视频中,并保存视频到本地;
参看图1,正摇双脚跳动作分析主要包括六个部分:数据的采集、数据的处理、坐标点的提取、特征序列的构建、特征处理、模型的建立。
其中所述的数据的采集过程为通过手机采集人体正面正摇双脚跳过程中的视频流数据;
其中所述的数据处理包括对不同设备采集的视频流数据进行高和宽的统一设定,将视频高设定为530cm,宽设定为460cm;记录并保存目标对象的基本信息,包括姓名、性别、年龄、所做动作名称。
参看图2,人体姿态估计对视频数据进行预处理,通过对视频中每一帧的人体进行姿态估计得到关节点坐标,通过迁移学习利用Open-pose方法对获得视频中每帧人体的鼻子、脖子、右肩、右手肘、右手腕、右手面、左肩、左手肘、左手腕、左手面、右臀部、右膝盖、右脚掌、右脚踝、左臀部、左膝盖、左脚踝、左脚掌这18个关节点的坐标位置,坐标表示为Ci=(cxi,cyi),其中i从1到18。其中左脚掌、右脚掌、左手面、右手面四个坐标的位置信息,是通过Labelme图像标注工具,增加四个关节点位置信息,并通过迁移学习利用Open-pose获取最终所需的18个关节点坐标位置。
参看图3,图4,对所得的18个关节点坐标以左臀部、右臀部和脖子三点构成的三角形重心为原点定义一个坐标系,并将直角坐标系转换成极坐标系,得到转换后的坐标矩阵P。其中坐标原点是利用得到的左臀部C11=(cx11,cy11)、右臀部C15=(cx15,cy15)和脖子C2=(cx2,cy2)这三个坐标得到。
参看图1,其中特征序列为累计每帧得到的坐标矩阵P,得到每段视频的累计坐标矩阵D,利用滑动窗口对累计坐标矩阵进行窗口分割,即,滑动窗口长度设置为每20帧得到的累计坐标,步长设置为有50%的数据重叠;
参看图1,其中数据的标签是通过专业人员对视频进行分析,并按时间片段进行标记而得到,数据的标签设定为身体保持直立是否、左大臂加紧身体是否、右大臂加紧身体是否、手腕摇绳是否、双脚合拢是否、左右臂保持水平是否共6个标签,共有64中可能;
构建数据的特征集X和标签集Y,其中X=Rd表示d维的输入空间,d的大小为36,Y={0,1}q,表示可能标签的标签空间,q的大小为6,T=(xi,yi)|1≤i≤m,m表示数据集的大小,数据集的大小为6300,xi∈X,是一个36维的向量,yi∈Y是Y的一个标签子集,共收集了40个人的正摇双脚跳视频,获得6300个样例数据。
步骤S1:利用BiGRU+GRU构建深度神经网络模型,即,一个双向的GRU层加上一个单项的GRU层;
步骤S2:将数据分为训练集和测试集两个部分,利用测试集训练网络模型,并保存预训练模型;
步骤S3:将测试数据输入到训练好的模型中,得到分类的结果。
其中GRU模型作为LSTM长短期记忆网络的一种变体,将忘记门和输入门合成了一个单一的更新门。
以上所述是结合具体实施方式对本发明所作的进一步详细说明,不能认定本发明具体实施仅局限于此;对于本发明所属及相关技术领域的技术人员来说,在基于本发明技术方案思路前提下,所作的拓展以及操作方法、数据的替换,都应当落在本发明保护范围之内。
Claims (4)
1.一种基于视觉的实时人体动作分析方法,其特征在于,包括如下步骤:
步骤1:通过手机获取大量人体运动的视频流数据,记录并保存目标对象的基本信息,包括姓名、性别、年龄、所做动作名称;
步骤2:对视频数据进行预处理,并对视频中每一帧的人体进行姿态估计,得到关节点坐标,其步骤如下:
步骤2-1:将不同手机拍摄的视频数据转换成统一的尺度;
步骤2-2:通过迁移学习利用Open-pose方法对获得视频中每帧人体的鼻子、脖子、右肩、右手肘、右手腕、右手面、左肩、左手肘、左手腕、左手面、右臀部、右膝盖、右脚掌、右脚踝、左臀部、左膝盖、左脚踝、左脚掌这18个关节点的坐标位置,坐标表示为Ci=(cxi,cyi),其中i从1到18,Ci=(cxi,cyi)表示坐标,cx1表示第一个关节点的x坐标,cy1表示第一个关节点的y坐标C1是第一个关键点坐标的坐标集合;
步骤3:对所得的18个关节点坐标以左臀部、右臀部和脖子三点构成的三角形重心为原点定义一个坐标系,并将直角坐标系转换成极坐标系,获得转换后的坐标矩阵P;
步骤4:对视频进行分析,按时间段进行标记,记录并保存得到的标签;
步骤5:累计每帧得到的坐标矩阵P,得到每段视频的累计坐标矩阵D,利用滑动窗口对累计坐标矩阵进行窗口分割,即滑动窗口长度设置为每20帧得到的累计坐标,步长设置为有50%的数据重叠;
步骤6:利用累计坐标矩阵D,构建数据的特征集X和标签集Y,其中X=Rd表示d维的输入空间,Y={0,1}q,表示标签的标签空间,T=(xi,yi)|1≤i≤m,m表示数据集的大小,xi∈X,是一个d维的向量,yi∈Y是Y的一个标签子集,X表示特征集,Y表示的是标签集,R是实数,d表示输入维度,q是标签个数,T表示的是特征集和标签集中一组标签对应的一组数据,xi特征集中的一组数据,yi标签集中的一组标签;
步骤7-1:利用BiGRU+GRU构建深度神经网络模型,即,一个双向的GRU层加上一个单项的GRU层;
步骤7-2:将数据分为训练集和测试集两个部分,利用测试集训练网络模型,并保存预训练模型;
步骤7-3:将测试数据输入到已有的预训练模型中,得到分类的结果。
2.如权利要求1所述一种基于视觉的实时人体动作分析方法,其特征在于,在执行步骤2时,通过Labelme图像标注工具,获取左脚掌、右脚掌、左手面、右手面四个坐标的位置信息,并通过迁移学习利用Open-pose获取所需的18个关节点坐标位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910808420.5A CN110503077B (zh) | 2019-08-29 | 2019-08-29 | 一种基于视觉的实时人体动作分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910808420.5A CN110503077B (zh) | 2019-08-29 | 2019-08-29 | 一种基于视觉的实时人体动作分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110503077A CN110503077A (zh) | 2019-11-26 |
CN110503077B true CN110503077B (zh) | 2022-03-11 |
Family
ID=68590529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910808420.5A Active CN110503077B (zh) | 2019-08-29 | 2019-08-29 | 一种基于视觉的实时人体动作分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110503077B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110772749A (zh) * | 2019-11-28 | 2020-02-11 | 杨雯悦 | 跳绳计数方法和系统 |
CN110956139B (zh) * | 2019-12-02 | 2023-04-28 | 河南财政金融学院 | 一种基于时间序列回归预测的人体运动动作分析方法 |
CN110956141B (zh) * | 2019-12-02 | 2023-02-28 | 郑州大学 | 一种基于局部识别的人体连续动作快速分析方法 |
CN110991340B (zh) * | 2019-12-03 | 2023-02-28 | 郑州大学 | 一种基于图像压缩的人体动作分析方法 |
CN110889393A (zh) * | 2019-12-10 | 2020-03-17 | 上海芯翌智能科技有限公司 | 人体姿态估计方法及设备 |
CN113137923A (zh) * | 2020-01-17 | 2021-07-20 | 上海淡竹体育科技有限公司 | 立定跳远运动成绩测量方法 |
CN111459283A (zh) * | 2020-04-07 | 2020-07-28 | 电子科技大学 | 一种融合人工智能和Web3D的人机交互实现方法 |
CN112396001B (zh) * | 2020-11-20 | 2022-07-12 | 安徽一视科技有限公司 | 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法 |
CN113486706B (zh) * | 2021-05-21 | 2022-11-15 | 天津大学 | 一种基于人体姿态估计和历史信息的在线动作识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022213A (zh) * | 2016-05-04 | 2016-10-12 | 北方工业大学 | 一种基于三维骨骼信息的人体动作识别方法 |
CN108446583A (zh) * | 2018-01-26 | 2018-08-24 | 西安电子科技大学昆山创新研究院 | 基于姿态估计的人体行为识别方法 |
CN109003301A (zh) * | 2018-07-06 | 2018-12-14 | 东南大学 | 一种基于OpenPose和Kinect的人体姿态估计方法及康复训练系统 |
CN109344790A (zh) * | 2018-10-16 | 2019-02-15 | 浩云科技股份有限公司 | 一种基于姿态分析的人体行为分析方法及系统 |
CN109871750A (zh) * | 2019-01-02 | 2019-06-11 | 东南大学 | 一种基于骨架图序列异常关节修复的步态识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3446281A1 (en) * | 2016-04-21 | 2019-02-27 | OSRAM GmbH | Training method and detection method for object recognition |
US10489639B2 (en) * | 2018-02-12 | 2019-11-26 | Avodah Labs, Inc. | Automated sign language translation and communication using multiple input and output modalities |
-
2019
- 2019-08-29 CN CN201910808420.5A patent/CN110503077B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022213A (zh) * | 2016-05-04 | 2016-10-12 | 北方工业大学 | 一种基于三维骨骼信息的人体动作识别方法 |
CN108446583A (zh) * | 2018-01-26 | 2018-08-24 | 西安电子科技大学昆山创新研究院 | 基于姿态估计的人体行为识别方法 |
CN109003301A (zh) * | 2018-07-06 | 2018-12-14 | 东南大学 | 一种基于OpenPose和Kinect的人体姿态估计方法及康复训练系统 |
CN109344790A (zh) * | 2018-10-16 | 2019-02-15 | 浩云科技股份有限公司 | 一种基于姿态分析的人体行为分析方法及系统 |
CN109871750A (zh) * | 2019-01-02 | 2019-06-11 | 东南大学 | 一种基于骨架图序列异常关节修复的步态识别方法 |
Non-Patent Citations (2)
Title |
---|
Player pose analysis in tennis video based on pose estimation;Ryunosuke Kurose等,;《2018 International Workshop on Advanced Image Technology》;20180531;1-4 * |
基于智能手表的人体行为识别研究;林予松等;《电子设计工程》;20170430;27-31 * |
Also Published As
Publication number | Publication date |
---|---|
CN110503077A (zh) | 2019-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110503077B (zh) | 一种基于视觉的实时人体动作分析方法 | |
Hu et al. | Real-time RGB-D activity prediction by soft regression | |
CN110575663B (zh) | 一种基于人工智能的体育辅助训练方法 | |
CN104616028B (zh) | 基于空间分割学习的人体肢体姿势动作识别方法 | |
CN109829467A (zh) | 图像标注方法、电子装置及非暂态电脑可读取储存媒体 | |
CN110991340B (zh) | 一种基于图像压缩的人体动作分析方法 | |
Jin et al. | Real-time human action recognition using CNN over temporal images for static video surveillance cameras | |
CN104200203B (zh) | 一种基于动作字典学习的人体动作检测方法 | |
CN110956141B (zh) | 一种基于局部识别的人体连续动作快速分析方法 | |
CN109731302A (zh) | 运动姿态识别方法、装置及电子设备 | |
Weiyao et al. | Human action recognition using multilevel depth motion maps | |
Le et al. | Human machine interaction and meanings of machine learning-a case of hand posture recognition from wrist-worn camera | |
Yang et al. | Depth sequential information entropy maps and multi-label subspace learning for human action recognition | |
Sciortino et al. | On the estimation of children’s poses | |
Manaf et al. | Computer vision-based survey on human activity recognition system, challenges and applications | |
CN111046715B (zh) | 一种基于图像检索的人体动作对比分析方法 | |
CN115223239A (zh) | 一种手势识别方法、系统、计算机设备以及可读存储介质 | |
Dhore et al. | Human Pose Estimation And Classification: A Review | |
CN117133057A (zh) | 基于人体姿态识别的体育运动计数和违规动作判别方法 | |
Li et al. | Human sports action and ideological and PoliticalEvaluation by lightweight deep learning model | |
CN112541870A (zh) | 一种视频处理的方法、装置、可读存储介质和电子设备 | |
Wang et al. | Calorific expenditure estimation using deep convolutional network features | |
Xie | Intelligent Analysis Method of Sports Training Posture Based on Artificial Intelligence | |
Vedalankar et al. | LIVE YOGA POSE DETECTION BY USING IMAGE PROCESSING AND DEEP LEARNING | |
Blanc-Beyne et al. | Unsupervised Human Pose Estimation on Depth Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |