CN113486771A - 基于关键点检测的视频动作整齐度评估方法及系统 - Google Patents

基于关键点检测的视频动作整齐度评估方法及系统 Download PDF

Info

Publication number
CN113486771A
CN113486771A CN202110745695.6A CN202110745695A CN113486771A CN 113486771 A CN113486771 A CN 113486771A CN 202110745695 A CN202110745695 A CN 202110745695A CN 113486771 A CN113486771 A CN 113486771A
Authority
CN
China
Prior art keywords
joint
representing
calculating
uniformity
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110745695.6A
Other languages
English (en)
Other versions
CN113486771B (zh
Inventor
柯逍
许煌标
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202110745695.6A priority Critical patent/CN113486771B/zh
Publication of CN113486771A publication Critical patent/CN113486771A/zh
Application granted granted Critical
Publication of CN113486771B publication Critical patent/CN113486771B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于关键点检测的视频动作整齐度评估方法及系统,该方法包括以下步骤:步骤S1:获取数据集并预处理,训练基于计算机视觉的关键点检测算法;步骤S2:采用所述关键点检测算法对输入的视频图像识别提取骨骼关键点,并输出信息;步骤S3:采用基于余弦相似度的肢体整齐度算法对关键点的信息进行处理,计算肢体整齐度;步骤S4:采用基于距离度量的关节整齐度算法计算关节整齐度,基于肢体和关节整齐度计算综合整齐度,完成最终的评估。该方法及系统可以有效地对视频中的动作整齐度进行评估。

Description

基于关键点检测的视频动作整齐度评估方法及系统
技术领域
本发明属于计算机视觉领域,具体涉及一种基于关键点检测的视频动作整齐度评估方法及系统。
背景技术
近年来,随着互联网和多媒体科技的飞速发展,对图像、视频的需求也日益增长,需求的增长带动了图像、视频处理技术的高速发展,如图像识别、视频分析、动作评分等。随着人工智能技术的不断发展及其场景化应用的不断成熟,对视频中的动作进行分析这一相关课题吸引着越来越多的学者投身研究。越来越多的学者研究发表更快更准的目标检测算法、关键点检测算法,更进一步对视频动作检测、姿态识别、动作跟踪等相关领域有着不断突破。
尽管视频图像处理技术与关键点检测技术已经取得很大进步,在真实环境应用上仍有许多创新的突破口。如今,很多所谓的专家对各类团体舞蹈、军训军姿、运动竞技等需要整齐度的动作做出评价,但个人的评价通常会带有主观因素,所以往往会出现人们对这些专家评价带有不同的态度与看法,引出一系列争论。
发明内容
本发明的目的在于提供一种基于关键点检测的视频动作整齐度评估方法及系统,该方法及系统可以有效地对视频中的动作整齐度进行评估。
为实现上述目的,本发明采用的技术方案是:一种基于关键点检测的视频动作整齐度评估方法,包括以下步骤:
步骤S1:获取数据集并预处理,训练基于计算机视觉的关键点检测算法;
步骤S2:采用所述关键点检测算法对输入的视频图像识别提取骨骼关键点,并输出信息;
步骤S3:采用基于余弦相似度的肢体整齐度算法对关键点的信息进行处理,计算肢体整齐度;
步骤S4:采用基于距离度量的关节整齐度算法计算关节整齐度,基于肢体和关节整齐度计算综合整齐度,完成最终的评估。
进一步地,所述步骤S1具体包括以下步骤:
步骤S11:从网络上获取公开的团体动作场景数据集;
步骤S12:对数据集进行预处理,针对包括人物遮挡、镜像、模糊、个人不同动作、无关元素的影响因素进行处理,筛选合适的图像,剪辑出符合要求的视频片段,完成数据集的构建;
步骤S13:对数据集进行标注,将数据集按照一定比例划分训练集和测试集,并用训练集对基于YOLOF和HRNet的关键点检测算法进行训练。
进一步地,所述步骤S2具体包括以下步骤:
步骤S21:对于输入的视频图像,将其分成多个帧并进行逐帧处理,对于一个帧图像,用步骤S1中训练好的基于YOLOF的目标检测模型检测出目标人体位置框;
步骤S22:将S21检测出的位置框信息输入基于HRNet的人体关键点检测算法,得出以骨骼关键点表示的人体姿态估计图,人体姿态估计图包含人体常用的鼻子、左右眼睛、左右耳朵、左右肩膀、左右手肘、左右手腕、左右臀部、左右膝盖以及左右脚踝,共17个骨骼点;
步骤S23:将步骤S22得出的人体骨骼关键点进行编号,以JSON格式输出帧名、人物编号、各编号关键点的位置信息、检测置信度以及整个人的综合置信度。
进一步地,所述步骤S3具体包括以下步骤:
步骤S31:将人体的四肢各部分分别进行编号,各部位以ID∈(0,1,2,……,7)来表示,ID分别表示左前臂、左上臂、右前臂、右上臂、左大腿、左小腿、右大腿、右小腿;
步骤S32:对于一个帧图像,将各位目标人体两两之间的肢体转化为向量进行计算,每一个肢体部位涉及两个骨骼点,然后采用以下余弦相似度公式计算同一个肢体部位的整齐程度:
Figure BDA0003142624570000021
其中,θ表示角度,x1_man与y1_man分别是第一个人的肢体向量的x坐标和y坐标,x2_man与y2_man分别是第二个人的肢体向量的x坐标和y坐标;
步骤S33:将同一肢体部位两两之间的相似度求均值,即为该肢体的相似度,计算各部位的相似度求均值即为该帧的动作整齐度,求各帧整齐度的均值即为视频整体的肢体整齐度:
Figure BDA0003142624570000031
其中,Scos表示肢体余弦相似度,k表示同一个肢体两两之间的第k个相似度,m表示其总数,j_cos表示第j个肢体,i表示第i个帧,n表示帧总数。
进一步地,所述步骤S4具体包括以下步骤:
步骤S41:将运动中人体常用的各个关节分别进行编号,每个关节涉及步骤S3所述的两个肢体部分,各关节以ID∈(0,1,2,……,5)来表示,ID分别表示左手肘角度、左肩膀角度、右手肘角度、右肩膀角度、左膝盖角度、右膝盖角度;
步骤S42:对于一个关节,找出该关节涉及的两部分肢体,分别计算这两部分与X轴的夹角,采用以下公式计算该关节角度:
Figure BDA0003142624570000032
其中,angle为关节角度,Δ1与Δ2分别是该关节对应的两肢体部分与X轴的夹角;
求出每个人该关节角度后,两两求差值得出关节基于距离度量的差异数组,将该数组进行离差归一化,并用以下公式得出该关节基于距离度量的相似度:
Figure BDA0003142624570000033
其中,
Figure BDA0003142624570000034
表示第j个关节基于距离度量的相似度,min和max分别表示距离度量差异数组的最小值和最大值,gp表示差异数组的值,t为数组元素个数;
步骤S43:对于一个帧图像,计算各关节的相似度求均值即为该帧的动作整齐度,求各帧整齐度的均值即为视频整体的关节整齐度:
Figure BDA0003142624570000035
其中,Sgap表示关节距离相似度,j_gap表示第j个关节,i表示第i个帧,n表示帧总数;
步骤S44:对于某一帧中的同一动作,先计算每个人的各肢体基于余弦相似度的整齐度后,再计算两两肢体间的关节基于距离度量的相似度,综合获得该部分肢体及涉及关节的整齐度,即视频图像的综合整齐度:
S=λ1Scos2Sgap
其中,S为综合整齐度,λ1和λ2分别表示肢体余弦相似度和关节距离相似度的权重参数。
本发明还提供了一种基于关键点检测的视频动作整齐度评估系统,包括存储器、处理器以及存储于存储器上并能够被处理器运行的程序指令,当处理器运行该程序指令时,能够实现上述的方法步骤。
与现有技术相比,本发明具有以下有益效果:
1、针对传统人体姿态估计精度不够的问题,本发明提出了针对动作整齐度评估应用场景进行训练的目标检测和关键点检测算法的结合,能够有效地对视频中的目标人物进行识别,过滤背景中无关的模糊、较小的动物,包括无关人员,提升了关键点检测的准确率,而且降低了输入的视频图像质量对关键点检测的影响。
2、能够对异常数值进行检测并处理,针对遮挡、单人不同动作、镜像、漏检或检测不清不全等问题进行异常检测与处理,根据不同的情况舍弃该信息或者通过求均值来排除异常值进行计算,提高整齐度评估精度。
3、针对传统相似度计算方法可能受多方面因素影响,评估不够精确的问题,提出了基于余弦相似度和距离度量的综合整齐度算法。该算法综合考虑人体肢体和关节对动作的影响,统筹计算两种整齐度,能够根据不同应用场景给出合理客观的整齐度。
附图说明
图1是本发明实施例的方法实现流程图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,本实施例提供了一种基于关键点检测的视频动作整齐度评估方法,包括以下步骤:
步骤S1:获取数据集并预处理,训练基于计算机视觉的关键点检测算法;具体包括以下步骤:
步骤S11:从网络上获取公开的团体动作场景数据集;
步骤S12:对数据集进行预处理,针对人物遮挡、镜像、模糊、个人不同动作、无关元素的等影响因素进行处理,筛选合适的图像,剪辑出符合要求的视频片段,完成数据集的构建;
步骤S13:对数据集进行标注,将数据集按照一定比例划分训练集和测试集,并用训练集对基于YOLOF和HRNet的关键点检测算法进行训练。
步骤S2:采用所述关键点检测算法对输入的视频图像识别提取骨骼关键点,并输出信息;具体包括以下步骤:
步骤S21:对于输入的视频图像,将其分成多个帧并进行逐帧处理,对于一个帧图像,用步骤S1中训练好的基于YOLOF的目标检测模型检测出目标人体位置框;
步骤S22:将S21检测出的位置框信息输入基于HRNet的人体关键点检测算法,得出以骨骼关键点表示的人体姿态估计图,本发明所需的人体姿态估计图包含人体常用的鼻子、左右眼睛、左右耳朵、左右肩膀、左右手肘、左右手腕、左右臀部、左右膝盖以及左右脚踝,共17个骨骼点;
步骤S23:将步骤S22得出的人体骨骼关键点进行编号,以JSON格式输出帧名、人物编号、各编号关键点的位置信息、检测置信度以及整个人的综合置信度,即以帧为单位将整个视频图像检测后的信息输出,一个帧中即包含以上的信息。
步骤S3:采用基于余弦相似度的肢体整齐度算法对关键点的信息进行处理,计算肢体整齐度;具体包括以下步骤:
步骤S31:将人体的四肢各部分分别进行编号,各部位以ID∈(0,1,2,……,7)来表示,ID分别表示左前臂、左上臂、右前臂、右上臂、左大腿、左小腿、右大腿、右小腿;
步骤S32:对于一个帧图像,将各位目标人体两两之间的肢体转化为向量进行计算,每一个肢体部位涉及两个骨骼点,然后采用以下余弦相似度公式计算同一个肢体部位的整齐程度:
Figure BDA0003142624570000051
其中,θ表示角度,x1_man与y1_man分别是第一个人的肢体向量的x坐标和y坐标,x2_man与y2_man分别是第二个人的肢体向量的x坐标和y坐标;
步骤S33:将同一肢体部位两两之间的相似度求均值,即为该肢体的相似度,计算各部位的相似度求均值即为该帧的动作整齐度,求各帧整齐度的均值即为视频整体的肢体整齐度:
Figure BDA0003142624570000061
其中,Scos表示肢体余弦相似度,k表示同一个肢体两两之间的第k个相似度,m表示其总数,j_cos表示第j个肢体,i表示第i个帧,n表示帧总数。
步骤S4:采用基于距离度量的关节整齐度算法计算关节整齐度,基于肢体和关节整齐度计算综合整齐度,完成最终的评估;具体包括以下步骤:
步骤S41:将运动中人体常用的各个关节分别进行编号,每个关节涉及步骤S3所述的两个肢体部分,各关节以ID∈(0,1,2,……,5)来表示,ID分别表示左手肘角度、左肩膀角度、右手肘角度、右肩膀角度、左膝盖角度、右膝盖角度;
步骤S42:对于一个关节,找出该关节涉及的两部分肢体,分别计算这两部分与X轴的夹角,采用以下公式计算该关节角度:
Figure BDA0003142624570000062
其中,angle为关节角度,Δ1与Δ2分别是该关节对应的两肢体部分与X轴的夹角;
求出每个人该关节角度后,两两求差值得出关节基于距离度量的差异数组,将该数组进行离差归一化,并用以下公式得出该关节基于距离度量的相似度:
Figure BDA0003142624570000063
其中,
Figure BDA0003142624570000064
表示第j个关节基于距离度量的相似度,min和max分别表示距离度量差异数组的最小值和最大值,gp表示差异数组的值,t为数组元素个数;
步骤S43:对于一个帧图像,计算各关节的相似度求均值即为该帧的动作整齐度,求各帧整齐度的均值即为视频整体的关节整齐度:
Figure BDA0003142624570000065
其中,Sgap表示关节距离相似度,j_gap表示第j个关节,i表示第i个帧,n表示帧总数;
步骤S44:对于某一帧中的同一动作,先计算每个人的各肢体基于余弦相似度的整齐度后,再计算两两肢体间的关节基于距离度量的相似度,综合获得该部分肢体及涉及关节的整齐度,即视频图像的综合整齐度:
S=λ1Scos2Sgap
其中,S为综合整齐度,λ1和λ2分别表示肢体余弦相似度和关节距离相似度的权重参数。
本实施例还提供了一种基于关键点检测的视频动作整齐度评估系统,包括存储器、处理器以及存储于存储器上并能够被处理器运行的程序指令,当处理器运行该程序指令时,能够实现上述的方法步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。

Claims (6)

1.一种基于关键点检测的视频动作整齐度评估方法,其特征在于,包括以下步骤:
步骤S1:获取数据集并预处理,训练基于计算机视觉的关键点检测算法;
步骤S2:采用所述关键点检测算法对输入的视频图像识别提取骨骼关键点,并输出信息;
步骤S3:采用基于余弦相似度的肢体整齐度算法对关键点的信息进行处理,计算肢体整齐度;
步骤S4:采用基于距离度量的关节整齐度算法计算关节整齐度,基于肢体和关节整齐度计算综合整齐度,完成最终的评估。
2.根据权利要求1所述的基于关键点检测的视频动作整齐度评估方法,其特征在于,所述步骤S1具体包括以下步骤:
步骤S11:从网络上获取公开的团体动作场景数据集;
步骤S12:对数据集进行预处理,针对包括人物遮挡、镜像、模糊、个人不同动作、无关元素的影响因素进行处理,筛选合适的图像,剪辑出符合要求的视频片段,完成数据集的构建;
步骤S13:对数据集进行标注,将数据集按照一定比例划分训练集和测试集,并用训练集对基于YOLOF和HRNet的关键点检测算法进行训练。
3.根据权利要求2所述的基于关键点检测的视频动作整齐度评估方法,其特征在于,所述步骤S2具体包括以下步骤:
步骤S21:对于输入的视频图像,将其分成多个帧并进行逐帧处理,对于一个帧图像,用步骤S1中训练好的基于YOLOF的目标检测模型检测出目标人体位置框;
步骤S22:将S21检测出的位置框信息输入基于HRNet的人体关键点检测算法,得出以骨骼关键点表示的人体姿态估计图,人体姿态估计图包含人体常用的鼻子、左右眼睛、左右耳朵、左右肩膀、左右手肘、左右手腕、左右臀部、左右膝盖以及左右脚踝,共17个骨骼点;
步骤S23:将步骤S22得出的人体骨骼关键点进行编号,以JSON格式输出帧名、人物编号、各编号关键点的位置信息、检测置信度以及整个人的综合置信度。
4.根据权利要求3所述的基于关键点检测的视频动作整齐度评估方法,其特征在于,所述步骤S3具体包括以下步骤:
步骤S31:将人体的四肢各部分分别进行编号,各部位以ID∈(0,1,2,……,7)来表示,ID分别表示左前臂、左上臂、右前臂、右上臂、左大腿、左小腿、右大腿、右小腿;
步骤S32:对于一个帧图像,将各位目标人体两两之间的肢体转化为向量进行计算,每一个肢体部位涉及两个骨骼点,然后采用以下余弦相似度公式计算同一个肢体部位的整齐程度:
Figure FDA0003142624560000021
其中,θ表示角度,x1_man与y1_man分别是第一个人的肢体向量的x坐标和y坐标,x2_man与y2_man分别是第二个人的肢体向量的x坐标和y坐标;
步骤S33:将同一肢体部位两两之间的相似度求均值,即为该肢体的相似度,计算各部位的相似度求均值即为该帧的动作整齐度,求各帧整齐度的均值即为视频整体的肢体整齐度:
Figure FDA0003142624560000022
其中,Scos表示肢体余弦相似度,k表示同一个肢体两两之间的第k个相似度,m表示其总数,j_cos表示第j个肢体,i表示第i个帧,n表示帧总数。
5.根据权利要求1所述的基于关键点检测的视频动作整齐度评估方法,其特征在于,所述步骤S4具体包括以下步骤:
步骤S41:将运动中人体常用的各个关节分别进行编号,每个关节涉及步骤S3所述的两个肢体部分,各关节以ID∈(0,1,2,……,5)来表示,ID分别表示左手肘角度、左肩膀角度、右手肘角度、右肩膀角度、左膝盖角度、右膝盖角度;
步骤S42:对于一个关节,找出该关节涉及的两部分肢体,分别计算这两部分与X轴的夹角,采用以下公式计算该关节角度:
Figure FDA0003142624560000023
其中,angle为关节角度,Δ1与Δ2分别是该关节对应的两肢体部分与X轴的夹角;
求出每个人该关节角度后,两两求差值得出关节基于距离度量的差异数组,将该数组进行离差归一化,并用以下公式得出该关节基于距离度量的相似度:
Figure FDA0003142624560000024
其中,
Figure FDA0003142624560000031
表示第j个关节基于距离度量的相似度,min和max分别表示距离度量差异数组的最小值和最大值,gp表示差异数组的值,t为数组元素个数;
步骤S43:对于一个帧图像,计算各关节的相似度求均值即为该帧的动作整齐度,求各帧整齐度的均值即为视频整体的关节整齐度:
Figure FDA0003142624560000032
其中,Sgap表示关节距离相似度,j_gap表示第j个关节,i表示第i个帧,n表示帧总数;
步骤S44:对于某一帧中的同一动作,先计算每个人的各肢体基于余弦相似度的整齐度后,再计算两两肢体间的关节基于距离度量的相似度,综合获得该部分肢体及涉及关节的整齐度,即视频图像的综合整齐度:
S=λ1Scos2Sgap
其中,S为综合整齐度,λ1和λ2分别表示肢体余弦相似度和关节距离相似度的权重参数。
6.一种基于关键点检测的视频动作整齐度评估系统,其特征在于,包括存储器、处理器以及存储于存储器上并能够被处理器运行的程序指令,当处理器运行该程序指令时,能够实现如权利要求1-5所述的方法步骤。
CN202110745695.6A 2021-06-30 2021-06-30 基于关键点检测的视频动作整齐度评估方法及系统 Active CN113486771B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110745695.6A CN113486771B (zh) 2021-06-30 2021-06-30 基于关键点检测的视频动作整齐度评估方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110745695.6A CN113486771B (zh) 2021-06-30 2021-06-30 基于关键点检测的视频动作整齐度评估方法及系统

Publications (2)

Publication Number Publication Date
CN113486771A true CN113486771A (zh) 2021-10-08
CN113486771B CN113486771B (zh) 2023-07-07

Family

ID=77939289

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110745695.6A Active CN113486771B (zh) 2021-06-30 2021-06-30 基于关键点检测的视频动作整齐度评估方法及系统

Country Status (1)

Country Link
CN (1) CN113486771B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113963333A (zh) * 2021-11-15 2022-01-21 北京联合大学 一种基于改进yolof模型的交通标志牌检测方法
CN114373531A (zh) * 2022-02-28 2022-04-19 深圳市旗扬特种装备技术工程有限公司 一种行为动作监测矫正方法、系统、电子设备及介质
CN115019395A (zh) * 2022-06-10 2022-09-06 杭州电子科技大学 一种基于堆叠沙漏网络的团体动作一致性的检测方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110633608A (zh) * 2019-03-21 2019-12-31 广州中科凯泽科技有限公司 一种姿态图像的人体肢体相似度评估方法
CN110781843A (zh) * 2019-10-29 2020-02-11 首都师范大学 课堂行为检测方法及电子设备
CN111144217A (zh) * 2019-11-28 2020-05-12 重庆邮电大学 一种基于人体三维关节点检测的动作评价方法
CN111310659A (zh) * 2020-02-14 2020-06-19 福州大学 基于增进式图卷积神经网络的人体动作识别方法
WO2020155873A1 (zh) * 2019-02-02 2020-08-06 福州大学 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法
WO2021000401A1 (zh) * 2019-07-04 2021-01-07 平安科技(深圳)有限公司 体态评估方法、电子装置、计算机设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020155873A1 (zh) * 2019-02-02 2020-08-06 福州大学 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法
CN110633608A (zh) * 2019-03-21 2019-12-31 广州中科凯泽科技有限公司 一种姿态图像的人体肢体相似度评估方法
WO2021000401A1 (zh) * 2019-07-04 2021-01-07 平安科技(深圳)有限公司 体态评估方法、电子装置、计算机设备及存储介质
CN110781843A (zh) * 2019-10-29 2020-02-11 首都师范大学 课堂行为检测方法及电子设备
CN111144217A (zh) * 2019-11-28 2020-05-12 重庆邮电大学 一种基于人体三维关节点检测的动作评价方法
CN111310659A (zh) * 2020-02-14 2020-06-19 福州大学 基于增进式图卷积神经网络的人体动作识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
柯逍: "基于混合关节肢体模型的深度人体姿态估计方法", 模式识别与人工智能, no. 02 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113963333A (zh) * 2021-11-15 2022-01-21 北京联合大学 一种基于改进yolof模型的交通标志牌检测方法
CN113963333B (zh) * 2021-11-15 2022-05-31 北京联合大学 一种基于改进yolof模型的交通标志牌检测方法
CN114373531A (zh) * 2022-02-28 2022-04-19 深圳市旗扬特种装备技术工程有限公司 一种行为动作监测矫正方法、系统、电子设备及介质
CN115019395A (zh) * 2022-06-10 2022-09-06 杭州电子科技大学 一种基于堆叠沙漏网络的团体动作一致性的检测方法及系统
CN115019395B (zh) * 2022-06-10 2022-12-06 杭州电子科技大学 基于堆叠沙漏网络的团体动作一致性的检测方法及系统

Also Published As

Publication number Publication date
CN113486771B (zh) 2023-07-07

Similar Documents

Publication Publication Date Title
CN113486771B (zh) 基于关键点检测的视频动作整齐度评估方法及系统
CN106650687B (zh) 一种基于深度信息和骨骼信息的姿势矫正方法
Díaz et al. DTCoach: your digital twin coach on the edge during COVID-19 and beyond
CN110210284A (zh) 一种人体姿态行为智能评价方法
CN114067358A (zh) 一种基于关键点检测技术的人体姿态识别方法及系统
CN110490109A (zh) 一种基于单目视觉的在线人体康复动作识别方法
JP7422456B2 (ja) 画像処理装置、画像処理方法及びプログラム
Tsai et al. Enhancing accuracy of human action Recognition System using Skeleton Point correction method
CN112200074A (zh) 一种姿态对比的方法和终端
Kanase et al. Pose estimation and correcting exercise posture
Mohammed et al. Recognition of yoga asana from real-time videos using blaze-pose
Sheu et al. Improvement of human pose estimation and processing with the intensive feature consistency network
CN114973048A (zh) 康复动作的纠正方法、装置、电子设备及可读介质
Ohri et al. On-device realtime pose estimation & correction
CN111079481A (zh) 一种基于二维骨架信息的攻击性行为识别方法
Kondragunta et al. Estimation of gait parameters from 3D pose for elderly care
CN112149531A (zh) 一种行为识别中人体骨骼数据的建模方法
CN115205750B (zh) 基于深度学习模型的运动实时计数方法和系统
CN113240044B (zh) 一种基于多Kinect的人体骨骼数据融合评价方法
Calvache et al. Automatic estimation of pose and falls in videos using computer vision model
Sachdeva et al. A Computer Vision Assisted Yoga Trainer for a Naive Performer by Using Human Joint Detection
Tomas et al. Comparative Study on Model Skill of ERT and LSTM in Classifying Proper or Improper Execution of Free Throw, Jump Shot, and Layup Basketball Maneuvers
Gamra et al. Yopose: Yoga posture recognition using deep pose estimation
CN112861606A (zh) 基于骨骼动画追踪的虚拟现实手部动作识别与训练方法
Hagelbäck et al. Variants of dynamic time warping and their performance in human movement assessment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant