CN115205961A - 一种羽毛球动作识别方法、装置、电子设备及存储介质 - Google Patents

一种羽毛球动作识别方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN115205961A
CN115205961A CN202210630647.7A CN202210630647A CN115205961A CN 115205961 A CN115205961 A CN 115205961A CN 202210630647 A CN202210630647 A CN 202210630647A CN 115205961 A CN115205961 A CN 115205961A
Authority
CN
China
Prior art keywords
action
frame
motion
video
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210630647.7A
Other languages
English (en)
Inventor
余松森
阮乐
周娴玮
刘玉县
吴航
张振腮
匡勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen See Sports Technology Co ltd
South China Normal University
Original Assignee
Shenzhen See Sports Technology Co ltd
South China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen See Sports Technology Co ltd, South China Normal University filed Critical Shenzhen See Sports Technology Co ltd
Priority to CN202210630647.7A priority Critical patent/CN115205961A/zh
Publication of CN115205961A publication Critical patent/CN115205961A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种羽毛球动作识别方法、装置、电子设备及存储介质。本发明所述的羽毛球动作识别方法包括:获取待分类的动作视频,逐帧读取所述动作视频的图像;对所述图像进行关键点坐标提取,获得每张所述图像中的人体关键点坐标信息;根据所述坐标信息,构建每帧图像的特征工程数据;将每一帧图像的所述特征工程数据输入训练好的动作分类模型,得到每一帧图像对应每一个动作的概率值;根据所有图像对应每一个动作的概率值,得到所述待分类的动作视频的动作分类结果。本发明所述的羽毛球动作识别方法,聚焦于羽毛球的动作分类工作,可以更好的识别运动员的动作。

Description

一种羽毛球动作识别方法、装置、电子设备及存储介质
技术领域
本发明涉及羽毛球动作分类技术领域,特别是涉及一种羽毛球动作识别方法、装置、电子设备及存储介质。
背景技术
随着人民生活水平的逐渐提高,人们愈加重视体育锻炼,羽毛球作为一项入门简单,竞技性强的运动深受大众喜爱。在羽毛球运动当中,运动员的动作姿态信息具有较强的规律性,为了更好的理解和把握羽毛球视频中的球员动作信息,运用深度学习的方法辅助识别是有必要的。
深度学习在体育锻炼相关领域已经取得了重大突破,但是大多是针对多种体育锻炼的,针对羽毛球训练的研究较少。目前市面上的羽毛球动作分类模型多为复杂的神经网络模型,对视频或者姿态估计提取的坐标点进行分类,模型训练难,耗时长,准确率与训练模型和数据量紧密相关,想要达到较高的准确率需要庞大的数据集,如需要添加其他动作则需要重新训练等量数据的模型,且深度学习可解释性差,对于具体原理仍没有很好的解释。但是传统机器学习面对此类复杂任务往往表现不佳。
发明内容
基于此,本发明的目的在于,提供一种羽毛球动作识别方法、装置、电子设备及存储介质,聚焦于羽毛球的动作分类工作,可以更好的识别运动员的动作,帮助球员理解比赛,发现运动员的动作特点。
第一方面,本发明提供一种羽毛球动作识别方法,包括以下步骤:
获取待分类的动作视频,逐帧读取所述动作视频的图像;
对所述图像进行关键点坐标提取,获得每张所述图像中的人体关键点坐标信息;
根据所述坐标信息,构建每帧图像的特征工程数据;所述特征工程数据至少包括以下一项:特定关键点之间的高度差、特定关键点之间的相对距离和特定关键点所成的角度;
将每一帧图像的所述特征工程数据输入训练好的动作分类模型,得到每一帧图像对应每一个动作的概率值;
根据所有图像对应每一个动作的概率值,得到所述待分类的动作视频的动作分类结果。
进一步地,根据所有图像对应每一个动作的概率值,得到所述待分类的动作视频的动作分类结果,包括:
计算整个视频中连续5帧图像对应的每一个动作的概率值之和;
对于最大概率值之和,获取所述最大概率值之和对应的5帧图像及对应的动作;
输出所述最大概率值之和对应的5帧图像为所述待分类的动作视频的关键帧;
输出所述最大概率值之和对应的动作,为所述待分类的动作视频的动作分类结果。
进一步地,所述动作分类模型的训练步骤包括:
获取训练数据集,所述训练数据集包括多个羽毛球动作视频,每个视频对应一个动作标签;
使用深度学习姿态估计算法提取每个视频的每帧图像的关键点坐标信息;
根据所述坐标信息,构建每帧图像的特征工程数据;所述特征工程数据至少包括以下一项:特定关键点之间的高度差、特定关键点之间的相对距离和特定关键点所成的角度;
根据所述特征工程数据与所述视频对应的动作标签,训练动作分类模型;
保存训练好的动作分类模型。
进一步地,所述动作分类模型为XGBoost模型。
进一步地,XGBoost模型优化的目标函数为:
Figure BDA0003679536810000021
Figure BDA0003679536810000022
其中,
Figure BDA0003679536810000023
代表预测值关于真实值的损失函数;Ω(fk)为目标函数的正则项;ωj为第j个叶子节点的输出,j的取值范围为[1,T],γ,λ为系数。
进一步地,根据所述特征工程数据与所述视频对应的动作标签,训练动作分类模型,包括:
使用300组以上的数据,每组数据至少30种特征的方式进行训练;
当所述动作分类模型的预测准确率达到90%以上,停止训练;
当所述动作分类模型的预测准确率未达到90%以上,增大数据集重新训练,直至所述动作分类模型的预测准确率达到90%以上,得到训练好的动作分类模型。
进一步地,逐帧读取所述动作视频的图像,包括:
使用OpenCV逐帧读取所述动作视频的图像。
第二方面,本发明还提供一种羽毛球动作识别装置,包括:
视频获取模块,用于获取待分类的动作视频,逐帧读取所述动作视频的图像;
关键点坐标提取模块,用于对所述图像进行关键点坐标提取,获得每张所述图像中的人体关键点坐标信息;
特征工程数据构建模块,用于根据所述坐标信息,构建每帧图像的特征工程数据;所述特征工程数据至少包括以下一项:特定关键点之间的高度差、特定关键点之间的相对距离和特定关键点所成的角度;
概率预测模块,用于将每一帧图像的所述特征工程数据输入训练好的动作分类模型,得到每一帧图像对应每一个动作的概率值;
结果输出模块,用于根据所有图像对应每一个动作的概率值,得到所述待分类的动作视频的动作分类结果。
第三方面,本发明还提供一种电子设备,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如本发明第一方面任一所述的一种羽毛球动作识别方法的步骤。
第四方面,本发明还提供一种计算机可读存储介质,
所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如本发明第一方面任一所述的一种羽毛球动作识别方法的步骤。
本发明提供的一种羽毛球动作识别方法、装置、电子设备及存储介质,聚焦于羽毛球的动作分类工作,可以更好的识别运动员的动作,帮助球员理解比赛,发现运动员的动作特点。
在正手高远球动作的四类小动作中,总共收集到417张图片中,379张能够准确识别该动作所属类别,准确率达到90.9%,且模型所占内存仅为649KB,推理速度极快,在移动端部署所需时间极短。
且在对视频分类过程中,使用本专利所提供的算法能够准确快速地进行动作分类,找出每类动作关键帧所处位置,快速高效。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1为本发明提供的一种羽毛球动作识别方法的步骤示意图;
图2为本发明在一个实施例中提供的一种羽毛球动作识别方法的流程示意图;
图3为本发明提供的一种羽毛球动作识别装置的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施例方式作进一步地详细描述。
应当明确,所描述的实施例仅仅是本申请实施例一部分实施例,而不是全部的实施例。基于本申请实施例中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请实施例保护的范围。
在本申请实施例使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请实施例。在本申请实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。在本申请的描述中,需要理解的是,术语“第一”、“第二”、“第三”等仅用于区别类似的对象,而不必用于描述特定的顺序或先后次序,也不能理解为指示或暗示相对重要性。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
此外,在本申请的描述中,除非另有说明,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
针对背景技术中的问题,本申请实施例提供一种羽毛球动作识别方法,如图1所示,该方法包括以下步骤:
S01:获取待分类的动作视频,逐帧读取所述动作视频的图像。
在一个优选的实施例中,通过OpenCV逐帧读取视频的图像。
S02:对所述图像进行关键点坐标提取,获得每张所述图像中的人体关键点坐标信息。
在一个优选的实施例中,使用深度学习姿态估计算法提取关键点坐标信息,这里可以使用HRNet,HourGlass,AlphaPose等算法获取关键点坐标。
S03:根据所述坐标信息,构建每帧图像的特征工程数据;所述特征工程数据至少包括以下一项:特定关键点之间的高度差、特定关键点之间的相对距离和特定关键点所成的角度。
在一个优选的实施例中,对于每一个关键点i对应坐标(xi,yi),通过以下公式,计算特定关键点之间的高度差H(i,j),相对距离L(i,j)和角度A(i,j,k):
H(i,j)=yj-yi i,j={0,1,2...n}
Figure BDA0003679536810000051
Figure BDA0003679536810000052
其中n代表关节点个数。
S04:将每一帧图像的所述特征工程数据输入训练好的动作分类模型,得到每一帧图像对应每一个动作的概率值。
在一个优选的实施例中,所述动作分类模型为XGBoost模型。
XGBoost算法是梯度增强回归树的一种改进算法,它引入了正则化的思想,来降低输的复杂度,从而获得更好的性能。本发明使用各个关节点高度差H(i,j),相对距离L(i,j)和角度A(i,j,k)作为预测分类结果的变量作为输入数据,则对于第i个输入xi,XGBoost预测结果为:
Figure BDA0003679536810000053
Figure BDA0003679536810000054
其中,
Figure BDA0003679536810000055
为模型对训练样本的预测值,fk表示第k个分类树,取值范围为[1,K];ωq(x)为分类树对样本结果的预测值;K为模型中分类树的总数。
XGBoost优化的目标函数为:
Figure BDA0003679536810000056
Figure BDA0003679536810000057
其中,
Figure BDA0003679536810000058
代表预测值关于真实值的损失函数;l是对单个样本的损失,
Figure BDA0003679536810000059
为模型对训练样本的预测值,yi为训练样本的真实标签值;Ω(fk)为目标函数的正则项;ωj为第j个叶子节点的输出,j的取值范围为[1,T],γ,λ为系数。
XGBoost通过每轮增加一棵树拟合上一轮预测结果的残差,通过不断增加新书达到降低损失的目的,通过将多个弱学习器集成变为一个强学习器,从而提高网络的准确率。
在一个优选的实施例中,如图2所示,所述动作分类模型的训练步骤包括以下子步骤:
S11:获取训练数据集,所述训练数据集包括多个羽毛球动作视频,每个视频对应一个动作标签;
S12:使用深度学习姿态估计算法提取每个视频的每帧图像的关键点坐标信息;
S13:根据所述坐标信息,构建每帧图像的特征工程数据;所述特征工程数据至少包括以下一项:特定关键点之间的高度差、特定关键点之间的相对距离和特定关键点所成的角度;
S14:根据所述特征工程数据与所述视频对应的动作标签,训练动作分类模型;
S15:保存训练好的动作分类模型。
优选的,在本项目中,通过300组以上的数据,每组数据至少30种特征的方式进行训练,提前需要进行数据预处理,并使用网格搜索将每个参数调到最优,使得预测准确率可达到90%以上;如果未能达到,则需要增大数据集,使预测准确率达到该精度。将训练好的模型保存。
S05:根据所有图像对应每一个动作的概率值,得到所述待分类的动作视频的动作分类结果。
在一个优选的实施例中,包括以下子步骤:
S051:计算整个视频中连续5帧图像对应的每一个动作的概率值之和。
S052:对于最大概率值之和,获取所述最大概率值之和对应的5帧图像及对应的动作。
S053:输出所述最大概率值之和对应的5帧图像为所述待分类的动作视频的关键帧。
S054:输出所述最大概率值之和对应的动作,为所述待分类的动作视频的动作分类结果。
具体的,使用以下公式,通过最大概率值方法获取关键帧,对整个视频中连续5帧预测值之和最大值的位置作为每一类动作的关键帧位置:
Figure BDA0003679536810000061
Wi代表每类动作的分类位置,j代表视频中从i到n帧,Pij代表第j帧第i类的概率值。通过这种方式确定视频分类的位置,提高分类结果的稳定性,同时如果视频具有强顺序性,可以通过顺序性判断分类结果的准确性。
本申请实施例还提供一种羽毛球动作识别装置,如图3所示,该羽毛球动作识别装置400包括:
视频获取模块401,用于获取待分类的动作视频,逐帧读取所述动作视频的图像;
关键点坐标提取模块402,用于对所述图像进行关键点坐标提取,获得每张所述图像中的人体关键点坐标信息;
特征工程数据构建模块403,用于根据所述坐标信息,构建每帧图像的特征工程数据;所述特征工程数据至少包括以下一项:特定关键点之间的高度差、特定关键点之间的相对距离和特定关键点所成的角度;
概率预测模块404,用于将每一帧图像的所述特征工程数据输入训练好的动作分类模型,得到每一帧图像对应每一个动作的概率值;
结果输出模块405,用于根据所有图像对应每一个动作的概率值,得到所述待分类的动作视频的动作分类结果型。
优选的,结果输出模块包括:
概率值之和计算单元,用于计算整个视频中连续5帧图像对应的每一个动作的概率值之和;
最大概率值之和获取单元,用于对于最大概率值之和,获取所述最大概率值之和对应的5帧图像及对应的动作;
关键帧输出单元,用于输出所述最大概率值之和对应的5帧图像为所述待分类的动作视频的关键帧;
动作分类结果输出单元,用于输出所述最大概率值之和对应的动作,为所述待分类的动作视频的动作分类结果。
优选的,所述动作分类模型的训练步骤包括:
获取训练数据集,所述训练数据集包括多个羽毛球动作视频,每个视频对应一个动作标签;
使用深度学习姿态估计算法提取每个视频的每帧图像的关键点坐标信息;
根据所述坐标信息,构建每帧图像的特征工程数据;所述特征工程数据至少包括以下一项:特定关键点之间的高度差、特定关键点之间的相对距离和特定关键点所成的角度;
根据所述特征工程数据与所述视频对应的动作标签,训练动作分类模型;
保存训练好的动作分类模型。
优选的,所述动作分类模型为XGBoost模型。
优选的,XGBoost模型优化的目标函数为:
Figure BDA0003679536810000071
Figure BDA0003679536810000072
其中,
Figure BDA0003679536810000081
代表预测值关于真实值的损失函数;Ω(fk)为目标函数的正则项;ωj为第j个叶子节点的输出,j的取值范围为[1,T],γ,λ为系数。
优选的,根据所述特征工程数据与所述视频对应的动作标签,训练动作分类模型,包括:
使用300组以上的数据,每组数据至少30种特征的方式进行训练;
当所述动作分类模型的预测准确率达到90%以上,停止训练;
当所述动作分类模型的预测准确率未达到90%以上,增大数据集重新训练,直至所述动作分类模型的预测准确率达到90%以上,得到训练好的动作分类模型。
优选的,视频获取模块包括:
OpenCV单元,用于使用OpenCV逐帧读取所述动作视频的图像。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供一种电子设备,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如前所述的一种羽毛球动作识别方法的步骤。
对于设备实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的设备实施例仅仅是示意性的,其中所述作为分离部件说明的组件可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本申请实施例还提供一种计算机可读存储介质,
所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如前所述的一种羽毛球动作识别方法的步骤。
计算机可用存储介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(R A M)、只读存储器(RO M)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
本发明提供的一种羽毛球动作识别方法、装置、电子设备及存储介质,(1)本发明首先是针对差异性大的问题,用迁移学习改进脑机接口的其中一种方法是将不同受试者的脑电数据进行对齐,本发明采用了欧几里得对齐方法,通过数学变换得到源域和目标域的参考矩阵,分别进行转换得到新的数据集,使得源受试者的协方差矩阵与目标受试者的协方差矩阵高度相似,以此来解决不同受试者数据统计分布不均以及实验数据适应性差的问题。
(2)本发明针对脑电数据中不同受试者之间存在较大个体差异性问题时,如果将辅助受试者的脑电数据直接加入目标受试者的脑电数据中进行模型训练,将会导致原有模型性能降低。但仍有可能在某些受试者的脑电信号中找到共同的信息。所以,为目标受试者寻找合适的迁移受试者的选择方法是非常有必要的,本发明通过采用KL散度方法选择与目标受试者更相似的数据样本,不仅使得辅助样本集更加接近,显著提升了分类准确率,还大大减少了训练时间。
(3)本发明在传统脑机接口技术研究的基础上,将迁移学习思想应用于MI-BCI的分类,采用能有效减少训练特征数据和测试特征数据分布差异的深度迁移学习算法,充分利用大量有标注的训练样本资源,削弱在传统机器学习中训练数据样本和测试数据样本独立同分布的条件,从而提高分类器的分类效果。
综上,如图3所述,本发明在针对运动想象脑电信号分类中取得了83.59%的准确率,高于对比的3种算法。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (10)

1.一种羽毛球动作识别方法,其特征在于,包括以下步骤:
获取待分类的动作视频,逐帧读取所述动作视频的图像;
对所述图像进行关键点坐标提取,获得每张所述图像中的人体关键点坐标信息;
根据所述坐标信息,构建每帧图像的特征工程数据;所述特征工程数据至少包括以下一项:特定关键点之间的高度差、特定关键点之间的相对距离和特定关键点所成的角度;
将每一帧图像的所述特征工程数据输入训练好的动作分类模型,得到每一帧图像对应每一个动作的概率值;
根据所有图像对应每一个动作的概率值,得到所述待分类的动作视频的动作分类结果。
2.根据权利要求1所述的一种羽毛球动作识别方法,其特征在于,根据所有图像对应每一个动作的概率值,得到所述待分类的动作视频的动作分类结果,包括:
计算整个视频中连续5帧图像对应的每一个动作的概率值之和;
对于最大概率值之和,获取所述最大概率值之和对应的5帧图像及对应的动作;
输出所述最大概率值之和对应的5帧图像为所述待分类的动作视频的关键帧;
输出所述最大概率值之和对应的动作,为所述待分类的动作视频的动作分类结果。
3.根据权利要求1所述的一种羽毛球动作识别方法,其特征在于,所述动作分类模型的训练步骤包括:
获取训练数据集,所述训练数据集包括多个羽毛球动作视频,每个视频对应一个动作标签;
使用深度学习姿态估计算法提取每个视频的每帧图像的关键点坐标信息;
根据所述坐标信息,构建每帧图像的特征工程数据;所述特征工程数据至少包括以下一项:特定关键点之间的高度差、特定关键点之间的相对距离和特定关键点所成的角度;
根据所述特征工程数据与所述视频对应的动作标签,训练动作分类模型;
保存训练好的动作分类模型。
4.根据权利要求3所述的一种羽毛球动作识别方法,其特征在于:
所述动作分类模型为XGBoost模型。
5.根据权利要求4所述的一种羽毛球动作识别方法,其特征在于,XGBoost模型优化的目标函数为:
Figure FDA0003679536800000011
Figure FDA0003679536800000012
其中,
Figure FDA0003679536800000021
代表预测值关于真实值的损失函数;Ω(fk)为目标函数的正则项;ωj为第j个叶子节点的输出,j的取值范围为[1,T],γ,λ为系数。
6.根据权利要求5所述的一种羽毛球动作识别方法,其特征在于,根据所述特征工程数据与所述视频对应的动作标签,训练动作分类模型,包括:
使用300组以上的数据,每组数据至少30种特征的方式进行训练;
当所述动作分类模型的预测准确率达到90%以上,停止训练;
当所述动作分类模型的预测准确率未达到90%以上,增大数据集重新训练,直至所述动作分类模型的预测准确率达到90%以上,得到训练好的动作分类模型。
7.根据权利要求1或3所述的一种羽毛球动作识别方法,其特征在于,逐帧读取所述动作视频的图像,包括:
使用OpenCV逐帧读取所述动作视频的图像。
8.一种羽毛球动作识别装置,其特征在于,包括:
视频获取模块,用于获取待分类的动作视频,逐帧读取所述动作视频的图像;
关键点坐标提取模块,用于对所述图像进行关键点坐标提取,获得每张所述图像中的人体关键点坐标信息;
特征工程数据构建模块,用于根据所述坐标信息,构建每帧图像的特征工程数据;所述特征工程数据至少包括以下一项:特定关键点之间的高度差、特定关键点之间的相对距离和特定关键点所成的角度;
概率预测模块,用于将每一帧图像的所述特征工程数据输入训练好的动作分类模型,得到每一帧图像对应每一个动作的概率值;
结果输出模块,用于根据所有图像对应每一个动作的概率值,得到所述待分类的动作视频的动作分类结果。
9.一种电子设备,其特征在于,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-7任一所述的一种羽毛球动作识别方法的步骤。
10.一种计算机可读存储介质,其特征在于:
所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-7任一所述的一种羽毛球动作识别方法的步骤。
CN202210630647.7A 2022-06-06 2022-06-06 一种羽毛球动作识别方法、装置、电子设备及存储介质 Pending CN115205961A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210630647.7A CN115205961A (zh) 2022-06-06 2022-06-06 一种羽毛球动作识别方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210630647.7A CN115205961A (zh) 2022-06-06 2022-06-06 一种羽毛球动作识别方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN115205961A true CN115205961A (zh) 2022-10-18

Family

ID=83575343

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210630647.7A Pending CN115205961A (zh) 2022-06-06 2022-06-06 一种羽毛球动作识别方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN115205961A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117333947A (zh) * 2023-10-18 2024-01-02 首都体育学院 一种羽毛球动作分析方法与系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117333947A (zh) * 2023-10-18 2024-01-02 首都体育学院 一种羽毛球动作分析方法与系统
CN117333947B (zh) * 2023-10-18 2024-05-10 首都体育学院 一种羽毛球动作分析方法与系统

Similar Documents

Publication Publication Date Title
Wang et al. Detect globally, refine locally: A novel approach to saliency detection
CN111709409B (zh) 人脸活体检测方法、装置、设备及介质
CN110909651B (zh) 视频主体人物的识别方法、装置、设备及可读存储介质
Girdhar et al. Actionvlad: Learning spatio-temporal aggregation for action classification
US9639746B2 (en) Systems and methods of detecting body movements using globally generated multi-dimensional gesture data
CN107122752B (zh) 一种人体动作比对方法及装置
CN109816689A (zh) 一种多层卷积特征自适应融合的运动目标跟踪方法
CN110414432A (zh) 对象识别模型的训练方法、对象识别方法及相应的装置
CN109359539B (zh) 注意力评估方法、装置、终端设备及计算机可读存储介质
CN110503000B (zh) 一种基于人脸识别技术的教学抬头率测量方法
CN110765882B (zh) 一种视频标签确定方法、装置、服务器及存储介质
Kovač et al. Frame–based classification for cross-speed gait recognition
CN111209897A (zh) 视频处理的方法、装置和存储介质
CN111161314A (zh) 目标对象的位置区域确定方法、装置、电子设备及存储介质
CN114332911A (zh) 一种头部姿态检测方法、装置及计算机设备
CN110516638B (zh) 一种基于轨迹和随机森林的手语识别方法
Wu et al. Generic proposal evaluator: A lazy learning strategy toward blind proposal quality assessment
CN115205961A (zh) 一种羽毛球动作识别方法、装置、电子设备及存储介质
CN113283334B (zh) 一种课堂专注度分析方法、装置和存储介质
CN114492634A (zh) 一种细粒度装备图片分类识别方法及系统
CN109492702A (zh) 基于排序度量函数的行人重识别方法、系统、装置
CN115527083A (zh) 图像标注方法、装置和电子设备
CN114841887A (zh) 一种基于多层次差异学习的图像恢复质量评价方法
Kim et al. Semi-autonomous learning of objects
CN112580526A (zh) 基于视频监控的学生课堂行为识别系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination