CN112396001B - 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法 - Google Patents

基于人体姿态估计和tpa注意力机制的跳绳个数统计方法 Download PDF

Info

Publication number
CN112396001B
CN112396001B CN202011309507.7A CN202011309507A CN112396001B CN 112396001 B CN112396001 B CN 112396001B CN 202011309507 A CN202011309507 A CN 202011309507A CN 112396001 B CN112396001 B CN 112396001B
Authority
CN
China
Prior art keywords
rope skipping
vector
human body
waist
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011309507.7A
Other languages
English (en)
Other versions
CN112396001A (zh
Inventor
唐义平
汪斌
颜宋宋
丁美双
彭思瑶
李帷韬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Yishi Technology Co ltd
Original Assignee
Anhui Yishi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Yishi Technology Co ltd filed Critical Anhui Yishi Technology Co ltd
Priority to CN202011309507.7A priority Critical patent/CN112396001B/zh
Publication of CN112396001A publication Critical patent/CN112396001A/zh
Application granted granted Critical
Publication of CN112396001B publication Critical patent/CN112396001B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content

Abstract

本发明公开了一种基于人体姿态估计和TPA注意力机制的跳绳个数统计方法,其步骤包括:1、使用Openpose模型提取跳绳动作视频中的人体关键点;2、得到关键点与基准线距离关于时间的波形图;3、构建并训练基于TPA注意力机制的SRNN模型;4、综合考虑判断条件1和判断条件2判断是否有跳绳动作。本发明能通过设备实时检测出被检测对象的跳绳个数,从而有效提高检测精度和效率。

Description

基于人体姿态估计和TPA注意力机制的跳绳个数统计方法
技术领域
本发明属于人工智能应用领域,目标识别技术、人体姿态估计技术、深度学习技术,具体的说是一种基于人体姿态估计和TPA注意力机制的跳绳个数统计方法。
背景技术
目前对于体育动作的评判仍然停留在人工阶段,而日益增长的评判需求驱使人工智能的发展。
递归神经网络(RNN)已被广泛应用于许多自然语言处理任务中,包括机器翻译、问题回答、图像说明以及文档分类。RNN具有获得输入序列的顺序信息的能力。最流行的两个递归单位是长短期记忆(LSTM)和门控递归单位(GRU),这两个单位都可以将先前的记忆储存在隐藏状态,并使用门控机制来确定应该将多少先前的记忆与当前的输入结合起来。然而,由于递归结构,RNN不能并行计算。因此,训练RNN需要花费大量的时间,这限制了学术研究和工业应用。为了解决这个问题,几位学者试图在自然语言处理领域使用卷积神经网络而不是RNN。然而,CNN可能无法获得序列的顺序信息,这在NLP任务中是非常重要的。
一些学者试图通过改进循环单元来提高神经网络的速度,并取得了较好的效果。Bradbury等人在2017年提出的准递归神经网络(QRNN)通过将CNN与RNN相结合,速度提高了16倍。雷等人提出了简单循环单元(SRU),其速度是LSTM的5-10倍。同样,Balduzzi和Ghifary在2016年提出的强类型递归神经网络(T-RNN)和最小门限单元(MGU)也是可以改变递归单元的方法。尽管RNN在这些研究中取得了更快的速度,递归单元有所改善,但整个序列之间的递归结构保持不变。由于还需要等待上一步的输出,所以RNN的瓶颈仍然存在。
在日常生活中,通过传感器在离散时间步长上产生的不断变化的变量,并将它们组织成的时间序列数据无处不在。例如,家庭用电量、道路占有率、货币汇率、太阳能发电量,甚至音符都可以看作是时间序列数据。在大多数情况下,收集的数据通常是多变量时间序列(MTS)数据,不同序列之间可能存在复杂的动态相互依赖关系,这些依赖关系很重要,但很难捕获和分析。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出一种基于人体姿态估计和TPA注意力机制的跳绳个数统计方法,以期能实时检测出被检测对象的跳绳个数,从而能提高检测精度和效率。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于人体姿态估计和TPA注意力机制的跳绳个数统计方法的特点是按如下步骤进行:
步骤1:采集在基准线上身体正面的跳绳动作视频;
步骤2:使用YOLO-V5模型对所述跳绳动作视频进行检测,并将所检测出的人体区域进行放大处理,得出放大后的人体区域视频;
步骤3:使用Openpose模型对所述放大后的人体区域视频进行检测,得到人体关键点向量集合;
步骤4:提取所述人体关键点向量集合中所有腰部的关键点向量M=[X1,1,Y1,1,D1,1,X1,2,Y1,2,D1,2,…,X1,u,Y1,u,D1,u,…,X1,s,Y1,s,D1,s]、左脚踝部位的关键点向量L=[X2,1,Y2,1,D2,1,X2,2,Y2,2,D2,2,…,X2,u,Y2,u,D2,u,…,X2,s,Y2,s,D2,s]、右脚踝部位的关键点向量R=[X3,1,Y3,1,D3,1,X3,2,Y3,2,D3,2,…,X3,u,Y3,u,D3,u,…,X3,s,Y3,s,D3,s];其中,X1,u,Y1,u,D1,u表示腰部的关键点向量在第u个图像的横坐标、纵坐标和置信度;X2,u,Y2,u,D2,u表示左脚踝部位的关键点向量在第u个图像的横坐标、纵坐标和置信度;X3,u,Y3,u,D3,u表示右脚踝部位的关键点向量在第u个图像的横坐标、纵坐标和置信度;u∈[1,s];s表示图像的总帧数;
步骤5:以时间t作为横坐标,分别以腰部、左、右脚踝部位的关键点向量的横、纵坐标与基准线的距离d作为纵坐标,从而构建关于d-t的腰部、左、右脚踝部位的散点图,并拟合成腰部、左、右脚踝部位的波形图,依次记为dM-t、dL-t、dR-t;
步骤6:计数判断条件1:
当ε1<M|峰-谷|<ε2且ε3<L|峰-谷|<ε4且ε5<R|峰-谷|<ε6时,则表示有跳绳动作;其中,ε1、ε2、ε3、ε4、ε5、ε6分别大于0的不同界限值;M|峰-谷|表示腰部的波形图dM-t在单个周期时间内波峰减去波谷的数值,L|峰-谷|表示左脚踝部位的波形图dL-t在单个周期时间内波峰减去波谷的数值;R|峰-谷|是右脚踝部位的波形图dR-t在单个周期时间内波峰减去波谷的数值;
步骤7:计数判断条件2是采用基于TPA注意力机制的SRNN模型的输出结果进行计数辅助判断;
步骤7.1:构建数据集;
分别选取腰部、左、右脚踝部位的波形图dM-t、dL-t、dR-t的单个周期内T个纵坐标所对应的距离数据依次作为腰部、左、右脚踝部位的输入序列xr=[xr,1,xr,2,...,xr,T];r=1,2,3分别表示腰部、左、右脚踝部位;xr,T分别腰部、左或右脚踝部位的第T个距离数据;
步骤7.2:构建SRNN模型;
步骤7.2.1:将输入序列xr分成p个等长的子序列,每个子序列N的长度
Figure BDA0002789348590000031
则划分后的输入序列记为x′r=[N1,N2,...,Np],Np表示第p个子序列;
步骤7.2.2:按照步骤7.2.1不断地将划分后的输入序列继续分成n个等长的子序列,直到最后第q次划分时的输入序列中每个子序列的元素个数小于n为止;并将第q次划分时的输入序列x′r,q中子序列的总个数记为S0=nq
步骤7.3:构建TPA注意力机制;
步骤7.3.1:将所述第q次划分时的输入序列x′r,q输入SRNN模型中,并将模型每一层中所生成的nq个n×1维的隐藏状态向量拼接为隐藏状态矩阵,选取所述隐藏状态矩阵中末尾的w个隐藏状态组成n×w维的状态矩阵H=[h1,h2,…,hw],其中,w为窗口大小;hw表示第w个隐藏状态;
步骤7.3.2:使用k个1×w维的CNN滤波器对状态矩阵H的行向量进行卷积操作,得到卷积操作后的n×k维状态矩阵HC={Hi,j C|i=1,2,…,n;j=1,2,…,k};其中,Hi,j C表示第i行向量和第j个滤波器的卷积值;
步骤7.3.3:利用式(1)构造评分函数f(Hi C,ht):
f(Hi C,ht)=(Hi C)TWaht (1)
式(1)中,Hi C是状态矩阵HC的第i行数据;ht表示当前时刻tSRNN模型输出的隐藏状态向量,Wa表示k×m维的权重系数矩阵;
步骤7.3.4:利用式(2)构造关注权重αi
αi=sigmoid(f(Hi C,ht)) (2)
式(2)中,sigmoid(·)表示sigmoid激活函数;
步骤7.3.5:利用式(3)得到k×1维当前时刻t的上下文向量vt
Figure BDA0002789348590000041
步骤7.3.6:利用式(4)得到基于TPA注意力机制的SRNN模型所输出的预测结果y,所述预测结果y为是否跳绳动作;
y=Wh′h′t (4)
式(4)中,Wh′表示n×m维的权重系数矩阵,h′t表示更新后当前时刻t的隐藏状态向量,并有:
h′t=Whht+Wvvt (5)
式(5)中,Wh表示m×m维的权重系数矩阵,Wv表示m×k维的权重系数矩阵;
步骤8:当计数判断条件1或计数判断条件2判断出跳绳动作,则跳绳计数加一。
与现有技术相比,本发明的有益效果在于:
1、跳绳动作识别对实时性的要求很高,本发明引用的Openpose模型的处理速度非常快,既可保证人体关键点检测的准确性,也可保证模型达到实时检测的要求。
2、跳绳动作识别需要通过很多次的训练从而挑选出一个表现效果最好的模型,本发明引入了切片递归神经网络(SRNN),它通过将序列分成多个子序列来并行化,大大节省了模型训练的时间,为实现该跳绳计数提供了一种高效且实用的训练方法。
3、为了提高跳绳动作识别的准确率,本发明引入了一种TPA时间模式注意力机制,通过TPA时间模式注意力机制大大提升了模型对高级信息的提取能力,该注意力机制很好的契合了以多个关键点为输入序列的数据类型,提高了跳绳动作识别的准确率。
附图说明
图1为本发明跳绳个数统计方法流程图;
图2为本发明关键点与基准线距离关于时间的波形图;
图3为本发明构建的基于TPA注意力机制的SRNN模型图。
具体实施方式
本实施例中,参照图1,一种基于人体姿态估计和TPA注意力机制的跳绳个数统计方法是按如下步骤进行:
步骤1:采集在基准线上身体正面的跳绳动作视频;
步骤2:使用YOLO-V5模型对跳绳动作视频进行检测,并将所检测出的人体区域进行放大处理,得出放大后的人体区域视频;
本实施例中,放大倍数选取1.1倍。
步骤3:使用Openpose模型对放大后的人体区域视频进行检测,得到人体关键点向量集合;
本实施例中,Openpose模型共提取25个人体关键点坐标,关键点坐标以.json的文件格式保存。
步骤4:提取所述人体关键点向量集合中所有腰部的关键点向量M=[X1,1,Y1,1,D1,1,X1,2,Y1,2,D1,2,…,X1,u,Y1,u,D1,u,…,X1,s,Y1,s,D1,s]、左脚踝部位的关键点向量L=[X2,1,Y2,1,D2,1,X2,2,Y2,2,D2,2,…,X2,u,Y2,u,D2,u,…,X2,s,Y2,s,D2,s]、右脚踝部位的关键点向量R=[X3,1,Y3,1,D3,1,X3,2,Y3,2,D3,2,…,X3,u,Y3,u,D3,u,…,X3,s,Y3,s,D3,s];其中,X1,u,Y1,u,D1,u表示腰部的关键点向量在第u个图像的横坐标、纵坐标和置信度;X2,u,Y2,u,D2,u表示左脚踝部位的关键点向量在第u个图像的横坐标、纵坐标和置信度;X3,u,Y3,u,D3,u表示右脚踝部位的关键点向量在第u个图像的横坐标、纵坐标和置信度;u∈[1,s];s表示图像的总帧数;
步骤5:以时间t作为横坐标,分别以腰部、左、右脚踝部位的关键点向量的横、纵坐标与基准线的距离d作为纵坐标,从而构建关于d-t的腰部、左、右脚踝部位的散点图,并拟合成腰部、左、右脚踝部位的波形图,依次记为dM-t、dL-t、dR-t;
本实施例中,每个周期内取20个坐标点,并拟合成曲线。关键点与基准线距离关于时间的波形如图2所示,其中,横坐标为时间,单位为秒,纵坐标为缩放后的幅值。
步骤6:计数判断条件1:
当ε1<M|峰-谷|<ε2且ε3<L|峰-谷|<ε4且ε5<R|峰-谷|<ε6时,则表示有跳绳动作;其中,ε1、ε2、ε3、ε4、ε5、ε6分别大于0的不同界限值;M|峰-谷|表示腰部的波形图dM-t在单个周期时间内波峰减去波谷的数值,L|峰-谷|表示左脚踝部位的波形图dL-t在单个周期时间内波峰减去波谷的数值;R|峰-谷|是右脚踝部位的波形图dR-t在单个周期时间内波峰减去波谷的数值;
步骤7:计数判断条件2是采用基于TPA注意力机制的SRNN模型的输出结果进行计数辅助判断;
步骤7.1:构建数据集;
分别选取腰部、左、右脚踝部位的波形图dM-t、dL-t、dR-t的单个周期内T个纵坐标所对应的距离数据依次作为腰部、左、右脚踝部位的输入序列xr=[xr,1,xr,2,...,xr,T];r=1,2,3分别表示腰部、左、右脚踝部位;xr,T分别腰部、左或右脚踝部位的第T个距离数据;
步骤7.2:构建SRNN模型;
步骤7.2.1:将输入序列xr分成p个等长的子序列,每个子序列N的长度
Figure BDA0002789348590000061
则划分后的输入序列记为x′r=[N1,N2,...,Np],Np表示第p个子序列;
步骤7.2.2:按照步骤7.2.1不断地将划分后的输入序列继续分成n个等长的子序列,直到最后第q次划分时的输入序列中每个子序列的元素个数小于n为止;并将第q次划分时的输入序列x′r,q中子序列的总个数记为S0=nq
第0层的最小子序列长度为:
Figure BDA0002789348590000062
由于第j层的每个父序列(j>0)都被分成n个部分,因此第j层的子序列数为:
Sj=nq-j
则第j层的子序列长度为:
Lj=n
步骤7.3:构建TPA注意力机制;
步骤7.3.1:将第q次划分时的输入序列x′r,q输入SRNN模型中,并将模型每一层中所生成的nq个n×1维的隐藏状态向量拼接为隐藏状态矩阵,选取隐藏状态矩阵中末尾的w个隐藏状态组成n×w维的状态矩阵H=[h1,h2,…,hw],其中,w为窗口大小;hw表示第w个隐藏状态;
步骤7.3.2:使用k个1×w维的CNN滤波器对状态矩阵H的行向量进行卷积操作,得到卷积操作后的n×k维状态矩阵HC={Hi,j C|i=1,2,…,n;j=1,2,…,k};其中,Hi,j C表示第i行向量和第j个滤波器的卷积值;
步骤7.3.3:利用式(1)构造评分函数f(Hi C,ht):
f(Hi C,ht)=(Hi C)TWaht (1)
式(1)中,Hi C是状态矩阵HC的第i行数据;ht表示当前时刻t SRNN模型输出的隐藏状态向量,Wa表示k×m维的权重系数矩阵;
步骤7.3.4:利用式(2)构造关注权重αi
αi=sigmoid(f(Hi C,ht)) (2)
式(2)中,sigmoid(·)表示sigmoid激活函数;
步骤7.3.5:利用式(3)得到k×1维当前时刻t的上下文向量vt
Figure BDA0002789348590000071
步骤7.3.6:利用式(4)得到基于TPA注意力机制的SRNN模型所输出的预测结果y,所述预测结果y为是否跳绳动作;
y=Wh′h′t (4)
式(4)中,Wh′表示n×m维的权重系数矩阵,h′t表示更新后当前时刻t的隐藏状态向量,并有:
h′t=Whht+Wvvt (5)
式(5)中,Wh表示m×m维的权重系数矩阵,Wv表示m×k维的权重系数矩阵;
本实施例中,步骤7所构建的基于TPA注意力机制的SRNN模型如图3所示。输入序列通过SRNN模型输出隐藏状态矩阵H,使用k个1×w维的CNN滤波器对状态矩阵H的行向量进行卷积操作,得到卷积操作后的n×k维状态矩阵HC={Hi,j C|i=1,2,…,n;j=1,2,…,k}。其中,行向量代表单个变量在所有时间步下状态,即同一变量的所有时间步构成的向量,列向量代表单个时间步状态,即同一时间步下的所有变量构成的向量。
步骤8:当计数判断条件1或计数判断条件2判断出跳绳动作,则跳绳计数加一。

Claims (1)

1.一种基于人体姿态估计和TPA注意力机制的跳绳个数统计方法,其特征是按如下步骤进行:
步骤1:采集在基准线上身体正面的跳绳动作视频;
步骤2:使用YOLO-V5模型对所述跳绳动作视频进行检测,并将所检测出的人体区域进行放大处理,得出放大后的人体区域视频;
步骤3:使用Openpose模型对所述放大后的人体区域视频进行检测,得到人体关键点向量集合;
步骤4:提取所述人体关键点向量集合中所有腰部的关键点向量M=[X1,1,Y1,1,D1,1,X1,2,Y1,2,D1,2,…,X1,u,Y1,u,D1,u,…,X1,s,Y1,s,D1,s]、左脚踝部位的关键点向量L=[X2,1,Y2,1,D2,1,X2,2,Y2,2,D2,2,…,X2,u,Y2,u,D2,u,…,X2,s,Y2,s,D2,s]、右脚踝部位的关键点向量R=[X3,1,Y3,1,D3,1,X3,2,Y3,2,D3,2,…,X3,u,Y3,u,D3,u,…,X3,s,Y3,s,D3,s];其中,X1,u,Y1,u,D1,u表示腰部的关键点向量在第u个图像的横坐标、纵坐标和置信度;X2,u,Y2,u,D2,u表示左脚踝部位的关键点向量在第u个图像的横坐标、纵坐标和置信度;X3,u,Y3,u,D3,u表示右脚踝部位的关键点向量在第u个图像的横坐标、纵坐标和置信度;u∈[1,s];s表示图像的总帧数;
步骤5:以时间t作为横坐标,分别以腰部、左、右脚踝部位的关键点向量的横、纵坐标与基准线的距离d作为纵坐标,从而构建关于d-t的腰部、左、右脚踝部位的散点图,并拟合成腰部、左、右脚踝部位的波形图,依次记为dM-t、dL-t、dR-t;
步骤6:计数判断条件1:
当ε1<M|峰-谷|<ε2且ε3<L|峰-谷|<ε4且ε5<R|峰-谷|<ε6时,则表示有跳绳动作;其中,ε1、ε2、ε3、ε4、ε5、ε6分别是大于0的不同界限值;M|峰-谷|表示腰部的波形图dM-t在单个周期时间内波峰减去波谷的数值,L|峰-谷|表示左脚踝部位的波形图dL-t在单个周期时间内波峰减去波谷的数值;R|峰-谷|是右脚踝部位的波形图dR-t在单个周期时间内波峰减去波谷的数值;
步骤7:计数判断条件2是采用基于TPA注意力机制的SRNN模型的输出结果进行计数辅助判断;
步骤7.1:构建数据集;
分别选取腰部、左、右脚踝部位的波形图dM-t、dL-t、dR-t的单个周期内T个纵坐标所对应的距离数据依次作为腰部、左、右脚踝部位的输入序列xr=[xr,1,xr,2,...,xr,T];r=1,2,3分别表示腰部、左、右脚踝部位;xr,T分别腰部、左或右脚踝部位的第T个距离数据;
步骤7.2:构建SRNN模型;
步骤7.2.1:将输入序列xr分成p个等长的子序列,每个子序列N的长度
Figure FDA0003630405340000021
则划分后的输入序列记为x′r=[N1,N2,...,Np],Np表示第p个子序列;
步骤7.2.2:按照步骤7.2.1不断地将划分后的输入序列继续分成n个等长的子序列,直到最后第q次划分时的输入序列中每个子序列的元素个数小于n为止;并将第q次划分时的输入序列x′r,q中子序列的总个数记为S0=nq
步骤7.3:构建TPA注意力机制;
步骤7.3.1:将所述第q次划分时的输入序列x′r,q输入SRNN模型中,并将模型每一层中所生成的nq个n×1维的隐藏状态向量拼接为隐藏状态矩阵,选取所述隐藏状态矩阵中末尾的w个隐藏状态组成n×w维的状态矩阵H=[h1,h2,…,hw],其中,hw表示第w个隐藏状态;
步骤7.3.2:使用k个1×w维的CNN滤波器对状态矩阵H的行向量进行卷积操作,得到卷积操作后的n×k维状态矩阵HC={Hi,j C|i=1,2,…,n;j=1,2,…,k};其中,Hi,j C表示第i行向量和第j个滤波器的卷积值;
步骤7.3.3:利用式(1)构造评分函数f(Hi C,ht):
f(Hi C,ht)=(Hi C)TWaht (1)
式(1)中,Hi C是状态矩阵HC的第i行数据;ht表示当前时刻tSRNN模型输出的隐藏状态向量,Wa表示k×m维的权重系数矩阵;
步骤7.3.4:利用式(2)构造关注权重αi
αi=sigmoid(f(Hi C,ht)) (2)
式(2)中,sigmoid(·)表示sigmoid激活函数;
步骤7.3.5:利用式(3)得到k×1维当前时刻t的上下文向量vt
Figure FDA0003630405340000031
步骤7.3.6:利用式(4)得到基于TPA注意力机制的SRNN模型所输出的预测结果y,所述预测结果y为是否跳绳动作;
y=Wh′h′t (4)
式(4)中,Wh′表示n×m维的权重系数矩阵,h′t表示更新后当前时刻t的隐藏状态向量,并有:
h′t=Whht+Wvvt (5)
式(5)中,Wh表示m×m维的权重系数矩阵,Wv表示m×k维的权重系数矩阵;
步骤8:当计数判断条件1或计数判断条件2判断出跳绳动作,则跳绳计数加一。
CN202011309507.7A 2020-11-20 2020-11-20 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法 Active CN112396001B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011309507.7A CN112396001B (zh) 2020-11-20 2020-11-20 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011309507.7A CN112396001B (zh) 2020-11-20 2020-11-20 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法

Publications (2)

Publication Number Publication Date
CN112396001A CN112396001A (zh) 2021-02-23
CN112396001B true CN112396001B (zh) 2022-07-12

Family

ID=74605965

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011309507.7A Active CN112396001B (zh) 2020-11-20 2020-11-20 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法

Country Status (1)

Country Link
CN (1) CN112396001B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966597A (zh) * 2021-03-04 2021-06-15 山东云缦智能科技有限公司 一种基于骨骼关键点的人体运动动作计数方法
CN113318419B (zh) * 2021-06-11 2022-09-23 上海铼锶信息技术有限公司 一种智能跳绳防作弊方法及系统
CN113327241B (zh) * 2021-06-16 2023-02-24 南昌航空大学 一种轴承端面的表面缺陷视觉检测方法及系统
CN117079192B (zh) * 2023-10-12 2024-01-02 东莞先知大数据有限公司 一种人员被遮挡时跳绳个数估算方法、装置、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109276841A (zh) * 2018-06-26 2019-01-29 惠州市德赛工业研究院有限公司 一种基于智能手环的跳绳检测方法
CN110503077A (zh) * 2019-08-29 2019-11-26 郑州大学 一种基于视觉的实时人体动作分析方法
CN110956139A (zh) * 2019-12-02 2020-04-03 郑州大学 一种基于时间序列回归预测的人体运动动作分析方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200302187A1 (en) * 2015-07-17 2020-09-24 Origin Wireless, Inc. Method, apparatus, and system for people counting and recognition based on rhythmic motion monitoring
US20190138887A1 (en) * 2017-11-01 2019-05-09 Board Of Trustees Of Michigan State University Systems, methods, and media for gated recurrent neural networks with reduced parameter gating signals and/or memory-cell units
CN109086865B (zh) * 2018-06-11 2022-01-28 上海交通大学 一种基于切分循环神经网络的序列模型建立方法
CN109737952B (zh) * 2018-12-12 2022-11-01 安徽华米信息科技有限公司 跳绳数据处理方法、装置及可穿戴设备
CN110210360B (zh) * 2019-05-24 2021-01-08 浙江大学 一种基于视频图像目标识别的跳绳计数方法
CN110991340B (zh) * 2019-12-03 2023-02-28 郑州大学 一种基于图像压缩的人体动作分析方法
CN111553543B (zh) * 2020-05-18 2022-11-18 润联软件系统(深圳)有限公司 基于TPA-Seq2Seq的电力负荷预测方法及相关组件
CN111701216B (zh) * 2020-06-29 2021-07-23 广东小天才科技有限公司 跳绳计数实现方法、系统、腕式可穿戴设备和存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109276841A (zh) * 2018-06-26 2019-01-29 惠州市德赛工业研究院有限公司 一种基于智能手环的跳绳检测方法
CN110503077A (zh) * 2019-08-29 2019-11-26 郑州大学 一种基于视觉的实时人体动作分析方法
CN110956139A (zh) * 2019-12-02 2020-04-03 郑州大学 一种基于时间序列回归预测的人体运动动作分析方法

Also Published As

Publication number Publication date
CN112396001A (zh) 2021-02-23

Similar Documents

Publication Publication Date Title
CN112396001B (zh) 基于人体姿态估计和tpa注意力机制的跳绳个数统计方法
CN107341452B (zh) 基于四元数时空卷积神经网络的人体行为识别方法
CN109472194B (zh) 一种基于cblstm算法模型的运动想象脑电信号特征识别方法
CN106407889B (zh) 基于光流图深度学习模型在视频中人体交互动作识别方法
Chung et al. An efficient hand gesture recognition system based on deep CNN
CN108133188A (zh) 一种基于运动历史图像与卷积神经网络的行为识别方法
Liu et al. Facial expression recognition using hybrid features of pixel and geometry
CN110048827B (zh) 一种基于深度学习卷积神经网络的类模板攻击方法
CN113496217B (zh) 视频图像序列中人脸微表情识别方法
CN110575663A (zh) 一种基于人工智能的体育辅助训练方法
CN114782737A (zh) 一种基于改进残差网络的图像分类方法、设备和存储介质
CN112883931A (zh) 基于长短期记忆网络的实时真假运动判断方法
CN111291713B (zh) 一种基于骨架的手势识别方法及系统
CN112149645A (zh) 基于生成对抗学习和图神经网络的人体姿势关键点识别方法
Gong et al. DeepfakeNet, an efficient deepfake detection method
CN116956222A (zh) 一种基于自适应特征提取的多复杂度行为识别系统及方法
Wang et al. A multi-dimensional parallel convolutional connected network based on multi-source and multi-modal sensor data for human activity recognition
CN113743247A (zh) 基于Reders模型的手势识别方法
CN113327269A (zh) 一种无标记颈椎运动检测方法
Wang et al. Deep learning model for human activity recognition and prediction in smart Homes
Sultana et al. A Deep CNN based Kaggle Contest Winning Model to Recognize Real-Time Facial Expression
Wang Improved facial expression recognition method based on gan
Wang An Expression Recognition Method based on Improved Convolutional Network
van Staden et al. An Evaluation of YOLO-Based Algorithms for Hand Detection in the Kitchen
Khare et al. Human Activity Recognition in a Realistic and Multiview Environment Based on Two-Dimensional Convolutional Neural Network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant