CN112818801A - 运动计数方法、识别装置、识别系统及存储介质 - Google Patents
运动计数方法、识别装置、识别系统及存储介质 Download PDFInfo
- Publication number
- CN112818801A CN112818801A CN202110104910.4A CN202110104910A CN112818801A CN 112818801 A CN112818801 A CN 112818801A CN 202110104910 A CN202110104910 A CN 202110104910A CN 112818801 A CN112818801 A CN 112818801A
- Authority
- CN
- China
- Prior art keywords
- motion
- vector
- counting
- frame
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 91
- 238000000034 method Methods 0.000 title claims abstract description 60
- 239000013598 vector Substances 0.000 claims abstract description 70
- 230000009471 action Effects 0.000 claims abstract description 52
- 238000003062 neural network model Methods 0.000 claims abstract description 40
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 20
- 238000010586 diagram Methods 0.000 claims abstract description 20
- 238000007781 pre-processing Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 10
- 230000003252 repetitive effect Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 1
- 239000011159 matrix material Substances 0.000 abstract description 6
- 239000000284 extract Substances 0.000 abstract description 2
- 239000010410 layer Substances 0.000 description 13
- 238000012549 training Methods 0.000 description 9
- 239000002131 composite material Substances 0.000 description 8
- 230000009286 beneficial effect Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000386 athletic effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种运动计数方法,包括通过建立残差神经网络模型提取视频数据中的目标数据,并依据算法数据流图获取逻辑值向量和每帧占比向量,然后根据所述每帧占比向量与所述逻辑值向量获得动作计数值。本发明的所述运动计数方法通过建立残差神经网络模型提取视频数据中的目标数据,对拍摄动作的角度没有特殊要求,就能够通过运动动作间相似性矩阵判断重复动作个数,结合依据算法数据流图获取逻辑值向量和每帧占比向量以及根据每帧占比向量与逻辑值向量获得动作计数值,提高了运动计数的准确性。本发明还提供了执行所述运动计数方法的识别装置和识别系统以及存储所述运动计数方法的存储介质。
Description
技术领域
本发明涉及计数系统技术领域,尤其涉及一种运动计数方法、识别装置、识别系统及存储介质。
背景技术
对重复动作的精准统计,如对俯卧撑、仰卧起坐、引体上向等个数的精准计量,是运动会以及体能测试中必备的。现有动作计数法很多,例如公开号为CN110210360A的中国专利申请通过人脸检测算法确定每帧人脸区域及中心点高度坐标,绘制其随时间变化曲线,依据过零点判断跳绳个数。基于人体骨骼关节点检测计算法进行俯卧撑、跳绳等运动个数统计。公开号为CN108744471A的中国专利申请揭示的基于智能手环动作计数法对跳绳数据分别于X轴、Y轴方向进行周期处理,融合双向结果得到计数值。但上述的动作识别和计数方法只能针对一种或一类运动,局限性较大。
现有技术中的重复动作的识别的缺点还有:识别技术单一,只能针对某一特殊运动实现计数,不同的运动需要开发不同的计数方法。比如基于人脸计数法需人脸精准存在视频,丢失会误判;需要借助其他手段综合判断计数结果,有时运动相机捕捉不到人脸,比如俯卧撑运动时,人运动时,相机可能有某段时间拍摄不到运动员的脸部,会造成一些数据的遗失,从而降低了计数准确度。基于人体骨骼关键点检测计数法对拍摄角度要求高,鲁棒性不好。基于智能手环动作计数法只能计算需要手部运动的情况,俯卧撑等同样无法计算。
因此,有必要提供一种新型的运动计数方法以解决现有技术中存在的上述问题。
发明内容
本发明的目的在于提供一种应用于重复动作计数的运动计数方法以及应用所述运动计数方法的识别装置、识别系统和存储介质,以提高计数准确性。
为实现上述目的,本发明的所述运动计数方法包括:
S1:建立残差神经网络模型,于所述残差神经网络模型中构建算法数据流图;
S2:获取包含重复动作的视频数据,并对所述视频数据进行预处理,得到目标数据;
S3:将所述目标数据传输至所述残差神经网络模型中,并依据所述算法数据流图获取逻辑值向量和每帧占比向量;
S4:根据所述每帧占比向量与所述逻辑值向量获得动作计数值。
本发明的所述运动计数方法的有益效果在于:通过建立残差神经网络模型提取视频数据中的目标数据,对拍摄动作的角度没有特殊要求,就能够通过运动动作间相似性矩阵判断重复动作个数,结合依据算法数据流图获取逻辑值向量和每帧占比向量以及根据每帧占比向量与逻辑值向量获得动作计数值,提高了运动计数的准确性。
优选的,所述包含重复动作的视频数据来源于动态视频。其有益效果在于:能够更准确体现运动情况,有利于提高计数准确性。
优选的,所述步骤S1中,通过步长序列为循环特征处理主干网络和若干全连接层形成所述残差神经网络模型,所述主干网络和所述若干全连接层由连接网络融合连接而成。其有益效果在于:有利于通过运动动作间相似性矩阵判断重复动作个数。
进一步优选的,还包括通过所述步骤S1建立不同残差神经网络模型,所述不同残差神经网络模型的主干网络的层数不同。其有益效果在于:有助于后续通过不同动作计数值比较计数精度,从而提高计数的准确性。
进一步优选的,还包括分别通过不同的残差神经网络模型根据单个视频的计数精度计算得到若干平均计数精度,以所述若干平均计数精度中的最高平均计数精度所对应的残差神经网络模型得到的动作计数值作为计数结果。
进一步优选的,还包括根据所述动作计数值和标签数据计算所述单个视频的计数精度,所述标签数据为人工统计重复动作实验的重复个数。
进一步优选的,所述主干网络为ResNet50V2网络,所述ResNet50V2网络的层数至少为1。
优选的,所述步骤S2中,所述预处理包括通过截帧程序将所述视频数据转为图像数据,然后对所述图像数据进行去噪和尺度变换处理,得到所述目标数据。其有益效果在于:提高计数准确性。
优选的,所述步骤S3中,所述逻辑值向量和所述每帧占比向量的获取方法为:提取所述目标数据的比例特征,获得每帧占动作比例预测值向量和逻辑开关预测值向量;将所述逻辑开关预测值向量与预设逻辑阈值比较,获得所述逻辑值向量,并将每帧占动作比例预测值向量与预设每帧占比阈值比较,获得所述每帧占比向量。其有益效果在于:提高计数准确性。
本发明提供的识别装置包括存储器和处理器,所述处理器与存储器耦接,所述处理器基于存储在所述存储器中的程序执行所述运动计数方法。
本发明的所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现所述运动计数方法。
本发明的所述识别装置和所述存储介质的有益效果均在于:通过所述识别装置或存储介质执行所述运动计数方法,由于所述运动计数方法通过建立残差神经网络模型提取视频数据中的目标数据,对拍摄动作的角度没有特殊要求,就能够通过运动动作间相似性矩阵判断重复动作个数,结合依据算法数据流图获取逻辑值向量和每帧占比向量以及根据每帧占比向量与逻辑值向量获得动作计数值,提高了运动计数的准确性。
本发明的所述识别系统应用于实现所述运动计数方法,所述识别系统包括视频处理模块,用于提取原始视频中的包含重复动作的视频数据,并对所述视频数据进行预处理;传输模块,用于传输经所述预处理后形成的视频数据;模型构建模块,用于接收经所述预处理后形成的视频数据,构建残差神经网络模型并于所述残差神经网络模型中构建算法数据流图,依据所述算法数据流图获取逻辑值向量和每帧占比向量,以及根据所述每帧占比向量与所述逻辑值向量获得动作计数值。
本发明的所述识别系统的有益效果在于:通过所述模型构建模块构建残差神经网络模型以处理经所述视频处理模块生成的目标数据,对拍摄动作的角度没有特殊要求,就能够通过运动动作间相似性矩阵判断重复动作个数,结合所述模型构建模块依据算法数据流图获取逻辑值向量和每帧占比向量以及根据每帧占比向量与逻辑值向量获得动作计数值,提高了运动计数的准确性。
附图说明
图1为本发明实施例的运动计数方法流程图;
图2为本发明实施例的残差神经网络模型的部分结构示意图;
图3为本发明实施例的另一种运动计数方法的流程图;
图4为本发明一些实施例的单个视频所包含的图像示意图;
图5为本发明另一些实施例的单个视频所包含的图像示意图;
图6为本发明实施例的识别系统的结构框图;
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。除非另外定义,此处使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本文中使用的“包括”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。
针对现有技术存在的问题,本发明的实施例提供了一种应用于重复动作计数的运动计数方法,参照图1,包括:
S1:建立残差神经网络模型,于所述残差神经网络模型中构建算法数据流图;
S2:获取包含重复动作的视频数据,并对所述视频数据进行预处理,得到目标数据;
S3:将所述目标数据传输至所述残差神经网络模型中,并依据所述算法数据流图获取逻辑值向量和每帧占比向量;
S4:根据所述每帧占比向量与所述逻辑值向量获得动作计数值。
本发明实施例使用摄像装置对运动者进行拍摄,获取动态视频,所述包含重复动作的视频数据来源于动态视频。所述运动计数方法对拍摄动作的角度没有特殊要求,只要摄像装置能够捕捉到运动的部位即可,不需要其他硬件设备,重复动作计数和识别的成本低,用户体验好,能满足多数用户的重复动作计数的需求。
进一步的,所述运动计数方法普适性强,可以捕捉跳绳、俯卧撑、深蹲和引体向上等人体重复性动作,并提取其视频数据进行处理,可实现多种重复性运动的智能计数。
本发明的所述运动计数方法通过建立残差神经网络模型提取所述包含重复动作的视频数据中的目标数据,就能够通过运动动作间相似性矩阵判断重复动作个数,结合依据算法数据流图获取逻辑值向量和每帧占比向量以及根据每帧占比向量与逻辑值向量获得动作计数值,提高了运动计数的准确性。
作为本发明一种优选的实施方式,残差神经网络模型,即Resnet网络模型是由若干ResNet50V2融合连接而成的主干网络、若干全连接层,并以步长序列为循环的特征处理主干网络和全连接层而构成。
本发明一些实施例中,Resnet网络模型由两个相同的主干网络复合连接组合而成。单一主干网络为ResNet50V2网络,由双ResNet50V2复合融合连接构成本发明一些实施例的Resnet网络模型的模型算法核心网络。
图2为本发明一些实施例的残差神经网络模型的部分结构示意图。
图2中左右均为ResNet50V2网络结构的部分层示意图。其中,ResNet50V2网络的左边四个特征面分别为Left_F1、Left_F2、Left_F3、Left_F4;
单ResNet50V2网络的右边在融合前的四个特征面分别为B_Right_F1、B_Right_F2、B_Right_F3、B_Right_F4;
双ResNet50V2网络复合融合连接后右边的四个特征面分别为A_Right_F1、A_Right_F2、A_Right_F3、A_Right_F4。
Left_F1与B_Right_F1、A_Right_F1有相同特征维度,Left_F2与B_Right_F2、A_Right_F2有相同特征维度,Left_F3与B_Right_F3、A_Right_F3有相同特征维度,Left_F4与B_Right_F4、A_Right_F4有相同特征维度。
作为本发明一种具体的实施方式,本发明的Resnet网络模型是以tensorflow软件为基础框架搭建的,然后在tensorflow软件内启动gpu训练模型,运行Resnet网络模型。
作为本发明一种具体的实施例,所述步骤S2包括步骤S21、步骤S22和步骤S23。所述步骤S3包括步骤S31、步骤S32、步骤S33和步骤S34。
图3为本发明实施例的另一种运动计数方法的流程图,具体的,参照图3,包括:
S21:提供单个视频;
S22:通过截帧程序将所述单个视频的数据从上传的单个视频转换为图像数据;
S23:对所述图像数据进行去噪和尺度变换处理,得到目标数据;
S31:将所述目标数据传输至所述残差神经网络模型中;
S32:提取所述目标数据的比例特征,获得每帧占动作必要预测值向量和逻辑开关预测值向量;
S33:判断所述逻辑开关预测值向量与预设逻辑阈值是否一致;
S34:获得逻辑值向量;
S41:将所述每帧占比动作比例预测值向量与所述逻辑值向量相乘,获得动作计数值。
本发明一些实施例中,所述单个视频的时长不低于1分钟,视频分辨率不低于(1000~2000)×(1000~2000),帧率不低于30帧/秒。
本发明一些实施例中,所述运动计数方法还包括分别通过不同的残差神经网络模型根据单个视频的计数精度计算得到若干平均计数精度,以所述若干平均计数精度中的最高平均计数精度所对应的残差神经网络模型得到的动作计数值作为计数结果。
具体的,根据所述动作计数值和标签数据计算所述单个视频的计数精度,所述标签数据为人工统计重复动作实验的重复个数。
更具体的,平均计数精度计算公式为:
AP为平均计数精度,pi为单个视频的计数精度,Npre为动作计数值,NGT为标签数据,abs为取绝对值。
本发明一些实施例中,所述不同的残差神经网络模型中,所述ResNet50V2网络的层数各不相同且均至少为1。
本发明一些实施例中,将人工统计重复动作的重复个数为标签数据,将包含重复动作的视频数据和标签数据全都作为训练数据,以输入训练模型。
本发明一些具体的实施例中,将包含重复动作的视频数据和标签数据分别完整地传输给不同残差神经网络模型,分别为单层ResNet50V2模块训练模型、双层ResNet50V2模块复合训练模型和三层ResNet50V2模块复合融合模型,并通过三个模型分别对视频提取特征并计算动作数量。
具体的,分别测试600个时长均为一分钟的运动视频,每个视频分辨率为(1000~2000)×(1000~2000),帧率为30帧/秒,每个运动视频均为常规视频,且不会出现光线较暗、视角较偏、没有人脸、有部分身体部位没拍到的情况。所述运动视频包含200个跳绳视频、200个深蹲视频、200个俯卧撑视频,将600个视频的视频数据分别传输至三个训练模型中,通过平均计数精度计算公式计算三个训练模型的平均计数精度,得出如表1的计数精度统计。
如表1所示,利用本申请实施例的运动计数方法,不同残差神经网络模型统计不同运动对于的计数值,能够得到的平均计数精度均不低于95%。其中基于双层ResNet50V2复合融合模型提取的视频流特征相较其他两种残差神经网络模型提取的视频流特征而言具有更好的计数准确率。
表1
图4为本发明一些实施例的单个视频所包含的图像示意图。
本发明一些实施例中,所述单个视频包含如图4所示的图像,时长为1分钟,每个视频分辨率为(1000~2000)×(1000~2000),帧率为30帧/秒,动作者进行重复蹲起的动作,且拍摄角度如图4所示呈现动作者的侧视影像,且视频中还包括朝向动作者头部的太阳光线产生的曝光影像,利用本申请的运动计数方法在双层ResNet50V2模块复合训练模型中得到的计数值为350,和标签数据349相比差别非常小。利用现有技术的人体骨骼关节点检测计数法得到的计数值为0。
图5为本发明另一些实施例的单个视频所包含的图像示意图。
本发明一些实施例中,所述单个视频包含如图5所示的图像,时长为1分钟,每个视频分辨率为(1000~2000)×(1000~2000),帧率为30帧/秒,动作者进行重复跳绳的动作,且拍摄角度如图5所示始终无法呈现动作者包括脸部在内的部分图像,利用本申请的运动计数方法在双层ResNet50V2模块复合训练模型中得到的计数值为120,和标签数据111相比差别不大,准确率可高达92%。利用公开号为CN110210360A的专利申请所揭示的计数法得到的相应计数值为0。
本发明实施例还提供一种识别装置,包括存储器和处理器,处理器与存储器耦接,处理器基于存储在存储器中的程序执行上述的重复动作计数的运动计数方法。
本发明实施例还提供了一种识别系统,参照图6,识别系统6包括:
视频处理模块61,用于提取原始视频中的包含重复动作的视频数据,并对所述视频数据进行预处理;
传输模块62,用于传输经所述预处理后形成的视频数据;
模型构建模块63,用于接收经所述预处理后形成的视频数据,构建残差神经网络模型并于所述残差神经网络模型中构建算法数据流图,依据所述算法数据流图获取逻辑值向量和每帧占比向量,以及根据所述每帧占比向量与所述逻辑值向量获得动作计数值。
本发明还提供一种存储介质,存储介质内存储有计算机程序,计算机程序被处理器执行时实现上述重复动作计数的运动计数方法。
虽然在上文中详细说明了本发明的实施方式,但是对于本领域的技术人员来说显而易见的是,能够对这些实施方式进行各种修改和变化。但是,应理解,这种修改和变化都属于权利要求书中所述的本发明的范围和精神之内。而且,在此说明的本发明可有其它的实施方式,并且可通过多种方式实施或实现。
Claims (12)
1.一种运动计数方法,应用于重复动作计数,其特征在于,包括
S1:建立残差神经网络模型,于所述残差神经网络模型中构建算法数据流图;
S2:获取包含重复动作的视频数据,并对所述视频数据进行预处理,得到目标数据;
S3:将所述目标数据传输至所述残差神经网络模型中,并依据所述算法数据流图获取逻辑值向量和每帧占比向量;
S4:根据所述每帧占比向量与所述逻辑值向量获得动作计数值。
2.如权利要求1所述的运动计数方法,其特征在于,所述包含重复动作的视频数据来源于动态视频。
3.如权利要求1所述的运动计数方法,其特征在于,所述步骤S1中,通过步长序列为循环特征处理主干网络和若干全连接层形成所述残差神经网络模型,所述主干网络和所述若干全连接层由连接网络融合连接而成。
4.如权利要求3所述的运动计数方法,其特征在于,还包括通过所述步骤S1建立不同残差神经网络模型,所述不同残差神经网络模型的主干网络的层数不同。
5.如权利要求4所述的运动计数方法,其特征在于,还包括分别通过不同的残差神经网络模型根据单个视频的计数精度计算得到若干平均计数精度,以所述若干平均计数精度中的最高平均计数精度所对应的残差神经网络模型得到的动作计数值作为计数结果。
6.如权利要求5所述的运动计数方法,其特征在于,根据所述动作计数值和标签数据计算所述单个视频的计数精度,所述标签数据为人工统计重复动作实验的重复个数。
7.如权利要求3所述的运动计数方法,其特征在于,所述主干网络为ResNet50V2网络,所述ResNet50V2网络的层数至少为1。
8.如权利要求1所述的运动计数方法,其特征在于,所述步骤S2中,所述预处理包括通过截帧程序将所述视频数据转为图像数据,然后对所述图像数据进行去噪和尺度变换处理,得到所述目标数据。
9.如权利要求1所述的运动计数方法,其特征在于,所述步骤S3中,所述逻辑值向量和所述每帧占比向量的获取方法为:
提取所述目标数据的比例特征,获得每帧占动作比例预测值向量和逻辑开关预测值向量;
将所述逻辑开关预测值向量与预设逻辑阈值比较,获得所述逻辑值向量,并将每帧占动作比例预测值向量与预设每帧占比阈值比较,获得所述每帧占比向量。
10.一种识别装置,其特征在于,包括存储器和处理器,所述处理器与存储器耦接,所述处理器基于存储在所述存储器中的程序执行权利要求1-9中任一项所述的运动计数方法。
11.一种识别系统,其特征在于,应用于实现如权利要求1-9中任一项所述的运动计数方法,所述识别系统包括:
视频处理模块,用于提取原始视频中的包含重复动作的视频数据,并对所述视频数据进行预处理;
传输模块,用于传输经所述预处理后形成的视频数据;
模型构建模块,用于接收经所述预处理后形成的视频数据,构建残差神经网络模型并于所述残差神经网络模型中构建算法数据流图,依据所述算法数据流图获取逻辑值向量和每帧占比向量,以及根据所述每帧占比向量与所述逻辑值向量获得动作计数值。
12.一种存储介质,其特征在于,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-9任一项所述的运动计数方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110104910.4A CN112818801B (zh) | 2021-01-26 | 2021-01-26 | 运动计数方法、识别装置、识别系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110104910.4A CN112818801B (zh) | 2021-01-26 | 2021-01-26 | 运动计数方法、识别装置、识别系统及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112818801A true CN112818801A (zh) | 2021-05-18 |
CN112818801B CN112818801B (zh) | 2024-04-26 |
Family
ID=75859447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110104910.4A Active CN112818801B (zh) | 2021-01-26 | 2021-01-26 | 运动计数方法、识别装置、识别系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112818801B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114385012A (zh) * | 2022-01-17 | 2022-04-22 | 维沃移动通信有限公司 | 运动的识别方法、装置、电子设备和可读存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030096643A1 (en) * | 2001-11-21 | 2003-05-22 | Montgomery Dennis L. | Data gathering for games of chance |
US20140270387A1 (en) * | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Signal analysis for repetition detection and analysis |
US20170017857A1 (en) * | 2014-03-07 | 2017-01-19 | Lior Wolf | System and method for the detection and counting of repetitions of repetitive activity via a trained network |
CN110033473A (zh) * | 2019-04-15 | 2019-07-19 | 西安电子科技大学 | 基于模板匹配和深度分类网络的运动目标跟踪方法 |
CN110070041A (zh) * | 2019-04-23 | 2019-07-30 | 江西理工大学 | 一种时空压缩激励残差乘法网络的视频动作识别方法 |
CN110136066A (zh) * | 2019-05-23 | 2019-08-16 | 北京百度网讯科技有限公司 | 面向视频的超分辨率方法、装置、设备和存储介质 |
CN110222598A (zh) * | 2019-05-21 | 2019-09-10 | 平安科技(深圳)有限公司 | 一种视频行为识别方法、装置、存储介质和服务器 |
CN110598646A (zh) * | 2019-09-16 | 2019-12-20 | 北京邮电大学 | 一种基于深度特征的无约束重复动作计数方法 |
CN111931748A (zh) * | 2020-10-12 | 2020-11-13 | 天能电池集团股份有限公司 | 一种适用于蓄电池生产车间的工人疲劳度检测方法 |
CN112044046A (zh) * | 2020-08-28 | 2020-12-08 | 浙江大学 | 基于深度学习的跳绳计数方法 |
CN112149602A (zh) * | 2020-09-30 | 2020-12-29 | 广州华多网络科技有限公司 | 动作计数方法、装置、电子设备及存储介质 |
CN112163516A (zh) * | 2020-09-27 | 2021-01-01 | 深圳市悦动天下科技有限公司 | 跳绳计数的方法、装置及计算机存储介质 |
-
2021
- 2021-01-26 CN CN202110104910.4A patent/CN112818801B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030096643A1 (en) * | 2001-11-21 | 2003-05-22 | Montgomery Dennis L. | Data gathering for games of chance |
US20140270387A1 (en) * | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Signal analysis for repetition detection and analysis |
US20170017857A1 (en) * | 2014-03-07 | 2017-01-19 | Lior Wolf | System and method for the detection and counting of repetitions of repetitive activity via a trained network |
CN110033473A (zh) * | 2019-04-15 | 2019-07-19 | 西安电子科技大学 | 基于模板匹配和深度分类网络的运动目标跟踪方法 |
CN110070041A (zh) * | 2019-04-23 | 2019-07-30 | 江西理工大学 | 一种时空压缩激励残差乘法网络的视频动作识别方法 |
CN110222598A (zh) * | 2019-05-21 | 2019-09-10 | 平安科技(深圳)有限公司 | 一种视频行为识别方法、装置、存储介质和服务器 |
CN110136066A (zh) * | 2019-05-23 | 2019-08-16 | 北京百度网讯科技有限公司 | 面向视频的超分辨率方法、装置、设备和存储介质 |
CN110598646A (zh) * | 2019-09-16 | 2019-12-20 | 北京邮电大学 | 一种基于深度特征的无约束重复动作计数方法 |
CN112044046A (zh) * | 2020-08-28 | 2020-12-08 | 浙江大学 | 基于深度学习的跳绳计数方法 |
CN112163516A (zh) * | 2020-09-27 | 2021-01-01 | 深圳市悦动天下科技有限公司 | 跳绳计数的方法、装置及计算机存储介质 |
CN112149602A (zh) * | 2020-09-30 | 2020-12-29 | 广州华多网络科技有限公司 | 动作计数方法、装置、电子设备及存储介质 |
CN111931748A (zh) * | 2020-10-12 | 2020-11-13 | 天能电池集团股份有限公司 | 一种适用于蓄电池生产车间的工人疲劳度检测方法 |
Non-Patent Citations (5)
Title |
---|
BRUNO FERREIRA ET AL.: "Exploring Workout Repetition Counting and Validation Through Deep Learning", 《IMAGE ANALYSIS AND RECOGNITION》, pages 3 - 15 * |
DEBIDATTA DWIBEDI ET AL.: "Counting Out Time: Class Agnostic Video Repetition Counting in the Wild", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》, pages 10387 - 10396 * |
TOM F. H. RUNIA ET AL.: "Repetition Estimation", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》, vol. 127, no. 9, pages 1361, XP036845771, DOI: 10.1007/s11263-019-01194-0 * |
吴艳春 等: "基于线性回归分析的重复动作计数估计", 《济南大学学报(自然科学版)》, vol. 33, no. 06, pages 496 - 499 * |
周云 等: "基于双流非局部残差网络的行为识别方法", 《计算机应用》, vol. 40, no. 08, 31 August 2020 (2020-08-31), pages 2236 - 2240 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114385012A (zh) * | 2022-01-17 | 2022-04-22 | 维沃移动通信有限公司 | 运动的识别方法、装置、电子设备和可读存储介质 |
CN114385012B (zh) * | 2022-01-17 | 2023-06-30 | 维沃移动通信有限公司 | 运动的识别方法、装置、电子设备和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112818801B (zh) | 2024-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Miao et al. | Shallow feature based dense attention network for crowd counting | |
Wang et al. | Action recognition based on joint trajectory maps with convolutional neural networks | |
CN110309732B (zh) | 基于骨架视频的行为识别方法 | |
CN110378219B (zh) | 活体检测方法、装置、电子设备及可读存储介质 | |
WO2019120108A1 (zh) | 图像编码方法、动作识别的方法及计算机设备 | |
CN110796077A (zh) | 姿态动作实时检测校正方法 | |
CN110427900B (zh) | 一种智能指导健身的方法、装置和设备 | |
CN112446244A (zh) | 人体动作的识别方法、神经网络的训练方法及相关装置、设备 | |
CN113516005A (zh) | 一种基于深度学习和姿态估计的舞蹈动作评价系统 | |
CN112906520A (zh) | 一种基于姿态编码的动作识别方法及装置 | |
Li et al. | Dual attention convolutional network for action recognition | |
Mehrasa et al. | Learning person trajectory representations for team activity analysis | |
Cho et al. | A temporal sequence learning for action recognition and prediction | |
CN112818801B (zh) | 运动计数方法、识别装置、识别系统及存储介质 | |
Kumar et al. | Effectiveness of Vision Transformers in Human Activity Recognition from Videos | |
CN111626212B (zh) | 图片中对象的识别方法和装置、存储介质及电子装置 | |
Shi et al. | Occlusion-aware graph neural networks for skeleton action recognition | |
Tang et al. | A Survey on Human Action Recognition based on Attention Mechanism | |
CN113297883A (zh) | 信息处理方法、分析模型的获得方法、装置及电子设备 | |
CN116721468A (zh) | 一种基于多人姿态估计动作幅度检测的智能导播切换方法 | |
CN116958861A (zh) | 面向乒乓球比赛视频的多任务数据实时检测方法和装置 | |
CN110097008A (zh) | 一种人体动作识别方法 | |
CN113177462B (zh) | 适用于法庭庭审监控的目标检测方法 | |
CN114998803A (zh) | 一种基于视频的健身运动分类与计数方法 | |
Gong et al. | Image inpainting based on interactive separation network and progressive reconstruction algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Jiang Wei Inventor after: Ma Jingwei Inventor before: Jiang Wei |
|
GR01 | Patent grant | ||
GR01 | Patent grant |