CN114882580A - 一种基于深度学习的运动动作一致性的度量方法 - Google Patents

一种基于深度学习的运动动作一致性的度量方法 Download PDF

Info

Publication number
CN114882580A
CN114882580A CN202210136292.6A CN202210136292A CN114882580A CN 114882580 A CN114882580 A CN 114882580A CN 202210136292 A CN202210136292 A CN 202210136292A CN 114882580 A CN114882580 A CN 114882580A
Authority
CN
China
Prior art keywords
human body
action
network
key point
consistency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210136292.6A
Other languages
English (en)
Inventor
谢弘毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202210136292.6A priority Critical patent/CN114882580A/zh
Publication of CN114882580A publication Critical patent/CN114882580A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的运动动作一致性的度量方法,属于动作度量技术领域,该度量方法具体步骤如下:(1)确定动作类别并设置采集设备;(2)计算人体关键点信息并存储;(3)构建网络模型进行预测;(4)计算各人体关键点位置差异并存储;(5)将各组结果进行输出反馈;本发明能够实现动作一致性评判过程的数字化与标准化,同时通过网络模型实现自动化动作一致性评估,使高水准的动作一致性评判的成本大大降低,能够使额外成本非常低,易于大规模部署使用,同时可通过不同终端设备输出评价结果,使得实际部署时可以在部署成本与结果准确性上的选择更加灵活。

Description

一种基于深度学习的运动动作一致性的度量方法
技术领域
本发明涉及动作度量技术领域,尤其涉及一种基于深度学习的运动动作一致性的度量方法。
背景技术
目前,在动作一致性训练过程中,练习者根据技术动作要求反复练习一组动作直到自己或者他人认为该动作达到动作要求,然而,纯人工进行分辨存在不准确性,难以有着统一的标准,不同的人对于同一组动作的一致性有着不同的认知,同一人在不同时间不同情境下对同一组动作的判断也不完全一致,同时,不同水平的教练员对同一组动作一致性的标准存在差异,高水平的教练员数量无法满足广大爱好者和运动员的需求;因此,发明出一种基于深度学习的运动动作一致性的度量方法变得尤为重要;
经检索,中国专利号CN202110578414.2公开了基于时间一致性的个性化运动姿态估计与分析方法及系统,该发明虽然能够为用户提供动作指导意见,精确指出每个动作的偏差,但是产生的额外成本非常高,不易于大规模部署使用,此外,现有的基于深度学习的运动动作一致性的度量系统无法保证在部署成本与结果准确性上的选择更加灵活,无法实现动作一致性评判过程的数字化与标准化;为此,我们提出一种基于深度学习的运动动作一致性的度量方法。
发明内容
本发明的目的是为了解决现有技术中存在的缺陷,而提出的一种基于深度学习的运动动作一致性的度量方法。
为了实现上述目的,本发明采用了如下技术方案:
一种基于深度学习的运动动作一致性的度量方法,该度量方法具体步骤如下:
(1)确定动作类别并设置采集设备:确定测试者测试的动作类别,同时依据运动特点和场地结构设置图像数据采集设备;
(2)计算人体关键点信息并存储:在采集到的视频文件的每帧图像上运行姿态估计算法以对每帧图像中主要人员的人体关键点信息进行计算分析;
(3)构建网络模型进行预测:构建网络模型并对其进行预先训练,将计算的人体各关键点信息输入处理时间序列数据的网络中,并通过网络模型对人体关键点信息进行计算预测,并将计算出的人体关键点预测值进行存储;
(4)计算各人体关键点位置差异并存储:对各人体关键点对应时刻预测值与各人体关键点位置的真实值差异进行计算存储;
(5)将各组结果进行输出反馈:通过终端设备将动作分类结果以及动作一致性定量计算结果单独或者一起输出表示。
作为本发明的进一步方案,步骤(2)中所述计算分析具体步骤如下:
步骤一:若采集方式为采用单目相机进行数据采集时,将图像输入至含有卷积或者注意力机制等特征提取层的神经网络中,并提取图像中人体关键点的特征信息;
步骤二:通过序列化的多层网络结合损失函数使得网络的特征矩阵不断向标注的各个人体关键点靠近,并输出网络对该图像中人体关键点位置的推测值;
步骤三:若采集方式为采用多目相机或者采用单目相机配合深度图进行数据采集时,根据采集到的数据数量与种类,采用与之对应的神经网络,通过变化三维人体时的参数,使模型在图像平面里的投影跟图像的特征对齐;
步骤四:通过损失函数与多轮迭代使得网络最终输出当前时刻下各个人体关键点在三维空间下的位置信息。
作为本发明的进一步方案,步骤(3)中所述网络模型预先训练具体步骤如下:
第一步:将整体技术动作相似,功能、作用或者技术效果相同的一些动作归为一类;整体技术动作相似,功能、作用或者技术效果不同的一些动作归为一族,并在记录下多人完成该类、该族所有动作的人体关键点数据集上训练;
第二步:根据向网络输入第i帧图像和与其相隔n帧的图像中计算得到的人体关键点信息,并通过损失函数使得网络输出的各关键点位置数据的推测值不断向第i+n帧中的各关键点位置数据接近以得到该类、该族动作的预训练网络模型,其中,n>0。
作为本发明的进一步方案,步骤(3)中所述计算预测具体步骤如下:
S1:对于包含测试动作的视频片段中的任一时刻i,将计算得到的人体关键点位置坐标L输入至处理时间序列数据的网络中;
S3:利用预训练网络模型预测第i+n时刻的人体关键点位置坐标P,同时将所有预测结果按序储存。
作为本发明的进一步方案,S1中所述处理时间序列数据的网络具体为LSTM、RNN、GRU、ConvLSTM、ConvGRU或ST-LSTM网络。
作为本发明的进一步方案,步骤(4)中所述计算存储具体步骤如下:
Q1:将各人体关键点位置坐标值作为特征值输入至分类器中,预训练的动作分类器模型将该组关键点分类到具体哪一类之中;
Q2:将各人体关键点位置坐标值作为特征值输入至分类器中,预训练的该族动作分类器模型将该组关键点分类到该族动作中具体哪一类之中;
Q3:根据各运动不同技术的特点,确定该族动作中使得各个动作产生不同功能、作用或者技术效果的肢体部位,并确定与之对应的人体关键点子集;
Q4:通过评价算法对存储在第i+n帧真实值L和第i+n帧预测值P的差异进行计算,并依据OKS或PCK评价指标,系统输出测试者该动作的一致性程度,同时对计算结构进行存储;
Q5:当预测网络使用类模型进行预测时,测试者在第i+n时刻关键点真实坐标与网络预测坐标差异越小则证明测试者动作一致性越好,反之,当真实坐标与预测坐标差异越大则证明测试者动作一致性越差。
Q6:当预测网络使用族模型进行预测时,测试者在第i+n时刻关键点真实坐标与网络预测坐标差异越大则证明测试者动作欺骗性越好,反之,当真实坐标与预测坐标差异越小则证明测试者动作欺骗性越差。
相比于现有技术,本发明的有益效果在于:
1、该基于深度学习的运动动作一致性的度量系统,与以往度量方法相比,该发明首先对用户使用的采集方式进行分析,并依据不同的采集方式选择适合的姿态估计算法并使用姿态估计算法计算测试者的在各时刻的姿态数据,并将整体技术动作相似,功能、作用或者技术效果相同的一些动作归为一类;整体技术动作相似,功能、作用或者技术效果不同的一些动作归为一族,并在记录下多人完成该类、该族所有动作的人体关键点数据集上训练以得到对应预训练网络模型,同时依据预训练网络模型对测试者动作一致性进行评估,能够实现动作一致性评判过程的数字化与标准化,同时通过网络模型实现自动化动作一致性评估,使高水准的动作一致性评判的成本大大降低;
2、该基于深度学习的运动动作一致性的度量系统,计算机将各人体关键点位置坐标值作为特征值输入至分类器中,并将该组关键点分类到该族动作中具体哪一类之中,分类完成后,根据各运动不同技术的特点,确定该族动作中使得各个动作产生不同功能、作用或者技术效果的肢体部位,并确定与之对应的人体关键点子集,同时通过评价算法对存储在第i+n帧真实值L和第i+n帧预测值P的差异进行计算,并依据OKS或PCK评价指标,系统输出测试者该动作的一致性程度,并通过终端设备将动作分类结果以及动作一致性定量计算结果单独或者一起输出表示,能够使额外成本非常低,易于大规模部署使用,同时可通过不同终端设备输出评价结果,使得实际部署时可以在部署成本与结果准确性上的选择更加灵活。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
图1为本发明提出的一种基于深度学习的运动动作一致性的度量方法的流程框图。
具体实施方式
实施例1
参照图1,一种基于深度学习的运动动作一致性的度量方法,本实施例具体公开了一种计算分析方法:
确定动作类别并设置采集设备:确定测试者测试的动作类别,同时依据运动特点和场地结构设置图像数据采集设备。
计算人体关键点信息并存储:在采集到的视频文件的每帧图像上运行姿态估计算法以对每帧图像中主要人员的人体关键点信息进行计算分析。
具体的,若采集方式为采用单目相机进行数据采集时,将图像输入至含有卷积或者注意力机制等特征提取层的神经网络中,并提取图像中人体关键点的特征信息,同时通过序列化的多层网络结合损失函数使得网络的特征矩阵不断向标注的各个人体关键点靠近,并输出网络对该图像中人体关键点位置的推测值,若采集方式为采用多目相机或者采用单目相机配合深度图进行数据采集时,根据采集到的数据数量与种类,采用与之对应的神经网络,通过变化三维人体时的参数,使模型在图像平面里的投影跟图像的特征对齐,并通过损失函数与多轮迭代使得网络最终输出当前时刻下各个人体关键点在三维空间下的位置信息。
实施例2
参照图1,一种基于深度学习的运动动作一致性的度量方法,除与上述实施例相同的结构外,本实施例具体公开了一种计算预测方法:
构建网络模型进行预测:构建网络模型并对其进行预先训练,将计算的人体各关键点信息输入处理时间序列数据的网络中,并通过网络模型对人体关键点信息进行计算预测,并将计算出的人体关键点预测值进行存储。
具体的,计算机将整体技术动作相似,功能、作用或者技术效果相同的一些动作归为一类;整体技术动作相似,功能、作用或者技术效果不同的一些动作归为一族,并在记录下多人完成该类、该族所有动作的人体关键点数据集上训练,同时根据向网络输入第i帧图像和与其相隔n帧的图像中计算得到的人体关键点信息,并通过损失函数使得网络输出的各关键点位置数据的推测值不断向第i+n帧中的各关键点位置数据接近以得到该类、该族动作的预训练网络模型,其中,n>0。
具体的,网络模型对于包含测试动作的视频片段中的任一时刻i,将计算得到的人体关键点位置坐标L输入至处理时间序列数据的网络中,并利用预训练网络模型预测第i+n时刻的人体关键点位置坐标P,同时将所有预测结果按序储存,能够实现动作一致性评判过程的数字化与标准化,同时通过网络模型实现自动化动作一致性评估,使高水准的动作一致性评判的成本大大降低。
需要进一步说明的是,处理时间序列数据的网络具体为LSTM、RNN、GRU、ConvLSTM、ConvGRU或ST-LSTM网络。
计算各人体关键点位置差异并存储:对各人体关键点对应时刻预测值与各人体关键点位置的真实值差异进行计算存储。
具体的,首先分类器接收计算机发送给的各人体关键点位置坐标值,并将该组关键点分类到哪类动作或者分类到该族动作中具体哪一类之中,分类完成后,根据各运动不同技术的特点,确定该族动作中使得各个动作产生不同功能、作用或者技术效果的肢体部位,并确定与之对应的人体关键点子集,同时通过评价算法对存储在第i+n帧真实值L和第i+n帧预测值P的差异进行计算,并依据OKS或PCK评价指标,系统输出测试者该动作的一致性程度,同时对计算结构进行存储,当预测网络使用类模型进行预测时,测试者在第i+n时刻关键点真实坐标与网络预测坐标差异越小则证明测试者动作一致性越好,反之,当真实坐标与预测坐标差异越大则证明测试者动作一致性越差;当预测网络使用族模型进行预测时,测试者在第i+n时刻关键点真实坐标与网络预测坐标差异越大则证明测试者动作欺骗性越好,反之,当真实坐标与预测坐标差异越小则证明测试者动作欺骗性越差,能够使额外成本非常低,易于大规模部署使用,同时可通过不同终端设备输出评价结果,使得实际部署时可以在部署成本与结果准确性上的选择更加灵活。
需要进一步说明的是,分类器具体为基于机器学习的分类器或者基于深度学习方法的分类器。
需要进一步说明的是,在单人场景距离摄像设备2-4m的场景下,姿态估计算法可实现在多种复杂运动场景下运动一致性判断准确率如下:
Figure BDA0003504827620000091
其中,基于MLP网络的动作分类器在含有几百条标注信息的姿态数据数据集上可实现平均80%的准确率。
通过将各组结果进行输出反馈:终端设备将动作分类结果以及动作一致性定量计算结果单独或者一起输出表示。

Claims (6)

1.一种基于深度学习的运动动作一致性的度量方法,其特征在于,该度量方法具体步骤如下:
(1)确定动作类别并设置采集设备:确定测试者测试的动作类别,同时依据运动特点和场地结构设置图像数据采集设备;
(2)计算人体关键点信息并存储:在采集到的视频文件的每帧图像上运行姿态估计算法以对每帧图像中主要人员的人体关键点信息进行计算分析;
(3)构建网络模型进行预测:构建网络模型并对其进行预先训练,将计算的人体各关键点信息输入处理时间序列数据的网络中,并通过网络模型对人体关键点信息进行计算预测,并将计算出的人体关键点预测值进行存储;
(4)计算各人体关键点位置差异并存储:对各人体关键点对应时刻预测值与各人体关键点位置的真实值差异进行计算存储;
(5)将各组结果进行输出反馈:通过终端设备将动作分类结果以及动作一致性定量计算结果单独或者一起输出表示。
2.根据权利要求1所述的一种基于深度学习的运动动作一致性的度量方法,其特征在于,步骤(2)中所述计算分析具体步骤如下:
步骤一:若采集方式为采用单目相机进行数据采集时,将图像输入至含有卷积或者注意力机制等特征提取层的神经网络中,并提取图像中人体关键点的特征信息;
步骤二:通过序列化的多层网络结合损失函数使得网络的特征矩阵不断向标注的各个人体关键点靠近,并输出网络对该图像中人体关键点位置的推测值;
步骤三:若采集方式为采用多目相机或者采用单目相机配合深度图进行数据采集时,根据采集到的数据数量与种类,采用与之对应的神经网络,通过变化三维人体时的参数,使模型在图像平面里的投影跟图像的特征对齐;
步骤四:通过损失函数与多轮迭代使得网络最终输出当前时刻下各个人体关键点在三维空间下的位置信息。
3.根据权利要求1所述的一种基于深度学习的运动动作一致性的度量方法,其特征在于,步骤(3)中所述网络模型预先训练具体步骤如下:
第一步:将整体技术动作相似,功能、作用或者技术效果相同的一些动作归为一类;整体技术动作相似,功能、作用或者技术效果不同的一些动作归为一族,并在记录下多人完成该类、该族所有动作的人体关键点数据集上训练;
第二步:根据向网络输入第i帧图像和与其相隔n帧的图像中计算得到的人体关键点信息,并通过损失函数使得网络输出的各关键点位置数据的推测值不断向第i+n帧中的各关键点位置数据接近以得到该类、该族动作的预训练网络模型,其中,n>0。
4.根据权利要求3所述的一种基于深度学习的运动动作一致性的度量方法,其特征在于,步骤(3)中所述计算预测具体步骤如下:
S1:对于包含测试动作的视频片段中的任一时刻i,将计算得到的人体关键点位置坐标L输入至处理时间序列数据的网络中;
S3:利用预训练网络模型预测第i+n时刻的人体关键点位置坐标P,同时将所有预测结果按序储存。
5.根据权利要求4所述的一种基于深度学习的运动动作一致性的度量方法,其特征在于,S1中所述处理时间序列数据的网络具体为LSTM、RNN、GRU、ConvLSTM、ConvGRU或ST-LSTM网络。
6.根据权利要求4所述的一种基于深度学习的运动动作一致性的度量方法,其特征在于,步骤(4)中所述计算存储具体步骤如下:
Q1:将各人体关键点位置坐标值作为特征值输入至分类器中,预训练的动作分类器模型将该组关键点分类到具体哪一类动作之中;
Q2:将各人体关键点位置坐标值作为特征值输入至分类器中,预训练的该族动作分类器模型将该组关键点分类到该族动作中具体哪一类之中;
Q3:根据各运动不同技术的特点,确定该族动作中使得各个动作产生不同功能、作用或者技术效果的肢体部位,并确定与之对应的人体关键点子集;
Q4:通过评价算法对存储在第i+n帧真实值L和第i+n帧预测值P的差异进行计算,并依据OKS或PCK评价指标,系统输出测试者该动作的一致性程度,同时对计算结构进行存储;
Q5:当预测网络使用类模型进行预测时,测试者在第i+n时刻关键点真实坐标与网络预测坐标差异越小则证明测试者动作一致性越好,反之,当真实坐标与预测坐标差异越大则证明测试者动作一致性越差。
Q6:当预测网络使用族模型进行预测时,测试者在第i+n时刻关键点真实坐标与网络预测坐标差异越大则证明测试者动作欺骗性越好,反之,当真实坐标与预测坐标差异越小则证明测试者动作欺骗性越差。
CN202210136292.6A 2022-02-15 2022-02-15 一种基于深度学习的运动动作一致性的度量方法 Pending CN114882580A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210136292.6A CN114882580A (zh) 2022-02-15 2022-02-15 一种基于深度学习的运动动作一致性的度量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210136292.6A CN114882580A (zh) 2022-02-15 2022-02-15 一种基于深度学习的运动动作一致性的度量方法

Publications (1)

Publication Number Publication Date
CN114882580A true CN114882580A (zh) 2022-08-09

Family

ID=82667459

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210136292.6A Pending CN114882580A (zh) 2022-02-15 2022-02-15 一种基于深度学习的运动动作一致性的度量方法

Country Status (1)

Country Link
CN (1) CN114882580A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116630551A (zh) * 2023-07-25 2023-08-22 凝动万生医疗科技(武汉)有限公司 运动捕捉和评估装置及其方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203484A (zh) * 2016-06-29 2016-12-07 北京工业大学 一种基于类别分层机制的人体运动状态分类方法
CN110765946A (zh) * 2019-10-23 2020-02-07 北京卡路里信息技术有限公司 一种跑姿评估方法、装置、设备和存储介质
CN113239849A (zh) * 2021-05-27 2021-08-10 数智引力(厦门)运动科技有限公司 健身动作质量评估方法、系统、终端设备及存储介质
CN113947811A (zh) * 2021-10-15 2022-01-18 湘潭大学 一种基于生成对抗网络的太极拳动作校正方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203484A (zh) * 2016-06-29 2016-12-07 北京工业大学 一种基于类别分层机制的人体运动状态分类方法
CN110765946A (zh) * 2019-10-23 2020-02-07 北京卡路里信息技术有限公司 一种跑姿评估方法、装置、设备和存储介质
CN113239849A (zh) * 2021-05-27 2021-08-10 数智引力(厦门)运动科技有限公司 健身动作质量评估方法、系统、终端设备及存储介质
CN113947811A (zh) * 2021-10-15 2022-01-18 湘潭大学 一种基于生成对抗网络的太极拳动作校正方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116630551A (zh) * 2023-07-25 2023-08-22 凝动万生医疗科技(武汉)有限公司 运动捕捉和评估装置及其方法
CN116630551B (zh) * 2023-07-25 2023-11-07 凝动万生医疗科技(武汉)有限公司 运动捕捉和评估装置及其方法

Similar Documents

Publication Publication Date Title
CN109919031B (zh) 一种基于深度神经网络的人体行为识别方法
CN110472531B (zh) 视频处理方法、装置、电子设备及存储介质
CN109948425B (zh) 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置
Hu et al. Transrac: Encoding multi-scale temporal correlation with transformers for repetitive action counting
CN111915460B (zh) 基于ai视觉的实验考试智能评分系统
CN109671102B (zh) 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法
CN102804208B (zh) 为视觉搜索应用自动挖掘名人的个人模型
CN109993102B (zh) 相似人脸检索方法、装置及存储介质
CN110070074A (zh) 一种构建行人检测模型的方法
CN108960059A (zh) 一种视频动作识别方法及装置
CN110889343A (zh) 基于注意力型深度神经网络的人群密度估计方法及装置
CN110575663B (zh) 一种基于人工智能的体育辅助训练方法
CN104200203B (zh) 一种基于动作字典学习的人体动作检测方法
CN110033023A (zh) 一种基于绘本识别的图像数据处理方法及系统
CN112818849B (zh) 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法
Song et al. Temporal action localization in untrimmed videos using action pattern trees
CN113435432B (zh) 视频异常检测模型训练方法、视频异常检测方法和装置
CN112507904B (zh) 一种基于多尺度特征的教室人体姿态实时检测方法
CN110210380A (zh) 基于表情识别与心理学测试生成性格的分析方法
CN115346149A (zh) 基于时空图卷积网络的跳绳计数方法和系统
CN104809455B (zh) 基于可判别性二叉树投票的动作识别方法
Li et al. ET-YOLOv5s: toward deep identification of students’ in-class behaviors
CN117542121B (zh) 基于计算机视觉的智能化训练考核系统及方法
CN114882580A (zh) 一种基于深度学习的运动动作一致性的度量方法
CN114519844A (zh) 一种基于视觉转化器的人群密度估计方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination