CN115273237A - 基于集成随机配置神经网络的人体姿态与动作识别方法 - Google Patents
基于集成随机配置神经网络的人体姿态与动作识别方法 Download PDFInfo
- Publication number
- CN115273237A CN115273237A CN202210915844.3A CN202210915844A CN115273237A CN 115273237 A CN115273237 A CN 115273237A CN 202210915844 A CN202210915844 A CN 202210915844A CN 115273237 A CN115273237 A CN 115273237A
- Authority
- CN
- China
- Prior art keywords
- data
- human body
- recognition
- model
- measuring device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 11
- 230000009471 action Effects 0.000 title claims abstract description 7
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 17
- 238000005070 sampling Methods 0.000 claims description 17
- 230000010354 integration Effects 0.000 claims description 8
- 230000003068 static effect Effects 0.000 claims description 4
- 210000003423 ankle Anatomy 0.000 claims description 3
- 210000002683 foot Anatomy 0.000 claims description 3
- 238000012549 training Methods 0.000 abstract description 22
- 238000013527 convolutional neural network Methods 0.000 abstract description 8
- 238000004364 calculation method Methods 0.000 abstract description 4
- 230000006399 behavior Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 10
- 238000012360 testing method Methods 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000010200 validation analysis Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 150000001875 compounds Chemical class 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000037081 physical activity Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了基于集成随机配置神经网络的人体姿态与动作识别方法,基于随机配置神经网络子模型设计基学习器,并将若干个基学习器集成入识别模型中;识别模型基于装袋算法将传感器采集数据划分为若干个子数据集,每个子数据集使用一个基学习器进行识别,最后通过加权均值法对所有基学习器预测结果进行汇总,从而得到最终的识别结果。本发明采用上述人体姿态与动作识别方法,取得了与CNN模型相当的准确率,且计算复杂度和所需时间远低于单个SCN、CNN、LSTM和SVM模型,且不需要使用GPU进行训练,提高了识别效率。
Description
技术领域
本发明涉及机器学习技术领域,尤其是涉及基于集成随机配置神经网络的人体姿态与动作识别方法。
背景技术
近年来,随着随机权神经网络的不断发展,Wang等提出的随机配置网络(stochastic configuration network,SCN)由于其特有的学习机制,在快速学习的情况下,很好的保证了网络较高的逼近性能和分类性能,并因此得到了广泛应用。但当SCN模型应用于大数据集时,随着隐藏层节点数量的增多求解最后输出权重时,运用最小二乘方法计算大型线性方程组的伪逆矩阵十分困难,需要占用的电脑内存和运算时间都十分高。而通常为了精准识别人体行为动作,会尽可能用多传感器设备同时以高频率采集人体行为活动数据,因此运用单个SCN 模型来作为人体姿态和动作识别的分类器模型难以取得理想的识别效果。
发明内容
本发明方案利用Bagging算法对采集数据进行预处理,利用SCN网络设计基分类器,最后通过对基分类器的预测结果进行汇总得到识别结果,以提高人体姿态与动作识别的准确率以及识别效率。
为实现上述目的,本发明提供了如下技术方案,包括如下步骤:
S1、将主、辅测量装置分别固定在人体双脚踝外侧;测量装置内均集成有三轴加速度计、三轴陀螺仪和三轴磁力计,且其内传感器以10Hz频率采样;主、辅测量装置间通过射频传输数据,并整合后通过蓝牙传输给上位机;
S2、上位机将采集数据输入至识别模型内,识别模型将采集数据划分为若干子数据集,每个子数据集对应输入至一个基学习器中;基学习器基于随机配置神经网络子模型搭建,并从时域和频域角度对采集数据进行分析;识别模型依据集成策略对基学习器预测结果进行汇总,并输出识别结果。
优选的,基学习器从时域角度对静态行为进行分析,从频域角度对动态行为进行分析。
优选的,识别模型基于Bagging算法对采集数据进行预处理以及结果汇总;Bagging算法基于自助抽样法将采集数据划分为若干子数据集,并依据加权均值法对所有基学习器识别结果进行汇总。
本发明采用上述人体姿态与动作识别方法,基学习器集成后具有良好的泛化性能,对人类活动识别准确度达到92.5%以上,取得了与CNN相当的准确率,且计算复杂度和所需时间远低于单个SCN、CNN、LSTM和SVM模型,且不需要使用 GPU进行训练,在大大节省训练时间和算力前提下,取得了理想的识别效果。
附图说明
图1为现有技术中SCN模型的网络结构示意图;
图2为现有技术中自助采样法的集成采样学习示意图;
图3为本发明中人体姿态与动作识别模型的网络结构示意图;
图4为Bagging-SCN模型的训练集、验证集和测试集结果;
图5为SCN模型的训练集、验证集和测试集结果;
图6为SVM模型的训练集、验证集和测试集结果;
图7为LSTM模型的训练集、验证集和测试集结果;
图8为CNN模型的训练集、验证集和测试集结果;
图9为本发明中基学习器数量与分类识别准确度的关系图。
具体实施方式
以下结合附图和实施例对本发明的技术方案作进一步说明。
基于集成随机配置神经网络的人体姿态与动作识别方法,包括如下步骤:
S1、基于传感器采集人体活动产生的数据。
将主、辅测量装置分别固定在人体双脚踝外侧。测量装置内均集成有三轴加速度计、三轴陀螺仪和三轴磁力计,且其内传感器以10Hz频率采样。主、辅测量装置间通过射频传输数据,并整合后通过蓝牙传输给上位机。
S2、上位机将采集数据输入至识别模型内进行分析。
识别模型基于Bagging算法和SCN模型设计。
Bagging算法基于Bootstrap自助抽样法将采集数据划分为若干子数据集,每个子数据集对应输入至一个基学习器中。基学习器基于SCN子模型搭建,并从时域和频域角度对采集数据进行分析。时域特征有助于模型识别区分躺、站等静态行为,其包括:最大值、最小值和平均值等,频域特征可用于区分动态和静态行为,其包括:峰度,偏度和向量夹角等。
识别模型依据集成策略对基学习器的预测结果进行加权平均,并输出识别结果。
一、SCN模型建模与Bagging算法原理
如图1所示,SCN模型的建模过程如下:
(1)给定一个目标函数f:Rd→Rm,假设存在已经建立好L-1层隐藏节点的网络,则网络输出可表示为:
式中,wj=[wj1,...,wjd]T,bj=[bj1,...,bjd]T分别为隐含层节点的输入权重和偏置,βj=[βj1,...,βjm]T为隐藏层与输出层之间的输出权重,gj(·)代表第j个隐藏节点的激活函数。根据网络输出表达式可以得出网络残差eL-1可表示为:
eL-1=f-fL-1=[eL-1,1,eL-1,2,...,eL-1,m]T (2)
如果||eL-1||未能满足理想的Tolerance(容错度),则网络会继续从可调区间 [-λ,λ]d和[-λ,λ]内随机生成输入权重wL和bL生成一个新的隐藏层节点,则目标函数更新为:
(2)SCN算法是根据一个不等式约束来更新增加节点的,例如在增加第L 个节点时,其随机生成的输入权重向量wL和偏差bL需要满足以下不等式:
(3)计算输出权重:SCN最基础的三个版本中,SCN-II算法表现的最好,其输出权重采用最小化全局残差来得到输出权重:
求解上式的最小化问题一般采用最小二乘法:
β*=H+T=(HHT)-1HT (6)
(4)然后计算第L步的误差eL,判断是否小于设定的理想Tolerance,如果满足则建模完成,返回最佳的输入输出权重;不满足则继续第二步的过程添加隐藏层节点,直到满足设定的理想Tolerance。
通过上述步骤SCN-II有着良好的普遍逼近能力,当将SCN运用到分类问题时,实际上就是建立一个网络去拟合一个0-1样本标签矩阵T,但由上述步骤可知当样本数量N非常大,和样本种类数量m多时,根据残差最小化求得的伪逆误差较大,计算十分复杂占用计算机资源多,且失去了SCN的快速性,因此本方案借助集成算法的思想,对集成SCN来处理人体行为活动数据处理分类展开研究。
如图2所示,Bagging算法计算过程如下:
(1)给定包含N个样本的训练数据集,采用Bootstrap自助抽样法,随机选取出K个样本放入采样集中。特别的,这里根据训练数据中的各个类别的样本数进行等概率选取,可以增强对类不平衡数据的稳健性。由于大量实验测量设备采用固定频率对人体活动行为数据进行采样,故而像跑这样持续时间较短的数据会偏少,而像躺等行为则偏多,当将这种不平衡数据集放入网络中训练会导致训练好的模型忽略少数类,从而导致对于少数类的分类效果很差。而Bootstrap 自助采样法可以在数据预处理阶段,使得各采样子集数据类之间达到平衡,从而提升各子分类器性能。
(2)将取出的K个样本放回到初始训练数据集中,使得下次采样时,该样本仍有可能被选中。这样经过m次随机采样操作,最终得到m个样本的采样集。采样次数应大于N/m,保证所有样本都会被利用进行训练,有的样本会在某些采样子集中重复多次出现,以保证训练出来的基学习器集成后具有良好的泛化性能。
(3)按照上述两步操作采样出m个含有K个训练样本的采样集,然后针对每个采样集训练出一个基学习器,再将这些基学习其进行集成,得到一个有强分类性能的学习器。
二、Bagging-SCN模型构建
如图3所示,本方案对上述的SCN模型和Bagging算法进行结合,设计出 Bagging-SCN模型。训练集采用Bootstrap的方式进行采样,生成M个训练子集,利用不同的训练子集训练生成不同的SCN模型,最后将所有基学习器给测试集数据的打分结果求均值,按照均值矩阵最后的结果确定测试集数据的类别。
该模型算法描述如下:
三、Bagging-SCN模型测试Modelbest
实验共采集了三十位受试者顺序进行上楼梯、走、跑、躺、站和下楼梯活动时的运动数据,实验场地为办公楼群室外连廊自然环境,具备上台阶、平坦连廊、下台阶等自然连续室外实验条件。本实验共采集到22060条运动数据。
针对自建数据集的仿真实验是在CPU为Intel(R)Core(TM)i7-9700, 3.00GHz,RAM为16GB的硬件平台上采用python3.8软件平台进行。
采用Bagging-SCN、SCN、CNN、LSTM、SVM进行对比实验。其中,基学习器 SCN算法训练停止条件为:最大节点数Lmax=2500,tolerance=0.01,权值搜索最大搜索次数Tmax=100,λ=[0.05,5,20,50,100,200,500],不等式约束系数r=[0.9,0.99, 0.999,0.9999,0.99999,0.999999]。Bagging-SCN初始设置为500个基学习器。
将所采集到的数据按照6:2:2划分为训练集、验证集和测试集。五种模型分类识别结果见图4-8以及表1。
表1五种模型分类识别结果
从实际应用的角度和各模型综合表现来看,Bagging-SCN分类识别准确度,取得了和CNN相当的效果,且比使用单个SCN作为识别模型更加准确。
进一步的,本方案还探究基学习器数量与分类识别准确度的关系,结果如图 9所示。实际集成基学习器数量在80个附近时,即开始出现饱和,甚至随着基学习器数量增多,整体集成模型的预测准确率下降。因此,为了找出最优的集成模型和最优的集成学习数量,通过验证集数据在集成模型中的表现,来保存最强的集成学习器,并删除部分冗余或干扰的基学习器,以达到最优的分类效果。
针对基于传感器的人体行为识别应用,Bagging-SCN的表现要优于其他四个模型,并且根据先验知识对数据进行坏数据剔除和对数据进行人为特征提取,对改善网络分类准确性能还有着可提高空间,可有针对性的对于识别较差的行为姿态数据提取更多特征,来提升最后的识别精度。而对于CNN网络来说,由于其复杂的网络结构,以及庞大的待收敛参数,势必对计算机算力有着更高的要求以及更久的训练拟合时间,没有采用Bagging-SCN经济和应用范围广,因此应用可穿戴行为数据采集器配合Bagging-SCN智能行为识别算法具有实用性,且优于现有的神经网络方法。
以上是本发明的具体实施方式,但本发明的保护范围不应局限于此。任何熟悉本领域的技术人员在本发明所揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内,因此本发明的保护范围应以权利要求书所限定的保护范围为准。
Claims (3)
1.基于集成随机配置神经网络的人体姿态与动作识别方法,其特征在于,
S1、将主、辅测量装置分别固定在人体双脚踝外侧;测量装置内均集成有三轴加速度计、三轴陀螺仪和三轴磁力计,且其内传感器以10Hz频率采样;主、辅测量装置间通过射频传输数据,并整合后通过蓝牙传输给上位机;
S2、上位机将采集数据输入至识别模型内,识别模型将采集数据划分为若干子数据集,每个子数据集对应输入至一个基学习器中;基学习器基于随机配置神经网络子模型搭建,并从时域和频域角度对采集数据进行分析;识别模型依据集成策略对基学习器预测结果进行汇总,并输出识别结果。
2.根据权利要求1所述的人体姿态与动作识别方法,其特征在于,基学习器从时域角度对静态行为进行分析,从频域角度对动态行为进行分析。
3.根据权利要求1所述的人体姿态与动作识别方法,其特征在于,识别模型基于Bagging算法对采集数据进行预处理以及结果汇总;Bagging算法基于自助抽样法将采集数据划分为若干子数据集,并依据加权均值法对所有基学习器识别结果进行汇总。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210915844.3A CN115273237B (zh) | 2022-08-01 | 2022-08-01 | 基于集成随机配置神经网络的人体姿态与动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210915844.3A CN115273237B (zh) | 2022-08-01 | 2022-08-01 | 基于集成随机配置神经网络的人体姿态与动作识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115273237A true CN115273237A (zh) | 2022-11-01 |
CN115273237B CN115273237B (zh) | 2024-01-30 |
Family
ID=83746914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210915844.3A Active CN115273237B (zh) | 2022-08-01 | 2022-08-01 | 基于集成随机配置神经网络的人体姿态与动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115273237B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115935172A (zh) * | 2023-01-06 | 2023-04-07 | 湖南董因信息技术有限公司 | 一种基于集成深度学习的信号识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110764064A (zh) * | 2019-11-08 | 2020-02-07 | 哈尔滨工业大学 | 基于深度卷积神经网络集成的雷达干扰信号识别方法 |
CN112132096A (zh) * | 2020-09-30 | 2020-12-25 | 中国矿业大学 | 动态更新输出权值的随机配置网络的行为模态识别方法 |
CN112766420A (zh) * | 2021-03-12 | 2021-05-07 | 合肥共达职业技术学院 | 一种基于时频域信息的人体行为识别方法 |
CN113051918A (zh) * | 2019-12-26 | 2021-06-29 | 北京中科闻歌科技股份有限公司 | 基于集成学习的命名实体识别方法、装置、设备和介质 |
-
2022
- 2022-08-01 CN CN202210915844.3A patent/CN115273237B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110764064A (zh) * | 2019-11-08 | 2020-02-07 | 哈尔滨工业大学 | 基于深度卷积神经网络集成的雷达干扰信号识别方法 |
CN113051918A (zh) * | 2019-12-26 | 2021-06-29 | 北京中科闻歌科技股份有限公司 | 基于集成学习的命名实体识别方法、装置、设备和介质 |
CN112132096A (zh) * | 2020-09-30 | 2020-12-25 | 中国矿业大学 | 动态更新输出权值的随机配置网络的行为模态识别方法 |
CN112766420A (zh) * | 2021-03-12 | 2021-05-07 | 合肥共达职业技术学院 | 一种基于时频域信息的人体行为识别方法 |
Non-Patent Citations (3)
Title |
---|
DIANHUI WANG,MING LI: "Stochastic Configuration Networks: Fundamentals and Algorithms", pages 3466 - 3479 * |
南静: "一种基于随机配置网络的轻量型人体行为识别方法", pages 3 - 4 * |
汤健,田福庆,贾美英,李东: "《基于频谱数据驱动的旋转机械设备负荷软测量》", 国防工业出版社, pages: 206 - 8 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115935172A (zh) * | 2023-01-06 | 2023-04-07 | 湖南董因信息技术有限公司 | 一种基于集成深度学习的信号识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115273237B (zh) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gao et al. | Abnormal gait recognition algorithm based on LSTM-CNN fusion network | |
CN108345846A (zh) | 一种基于卷积神经网络的人体行为识别方法及识别系统 | |
CN110236550B (zh) | 一种基于多模态深度学习的人体步态预测装置 | |
CN110334573B (zh) | 一种基于密集连接卷积神经网络的人体运动状态判别方法 | |
CN108244744A (zh) | 一种运动状态识别的方法、鞋底及鞋 | |
KR20160031246A (ko) | 보행 환경 인식 방법 및 장치 | |
Shao et al. | DePedo: Anti periodic negative-step movement pedometer with deep convolutional neural networks | |
EP3968337A1 (en) | Target object attribute prediction method based on machine learning and related device | |
CN106210269A (zh) | 一种基于智能手机的人体动作识别系统及方法 | |
CN108549856A (zh) | 一种人体动作和路况识别方法 | |
CN106874874A (zh) | 一种运动状态的识别方法及装置 | |
CN111260057A (zh) | 一种基于虚拟传感器的足式机器人地形感知方法 | |
CN113143256A (zh) | 步态特征提取方法、下肢评估、控制方法、设备及介质 | |
CN108717548B (zh) | 一种面向传感器动态增加的行为识别模型更新方法及系统 | |
CN115273237A (zh) | 基于集成随机配置神经网络的人体姿态与动作识别方法 | |
CN110956684B (zh) | 基于残差网络的人群运动疏散仿真方法及系统 | |
CN104766051B (zh) | 基于结构化的特征图的人体行为识别方法 | |
Kong et al. | Design of computer interactive system for sports training based on artificial intelligence and improved support vector | |
Du et al. | RETRACTED: Research on the intelligent model of progress in physical education training based on motion sensor | |
Yuan et al. | Adaptive recognition of motion posture in sports video based on evolution equation | |
Jiang et al. | Deep learning algorithm based wearable device for basketball stance recognition in basketball | |
Tanjaya et al. | Pilates Pose Classification Using MediaPipe and Convolutional Neural Networks with Transfer Learning | |
Huang et al. | Activity classification and analysis during a sports training session using a fuzzy model | |
CN112906673A (zh) | 一种基于注意力机制的下肢运动意图预测方法 | |
Zainudin et al. | Recognizing complex human activities using hybrid feature selections based on an accelerometer sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |