CN112784812B - 一种深蹲动作识别方法 - Google Patents

一种深蹲动作识别方法 Download PDF

Info

Publication number
CN112784812B
CN112784812B CN202110183495.6A CN202110183495A CN112784812B CN 112784812 B CN112784812 B CN 112784812B CN 202110183495 A CN202110183495 A CN 202110183495A CN 112784812 B CN112784812 B CN 112784812B
Authority
CN
China
Prior art keywords
layer
size
data
multiplied
deep
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110183495.6A
Other languages
English (en)
Other versions
CN112784812A (zh
Inventor
张振
张师榕
赵转哲
刘永明
阚延鹏
叶国文
付磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Polytechnic University
Original Assignee
Anhui Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Polytechnic University filed Critical Anhui Polytechnic University
Priority to CN202110183495.6A priority Critical patent/CN112784812B/zh
Publication of CN112784812A publication Critical patent/CN112784812A/zh
Application granted granted Critical
Publication of CN112784812B publication Critical patent/CN112784812B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及深度学习与模式识别领域,具体是一种深蹲动作识别方法,具体步骤为:S1、数据提取;S2、输入数据;S3、数据预处理;S4、训练卷积神经网络;S5、计算初始概率;S6、计算转移概率;S7、使用维特比算法重新分类;S8、算法性能评估;本发明使用惯导式动作捕捉设备提取数据,在卷积神经网络CNN的基础上进行深度开发,提出一种基于CNN的新型算法,并将该方法应用于深蹲运动的动作识别实验,实验结果表明,该方法可以正确区分深蹲运动中标准蹲姿与非标准蹲姿,相比于CNN,该方法具有较高的识别准确率。

Description

一种深蹲动作识别方法
技术领域
本发明涉及深度学习与模式识别领域,具体是一种深蹲动作识别方法。
背景技术
近年来,使用端到端的深度学习程序训练的神经网络因解决各种复杂机器学习问题而备受关注。人体动作识别技术被认为是计算机视觉中广为人知的研究主题之一,对于理解和分析人类活动至关重要,通过与多种设备相结合,现已服务于从视觉监视到人机交互系统的诸多应用领域。
深蹲是一项健身运动,是改善健康和增强肌肉的最常见运动之一,它几乎牵涉到身体的每一块肌肉,由于其动作的复合性和全身性而深受广大健身爱好者欢迎。但是,大多数人在进行训练时通常由于不良习惯或训练时遇到障碍等并不能完成标准的深蹲动作,错误地进行深蹲练习会造成潜在的伤害,对人们来说,通过训练执行锻炼中的通用标准模式非常重要,当人们深蹲训练动作不标准时,应向他们提出警告,避免运动中受伤。
发明内容
为了解决上述问题,本发明提出一种深蹲动作识别方法。
一种深蹲动作识别方法,其具体步骤如下:
S1、数据提取:下蹲需要4秒,传感器的捕获速度为100帧/秒,因此数据序列的长度为450帧,共设有6种深蹲模式;
S2、输入数据:实验中共使用8个感知神经元的传感器,每个感知神经元产生的计算数据为12列,随后,在训练数据的第1列增加不同动作模式的序列,分别记为0,1,2,3,4,5,作为机器学习中监督学习的标签,其余96列数据作为机器学习的训练数据,则输入数据尺寸大小为97×135000;
S3、预处理:
a、数据标准化:在训练数据经卷积神经网络CNN训练前,根据公式1-1对数据进行标准化:
Figure BDA0002942100460000021
其中,X是单个特征的值,μ是平均值,而σ是X的标准偏差;
b、数据分割处理:对输入数据做窗口分割处理,将每个窗口大小划分为96×450;
S4、训练CNN:在对输入数据预处理后开始训练卷积神经网络,卷积神经网络结构一共包含7层,具体说明如下:
a、第一层,卷积层,本层输入矩阵大小为96×450×1,卷积核为一维滤波器,尺寸大小为1×12,深度为46,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为46×439×46;
b、第二层,池化层,本层输入矩阵大小为46×439×46,池化方法为最大化池化,卷积核为一维滤波器,卷积核尺寸大小为1×10,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为46×86×46;
c、第三层,卷积层,本层输入矩阵大小为46×86×46,卷积核为一维滤波器,卷积核尺寸大小为1×6,深度为23,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为23×81×23;
d、第四层,池化层,本层输入矩阵大小为23×81×23,池化方法为最大化池化,卷积核为一维滤波器,卷积核尺寸大小为1×3,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为16×23×23。第四层的输出被转换成一维数组,并连接到神经网络中的每个神经元;
e、第五层,全连接层Ⅰ,本层输入矩阵大小为16×23×23=8464,共8464个神经元节点,使用的激活函数是ReLU函数;
f、第六层,全连接层Ⅱ,本层输入矩阵大小为1×8464,并对隐藏节点做dropout机制处理,保持其丢弃概率为50%,输出神经元规模为1×1000,共1000个神经元节点;
g、第七层,softmax层,本层在全连接层Ⅱ之后,增加softmax函数,连接到6个输出节点,每个节点代表一个深蹲模式,本层输出为后验概率P(S|X),其中,S为未知深蹲序列,X为输入数据序列;
S5、计算初始概率;
S6、计算转移概率;
S7、使用维特比算法重新分类:在卷积神经网络训练完成后,使用维特比算法对深蹲序列重新分类,具体步骤如下:
a、根据贝叶斯决策规则,将卷积神经网络中得到的后验概率P(S|X)表示为公式1-2;
Figure BDA0002942100460000031
b、对给定样本X,证据因子P(X)与类标记无关,因此,后验概率P(S|X)表示为类先验概率P(S)和类条件概率密度P(X|S)的乘积。
P(S|X)=P(X|S)P(S) (公式1-3);
c、考虑到输入的时间变化,采用一阶马尔可夫假设,将P(X|S)最大化,如公式1-4中,P(st|st-1)为6种深蹲动作之间的转移概率,P(xt|st)为公式1-2中类条件概率密度函数;
Figure BDA0002942100460000032
d、再次使用贝叶斯决策规则将P(xt|st)转化为似然度:
Figure BDA0002942100460000033
e、使用维特比算法对深蹲状态序列重新分类,求出最有可能的识别序列
Figure BDA0002942100460000034
Figure BDA0002942100460000035
f、联立公式1-2、公式1-3、公式1-4、公式1-5、公式1-6,得到最终深蹲动作识别公式1-7:
Figure BDA0002942100460000036
S8、算法性能评估:通过使用三种不同的指标:准确率(Accuracy),灵敏度(Sensitivity)和特异性(Specificity)进行评估,公式如下:
Figure BDA0002942100460000037
Figure BDA0002942100460000041
Figure BDA0002942100460000042
所述的步骤S1的实验中,选择8个感知神经元节点用于本实验,分别放置在身体脊椎、臀部、左腿、左脚、右腿、右脚,其中在左腿和右腿处分别在膝盖上侧和下侧安装两个感知神经元的传感器。
所述的步骤S5中,6种深蹲模式初始概率均匀分布,均为1/6。
所述的步骤S6中,转移概率使用公式
Figure BDA0002942100460000043
计算,其中,kij为状态i到状态j状态转移的次数,N是不同状态的数量,N=6。
所述的步骤S7-a中,对于公式1-2,P(S)是类先验概率;P(X|S)为S关于X的似然函数,也称类条件概率密度函数;P(X)为用于归一化的证据因子,其目的在于保证各类别后验概率总和为1;
所述的步骤S7-c中,对于公式1-4,将P(X|S)最大化,其目的在于将识别错误率降至最低。
所述的步骤S7-d中,对于公式1-5中P(st)表示深蹲模式状态之间的转移次数,P(xt)为常数,得到S7-f中公式1-7为最佳识别序列。
本发明的有益效果是:针对现有动作识别系统多采用光学式动捕设备,价格昂贵且对环境要求较高,易受到强光、遮挡和失真类条件限制的弊端,本发明使用惯导式动作捕捉设备,提出一种基于卷积神经网络CNN的新型算法,该算法在CNN的基础上进行深度开发,并将该算法应用于深蹲运动的动作识别实验,实验结果表明,该方法可以正确区分深蹲运动中标准蹲姿与非标准蹲姿,相比于卷积神经网络,该新型算法具有较高的识别准确率。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1为本发明的流程结构示意图;
图2为本发明的混淆矩阵结构示意图;
图3为本发明的卷积神经网络结构示意图;
图4为本发明的算法模型结构示意图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面对本发明进一步阐述。
如图1至图4所示,一种深蹲动作识别方法,其具体步骤如下:
S1、数据提取:下蹲需要4秒,传感器的捕获速度为100帧/秒,因此数据序列的长度为450帧,共设有6种深蹲模式;
S2、输入数据:实验中共使用8个感知神经元的传感器,每个感知神经元产生的计算数据为12列,随后,在训练数据的第1列增加不同动作模式的序列,分别记为0,1,2,3,4,5,作为机器学习中监督学习的标签,其余96列数据作为机器学习的训练数据,则输入数据尺寸大小为97×135000;
S3、预处理:
a、数据标准化:在训练数据经卷积神经网络CNN训练前,根据公式6-1对数据进行标准化:
Figure BDA0002942100460000051
其中,X是单个特征的值,μ是平均值,而σ是X的标准偏差;
b、数据分割处理:对输入数据做窗口分割处理,将每个窗口大小划分为96×450;
S4、训练CNN:在对输入数据预处理后开始训练卷积神经网络,卷积神经网络结构一共包含7层,具体说明如下:
a、第一层,卷积层,本层输入矩阵大小为96×450×1,卷积核为一维滤波器,尺寸大小为1×12,深度为46,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为46×439×46;
b、第二层,池化层,本层输入矩阵大小为46×439×46,池化方法为最大化池化,卷积核为一维滤波器,卷积核尺寸大小为1×10,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为46×86×46;
c、第三层,卷积层,本层输入矩阵大小为46×86×46,卷积核为一维滤波器,卷积核尺寸大小为1×6,深度为23,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为23×81×23;
d、第四层,池化层,本层输入矩阵大小为23×81×23,池化方法为最大化池化,卷积核为一维滤波器,卷积核尺寸大小为1×3,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为16×23×23。第四层的输出被转换成一维数组,并连接到神经网络中的每个神经元;
e、第五层,全连接层Ⅰ,本层输入矩阵大小为16×23×23=8464,共8464个神经元节点,使用的激活函数是ReLU函数;
f、第六层,全连接层Ⅱ,本层输入矩阵大小为1×8464,并对隐藏节点做dropout机制处理,保持其丢弃概率为50%,输出神经元规模为1×1000,共1000个神经元节点;
g、第七层,softmax层,本层在全连接层Ⅱ之后,增加softmax函数,连接到6个输出节点,每个节点代表一个深蹲模式,本层输出为后验概率P(S|X),其中,S为未知深蹲序列,X为输入数据序列;
S5、计算初始概率;
S6、计算转移概率;
S7、使用维特比算法重新分类:在卷积神经网络训练完成后,使用维特比算法对深蹲序列重新分类,具体步骤如下:
a、根据贝叶斯决策规则,将卷积神经网络中得到的后验概率P(S|X)表示为公式1-2;
Figure BDA0002942100460000061
b、对给定样本X,证据因子P(X)与类标记无关,因此,后验概率P(S|X)表示为类先验概率P(S)和类条件概率密度P(X|S)的乘积。
P(S|X)=P(X|S)P(S) (公式1-3);
c、考虑到输入的时间变化,采用一阶马尔可夫假设,将P(X|S)最大化,如公式1-4中,P(st|st-1)为6种深蹲动作之间的转移概率,P(xt|st)为公式1-2中类条件概率密度函数;
Figure BDA0002942100460000071
d、再次使用贝叶斯决策规则将P(xt|st)转化为似然度:
Figure BDA0002942100460000072
e、使用维特比算法对深蹲状态序列重新分类,求出最有可能的识别序列
Figure BDA0002942100460000073
Figure BDA0002942100460000074
f、联立公式1-2、公式1-3、公式1-4、公式1-5、公式1-6,得到最终深蹲动作识别公式1-7:
Figure BDA0002942100460000075
S8、算法性能评估:通过使用三种不同的指标:准确率(Accuracy),灵敏度(Sensitivity)和特异性(Specificity)进行评估,公式如下:
Figure BDA0002942100460000076
Figure BDA0002942100460000077
Figure BDA0002942100460000078
针对现有动作识别系统多采用光学式动捕设备,价格昂贵且对环境要求较高,易受到强光、遮挡和失真类条件限制的弊端,本发明使用惯导式动作捕捉设备进行数据获取;针对现有的单一算法中无法满足高精度稳定的动作检出的不足,本发明基于卷积神经网络算法,在卷积神经网络CNN方法的基础上探寻了新型的混合模型算法,融合了多个单一算法的特点,通过给定任务特征的自动提取,使深蹲运动识别准确率达到较高水平。
如图4所示,初始概率和转移概率分别为步骤S4和步骤S5,观测概率为卷积神经网络得到的后验概率,从开始到动作1、动作2、动作3、动作4、动作5、动作6,到每个不同动作的概率为初始概率,图中用长短虚线表示;动作1、动作2、动作3、动作4、动作5、动作6之间的实线部分称为动作转移概率;从动作1-6到模式0-5,短虚线部分称为观测概率,此处由卷积神经网络产生的后验概率嵌入,Pattern即为模式。
所述的步骤S1的实验中,选择8个感知神经元节点用于本实验,分别放置在身体脊椎、臀部、左腿、左脚、右腿、右脚,其中在左腿和右腿处分别在膝盖上侧和下侧安装两个感知神经元的传感器。
感知神经元节点基本参数如下:
静态精度:俯仰角与横滚角精度为+/-1度,航向角精度为+/-2度;
最大测量范围:角速度+/-2000dps,加速度+/-16G;
硬件连接方式:6针Pogo-pin针脚;
输出接口UART 3Mbps,TTL电平及CMOS电平兼容;
工作电压:3.3V;
功耗:20-50mA@3.3V,随内部计算速率略有变化;
外壳:铝合金;
尺寸:12.5mm*13.1mm*4.3mm;
重量:1.2g。
所述的步骤S5中,6种深蹲模式初始概率均匀分布,均为1/6。
所述的步骤S6中,转移概率使用公式
Figure BDA0002942100460000081
计算,其中,kij为状态i到状态j状态转移的次数,N是不同状态的数量,N=6。
所述的步骤S7-a中,对于公式1-2,P(S)是类先验概率;P(X|S)为S关于X的似然函数,也称类条件概率密度函数;P(X)为用于归一化的证据因子,其目的在于保证各类别后验概率总和为1;
所述的步骤S7-c中,对于公式1-4,将P(X|S)最大化,其目的在于将识别错误率降至最低。
所述的步骤S7-d中,对于公式1-5中P(st)表示深蹲模式状态之间的转移次数,P(xt)为常数,最终得到S7-f中公式1-7,从而得到最佳识别序列。
所述的步骤S8通过公式计算后得到如下表格:
Sensitivity(%) Specificity(%) Accuracy(%)
Pattern0 100 100 100
Pattern1 85.18 99.63 98.33
Pattern2 96.49 97.94 97.67
Pattern3 96.75 99.57 98
Pattern4 100 99.22 99.33
Pattern5 100 99.14 99.33
结论:本发明通过这套算法,针对混淆矩阵,混淆矩阵的行表示实际深蹲动作序列,列表示算法识别深蹲动作序列,从混淆矩阵中可以看出:对于pattern0,算法识别结果与实际深蹲序列相同;对于pattern1,算法正确识别23次,错误识别4次,其中识别为pattern2两次,识别为pattern3一次,识别为pattern4一次;以此类推,最终本方法对6种深蹲动作识别准确率达到96.33%。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (4)

1.一种深蹲动作识别方法,其特征在于:其具体步骤如下:
S1、数据提取:下蹲需要4秒,传感器的捕获速度为100帧/秒,因此数据序列的长度为450帧,共设有6种深蹲模式;
S2、输入数据:实验中共使用8个感知神经元的传感器,每个感知神经元产生的计算数据为12列,随后,在训练数据的第1列增加不同动作模式的序列,分别记为0,1,2,3,4,5,作为机器学习中监督学习的标签,其余96列数据作为机器学习的训练数据,则输入数据尺寸大小为97×135000;
S3、预处理:
a、数据标准化:在训练数据经卷积神经网络CNN训练前,根据公式1-1对数据进行标准化:
Figure FDA0003783960780000011
其中,X是单个特征的值,μ是平均值,而σ是X的标准偏差;
b、数据分割处理:对输入数据做窗口分割处理,将每个窗口大小划分为96×450;
S4、训练CNN:在对输入数据预处理后开始训练卷积神经网络,卷积神经网络结构一共包含7层,具体说明如下:
a、第一层,卷积层,本层输入矩阵大小为96×450×1,卷积核为一维滤波器,尺寸大小为1×12,深度为46,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为46×439×46;
b、第二层,池化层,本层输入矩阵大小为46×439×46,池化方法为最大化池化,卷积核为一维滤波器,卷积核尺寸大小为1×10,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为46×86×46;
c、第三层,卷积层,本层输入矩阵大小为46×86×46,卷积核为一维滤波器,卷积核尺寸大小为1×6,深度为23,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为23×81×23;
d、第四层,池化层,本层输入矩阵大小为23×81×23,池化方法为最大化池化,卷积核为一维滤波器,卷积核尺寸大小为1×3,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为16×23×23;第四层的输出被转换成一维数组,并连接到神经网络中的每个神经元;
e、第五层,全连接层Ⅰ,本层输入矩阵大小为16×23×23=8464,共8464个神经元节点,使用的激活函数是ReLU函数;
f、第六层,全连接层Ⅱ,本层输入矩阵大小为1×8464,并对隐藏节点做dropout机制处理,保持其丢弃概率为50%,输出神经元规模为1×1000,共1000个神经元节点;
g、第七层,softmax层,本层在全连接层Ⅱ之后,增加softmax函数,连接到6个输出节点,每个节点代表一个深蹲模式,本层输出为后验概率P(S|X),其中,S为未知深蹲序列,X为输入数据序列;
S5、计算初始概率;
S6、计算转移概率;
S7、使用维特比算法重新分类:在卷积神经网络训练完成后,使用维特比算法对深蹲序列重新分类,具体步骤如下:
a、根据贝叶斯决策规则,将卷积神经网络中得到的后验概率P(S|X)表示为公式1-2;
Figure FDA0003783960780000021
b、对给定样本X,证据因子P(X)与类标记无关,因此,后验概率P(S|X)表示为类先验概率P(S)和类条件概率密度P(X|S)的乘积;
P(S|X)=P(X|S)P(S)(公式1-3);
c、考虑到输入的时间变化,采用一阶马尔可夫假设,将P(X|S)最大化,如公式1-4中,P(st|st-1)为6种深蹲动作之间的转移概率,P(xt|st)为公式1-2中类条件概率密度函数;
Figure FDA0003783960780000022
d、再次使用贝叶斯决策规则将P(xt|st)转化为似然度:
Figure FDA0003783960780000023
e、使用维特比算法对深蹲状态序列重新分类,求出最有可能的识别序列
Figure FDA0003783960780000031
Figure FDA0003783960780000032
f、联立公式1-2、公式1-3、公式1-4、公式1-5、公式1-6,得到最终深蹲动作识别公式1-7:
Figure FDA0003783960780000033
S8、算法性能评估:通过使用三种不同的指标:准确率Accuracy,灵敏度Sensitivity和特异性Specificity进行评估,公式如下:
Figure FDA0003783960780000034
Figure FDA0003783960780000035
Figure FDA0003783960780000036
所述的步骤S7-a中,对于公式1-2,P(S)是类先验概率;P(X|S)为S关于X的似然函数,也称类条件概率密度函数;P(X)为用于归一化的证据因子,其目的在于保证各类别后验概率总和为1;
所述的步骤S7-c中,对于公式1-4,将P(X|S)最大化,其目的在于将识别错误率降至最低,
所述的步骤S7-d中,对于公式1-5中P(st)表示深蹲模式状态之间的转移次数,P(xt)为常数,最终得到S7-f中公式1-7为最佳识别序列。
2.根据权利要求1所述的一种深蹲动作识别方法,其特征在于:所述的步骤S1的实验中,选择8个感知神经元节点用于本实验,分别放置在身体脊椎、臀部、左腿、左脚、右腿、右脚,其中在左腿和右腿处分别在膝盖上侧和下侧安装两个感知神经元的传感器。
3.根据权利要求1所述的一种深蹲动作识别方法,其特征在于:所述的步骤S5中,6种深蹲模式初始概率均匀分布,均为1/6。
4.根据权利要求1所述的一种深蹲动作识别方法,其特征在于:所述的步骤S6中,转移概率使用公式
Figure FDA0003783960780000041
计算,其中,kij为状态i到状态j状态转移的次数,N是不同状态的数量,N=6。
CN202110183495.6A 2021-02-08 2021-02-08 一种深蹲动作识别方法 Active CN112784812B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110183495.6A CN112784812B (zh) 2021-02-08 2021-02-08 一种深蹲动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110183495.6A CN112784812B (zh) 2021-02-08 2021-02-08 一种深蹲动作识别方法

Publications (2)

Publication Number Publication Date
CN112784812A CN112784812A (zh) 2021-05-11
CN112784812B true CN112784812B (zh) 2022-09-23

Family

ID=75761576

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110183495.6A Active CN112784812B (zh) 2021-02-08 2021-02-08 一种深蹲动作识别方法

Country Status (1)

Country Link
CN (1) CN112784812B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11758350B2 (en) * 2021-09-24 2023-09-12 Apple Inc. Posture transition detection and classification using linked biomechanical model
CN118053050B (zh) * 2024-04-16 2024-07-05 西北工业大学 一种用于动作识别的自适应分类决策面构建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203283A (zh) * 2016-06-30 2016-12-07 重庆理工大学 基于三维卷积深度神经网络和深度视频的动作识别方法
CN108304795A (zh) * 2018-01-29 2018-07-20 清华大学 基于深度强化学习的人体骨架行为识别方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8774499B2 (en) * 2011-02-28 2014-07-08 Seiko Epson Corporation Embedded optical flow features
CN105205475B (zh) * 2015-10-20 2019-02-05 北京工业大学 一种动态手势识别方法
CN107180226A (zh) * 2017-04-28 2017-09-19 华南理工大学 一种基于组合神经网络的动态手势识别方法
CN109214250A (zh) * 2017-07-05 2019-01-15 中南大学 一种基于多尺度卷积神经网络的静态手势识别方法
CN108537147B (zh) * 2018-03-22 2021-12-10 东华大学 一种基于深度学习的手势识别方法
CN110852442B (zh) * 2019-10-29 2022-03-15 支付宝(杭州)信息技术有限公司 一种行为辨识及模型训练的方法和装置
CN111291693B (zh) * 2020-02-17 2023-03-31 安徽工程大学 一种基于骨骼的动作识别的深度集成方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203283A (zh) * 2016-06-30 2016-12-07 重庆理工大学 基于三维卷积深度神经网络和深度视频的动作识别方法
CN108304795A (zh) * 2018-01-29 2018-07-20 清华大学 基于深度强化学习的人体骨架行为识别方法及装置

Also Published As

Publication number Publication date
CN112784812A (zh) 2021-05-11

Similar Documents

Publication Publication Date Title
Dolatabadi et al. An automated classification of pathological gait using unobtrusive sensing technology
CN112784812B (zh) 一种深蹲动作识别方法
Bu Human motion gesture recognition algorithm in video based on convolutional neural features of training images
CN110659677A (zh) 一种基于可移动传感器组合设备的人体跌倒检测方法
CN111259735B (zh) 基于多级预测特征增强卷积神经网络的单人姿态估计方法
Ghadi et al. Multiple events detection using context-intelligence features
CN112801000B (zh) 一种基于多特征融合的居家老人摔倒检测方法及系统
CN112294295A (zh) 一种基于极限学习机的人体膝部运动姿态识别方法
CN115830718A (zh) 基于步态识别预测康复训练效果的数据处理系统
CN113012815A (zh) 一种基于多模态数据的帕金森健康风险评估方法
CN105869354B (zh) 一种基于吸引子传播算法的老人跌倒检测方法
Wang et al. A2dio: Attention-driven deep inertial odometry for pedestrian localization based on 6d imu
Kale et al. Human posture recognition using artificial neural networks
CN110008847B (zh) 一种基于卷积神经网络的泳姿识别方法
CN115346272A (zh) 基于深度图像序列的实时摔倒检测方法
Hart et al. Systematic review of automatic assessment systems for resistance-training movement performance: A data science perspective
Dey et al. Workoutnet: A deep learning model for the recognition of workout actions from still images
CN113171082A (zh) 一种前束交叉韧带损伤评估方法及装置
Dong et al. An improved deep neural network method for an athlete's human motion posture recognition
CN112329716A (zh) 一种基于步态特征的行人年龄段识别方法
Jung et al. OPTIMIZING WEARABLE SYSTEM WITH SEQUENTIAL CLASSIFIER FOR CHILDREN WITH DEVELOPMENTAL DISABILITIES
CN114913547A (zh) 基于改进的Transformer网络的跌倒检测方法
CN114913585A (zh) 融合面部表情的居家老人摔倒检测方法
CN115410267A (zh) 一种基于人体骨骼与肌肉相互配合动作分析数据统计算法
CN112597842B (zh) 基于人工智能的运动检测面瘫程度评估系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant