CN112784812B - 一种深蹲动作识别方法 - Google Patents
一种深蹲动作识别方法 Download PDFInfo
- Publication number
- CN112784812B CN112784812B CN202110183495.6A CN202110183495A CN112784812B CN 112784812 B CN112784812 B CN 112784812B CN 202110183495 A CN202110183495 A CN 202110183495A CN 112784812 B CN112784812 B CN 112784812B
- Authority
- CN
- China
- Prior art keywords
- layer
- size
- data
- multiplied
- deep
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及深度学习与模式识别领域,具体是一种深蹲动作识别方法,具体步骤为:S1、数据提取;S2、输入数据;S3、数据预处理;S4、训练卷积神经网络;S5、计算初始概率;S6、计算转移概率;S7、使用维特比算法重新分类;S8、算法性能评估;本发明使用惯导式动作捕捉设备提取数据,在卷积神经网络CNN的基础上进行深度开发,提出一种基于CNN的新型算法,并将该方法应用于深蹲运动的动作识别实验,实验结果表明,该方法可以正确区分深蹲运动中标准蹲姿与非标准蹲姿,相比于CNN,该方法具有较高的识别准确率。
Description
技术领域
本发明涉及深度学习与模式识别领域,具体是一种深蹲动作识别方法。
背景技术
近年来,使用端到端的深度学习程序训练的神经网络因解决各种复杂机器学习问题而备受关注。人体动作识别技术被认为是计算机视觉中广为人知的研究主题之一,对于理解和分析人类活动至关重要,通过与多种设备相结合,现已服务于从视觉监视到人机交互系统的诸多应用领域。
深蹲是一项健身运动,是改善健康和增强肌肉的最常见运动之一,它几乎牵涉到身体的每一块肌肉,由于其动作的复合性和全身性而深受广大健身爱好者欢迎。但是,大多数人在进行训练时通常由于不良习惯或训练时遇到障碍等并不能完成标准的深蹲动作,错误地进行深蹲练习会造成潜在的伤害,对人们来说,通过训练执行锻炼中的通用标准模式非常重要,当人们深蹲训练动作不标准时,应向他们提出警告,避免运动中受伤。
发明内容
为了解决上述问题,本发明提出一种深蹲动作识别方法。
一种深蹲动作识别方法,其具体步骤如下:
S1、数据提取:下蹲需要4秒,传感器的捕获速度为100帧/秒,因此数据序列的长度为450帧,共设有6种深蹲模式;
S2、输入数据:实验中共使用8个感知神经元的传感器,每个感知神经元产生的计算数据为12列,随后,在训练数据的第1列增加不同动作模式的序列,分别记为0,1,2,3,4,5,作为机器学习中监督学习的标签,其余96列数据作为机器学习的训练数据,则输入数据尺寸大小为97×135000;
S3、预处理:
a、数据标准化:在训练数据经卷积神经网络CNN训练前,根据公式1-1对数据进行标准化:
其中,X是单个特征的值,μ是平均值,而σ是X的标准偏差;
b、数据分割处理:对输入数据做窗口分割处理,将每个窗口大小划分为96×450;
S4、训练CNN:在对输入数据预处理后开始训练卷积神经网络,卷积神经网络结构一共包含7层,具体说明如下:
a、第一层,卷积层,本层输入矩阵大小为96×450×1,卷积核为一维滤波器,尺寸大小为1×12,深度为46,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为46×439×46;
b、第二层,池化层,本层输入矩阵大小为46×439×46,池化方法为最大化池化,卷积核为一维滤波器,卷积核尺寸大小为1×10,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为46×86×46;
c、第三层,卷积层,本层输入矩阵大小为46×86×46,卷积核为一维滤波器,卷积核尺寸大小为1×6,深度为23,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为23×81×23;
d、第四层,池化层,本层输入矩阵大小为23×81×23,池化方法为最大化池化,卷积核为一维滤波器,卷积核尺寸大小为1×3,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为16×23×23。第四层的输出被转换成一维数组,并连接到神经网络中的每个神经元;
e、第五层,全连接层Ⅰ,本层输入矩阵大小为16×23×23=8464,共8464个神经元节点,使用的激活函数是ReLU函数;
f、第六层,全连接层Ⅱ,本层输入矩阵大小为1×8464,并对隐藏节点做dropout机制处理,保持其丢弃概率为50%,输出神经元规模为1×1000,共1000个神经元节点;
g、第七层,softmax层,本层在全连接层Ⅱ之后,增加softmax函数,连接到6个输出节点,每个节点代表一个深蹲模式,本层输出为后验概率P(S|X),其中,S为未知深蹲序列,X为输入数据序列;
S5、计算初始概率;
S6、计算转移概率;
S7、使用维特比算法重新分类:在卷积神经网络训练完成后,使用维特比算法对深蹲序列重新分类,具体步骤如下:
a、根据贝叶斯决策规则,将卷积神经网络中得到的后验概率P(S|X)表示为公式1-2;
b、对给定样本X,证据因子P(X)与类标记无关,因此,后验概率P(S|X)表示为类先验概率P(S)和类条件概率密度P(X|S)的乘积。
P(S|X)=P(X|S)P(S) (公式1-3);
c、考虑到输入的时间变化,采用一阶马尔可夫假设,将P(X|S)最大化,如公式1-4中,P(st|st-1)为6种深蹲动作之间的转移概率,P(xt|st)为公式1-2中类条件概率密度函数;
d、再次使用贝叶斯决策规则将P(xt|st)转化为似然度:
f、联立公式1-2、公式1-3、公式1-4、公式1-5、公式1-6,得到最终深蹲动作识别公式1-7:
S8、算法性能评估:通过使用三种不同的指标:准确率(Accuracy),灵敏度(Sensitivity)和特异性(Specificity)进行评估,公式如下:
所述的步骤S1的实验中,选择8个感知神经元节点用于本实验,分别放置在身体脊椎、臀部、左腿、左脚、右腿、右脚,其中在左腿和右腿处分别在膝盖上侧和下侧安装两个感知神经元的传感器。
所述的步骤S5中,6种深蹲模式初始概率均匀分布,均为1/6。
所述的步骤S7-a中,对于公式1-2,P(S)是类先验概率;P(X|S)为S关于X的似然函数,也称类条件概率密度函数;P(X)为用于归一化的证据因子,其目的在于保证各类别后验概率总和为1;
所述的步骤S7-c中,对于公式1-4,将P(X|S)最大化,其目的在于将识别错误率降至最低。
所述的步骤S7-d中,对于公式1-5中P(st)表示深蹲模式状态之间的转移次数,P(xt)为常数,得到S7-f中公式1-7为最佳识别序列。
本发明的有益效果是:针对现有动作识别系统多采用光学式动捕设备,价格昂贵且对环境要求较高,易受到强光、遮挡和失真类条件限制的弊端,本发明使用惯导式动作捕捉设备,提出一种基于卷积神经网络CNN的新型算法,该算法在CNN的基础上进行深度开发,并将该算法应用于深蹲运动的动作识别实验,实验结果表明,该方法可以正确区分深蹲运动中标准蹲姿与非标准蹲姿,相比于卷积神经网络,该新型算法具有较高的识别准确率。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1为本发明的流程结构示意图;
图2为本发明的混淆矩阵结构示意图;
图3为本发明的卷积神经网络结构示意图;
图4为本发明的算法模型结构示意图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面对本发明进一步阐述。
如图1至图4所示,一种深蹲动作识别方法,其具体步骤如下:
S1、数据提取:下蹲需要4秒,传感器的捕获速度为100帧/秒,因此数据序列的长度为450帧,共设有6种深蹲模式;
S2、输入数据:实验中共使用8个感知神经元的传感器,每个感知神经元产生的计算数据为12列,随后,在训练数据的第1列增加不同动作模式的序列,分别记为0,1,2,3,4,5,作为机器学习中监督学习的标签,其余96列数据作为机器学习的训练数据,则输入数据尺寸大小为97×135000;
S3、预处理:
a、数据标准化:在训练数据经卷积神经网络CNN训练前,根据公式6-1对数据进行标准化:
其中,X是单个特征的值,μ是平均值,而σ是X的标准偏差;
b、数据分割处理:对输入数据做窗口分割处理,将每个窗口大小划分为96×450;
S4、训练CNN:在对输入数据预处理后开始训练卷积神经网络,卷积神经网络结构一共包含7层,具体说明如下:
a、第一层,卷积层,本层输入矩阵大小为96×450×1,卷积核为一维滤波器,尺寸大小为1×12,深度为46,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为46×439×46;
b、第二层,池化层,本层输入矩阵大小为46×439×46,池化方法为最大化池化,卷积核为一维滤波器,卷积核尺寸大小为1×10,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为46×86×46;
c、第三层,卷积层,本层输入矩阵大小为46×86×46,卷积核为一维滤波器,卷积核尺寸大小为1×6,深度为23,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为23×81×23;
d、第四层,池化层,本层输入矩阵大小为23×81×23,池化方法为最大化池化,卷积核为一维滤波器,卷积核尺寸大小为1×3,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为16×23×23。第四层的输出被转换成一维数组,并连接到神经网络中的每个神经元;
e、第五层,全连接层Ⅰ,本层输入矩阵大小为16×23×23=8464,共8464个神经元节点,使用的激活函数是ReLU函数;
f、第六层,全连接层Ⅱ,本层输入矩阵大小为1×8464,并对隐藏节点做dropout机制处理,保持其丢弃概率为50%,输出神经元规模为1×1000,共1000个神经元节点;
g、第七层,softmax层,本层在全连接层Ⅱ之后,增加softmax函数,连接到6个输出节点,每个节点代表一个深蹲模式,本层输出为后验概率P(S|X),其中,S为未知深蹲序列,X为输入数据序列;
S5、计算初始概率;
S6、计算转移概率;
S7、使用维特比算法重新分类:在卷积神经网络训练完成后,使用维特比算法对深蹲序列重新分类,具体步骤如下:
a、根据贝叶斯决策规则,将卷积神经网络中得到的后验概率P(S|X)表示为公式1-2;
b、对给定样本X,证据因子P(X)与类标记无关,因此,后验概率P(S|X)表示为类先验概率P(S)和类条件概率密度P(X|S)的乘积。
P(S|X)=P(X|S)P(S) (公式1-3);
c、考虑到输入的时间变化,采用一阶马尔可夫假设,将P(X|S)最大化,如公式1-4中,P(st|st-1)为6种深蹲动作之间的转移概率,P(xt|st)为公式1-2中类条件概率密度函数;
d、再次使用贝叶斯决策规则将P(xt|st)转化为似然度:
f、联立公式1-2、公式1-3、公式1-4、公式1-5、公式1-6,得到最终深蹲动作识别公式1-7:
S8、算法性能评估:通过使用三种不同的指标:准确率(Accuracy),灵敏度(Sensitivity)和特异性(Specificity)进行评估,公式如下:
针对现有动作识别系统多采用光学式动捕设备,价格昂贵且对环境要求较高,易受到强光、遮挡和失真类条件限制的弊端,本发明使用惯导式动作捕捉设备进行数据获取;针对现有的单一算法中无法满足高精度稳定的动作检出的不足,本发明基于卷积神经网络算法,在卷积神经网络CNN方法的基础上探寻了新型的混合模型算法,融合了多个单一算法的特点,通过给定任务特征的自动提取,使深蹲运动识别准确率达到较高水平。
如图4所示,初始概率和转移概率分别为步骤S4和步骤S5,观测概率为卷积神经网络得到的后验概率,从开始到动作1、动作2、动作3、动作4、动作5、动作6,到每个不同动作的概率为初始概率,图中用长短虚线表示;动作1、动作2、动作3、动作4、动作5、动作6之间的实线部分称为动作转移概率;从动作1-6到模式0-5,短虚线部分称为观测概率,此处由卷积神经网络产生的后验概率嵌入,Pattern即为模式。
所述的步骤S1的实验中,选择8个感知神经元节点用于本实验,分别放置在身体脊椎、臀部、左腿、左脚、右腿、右脚,其中在左腿和右腿处分别在膝盖上侧和下侧安装两个感知神经元的传感器。
感知神经元节点基本参数如下:
静态精度:俯仰角与横滚角精度为+/-1度,航向角精度为+/-2度;
最大测量范围:角速度+/-2000dps,加速度+/-16G;
硬件连接方式:6针Pogo-pin针脚;
输出接口UART 3Mbps,TTL电平及CMOS电平兼容;
工作电压:3.3V;
功耗:20-50mA@3.3V,随内部计算速率略有变化;
外壳:铝合金;
尺寸:12.5mm*13.1mm*4.3mm;
重量:1.2g。
所述的步骤S5中,6种深蹲模式初始概率均匀分布,均为1/6。
所述的步骤S7-a中,对于公式1-2,P(S)是类先验概率;P(X|S)为S关于X的似然函数,也称类条件概率密度函数;P(X)为用于归一化的证据因子,其目的在于保证各类别后验概率总和为1;
所述的步骤S7-c中,对于公式1-4,将P(X|S)最大化,其目的在于将识别错误率降至最低。
所述的步骤S7-d中,对于公式1-5中P(st)表示深蹲模式状态之间的转移次数,P(xt)为常数,最终得到S7-f中公式1-7,从而得到最佳识别序列。
所述的步骤S8通过公式计算后得到如下表格:
Sensitivity(%) | Specificity(%) | Accuracy(%) | |
Pattern0 | 100 | 100 | 100 |
Pattern1 | 85.18 | 99.63 | 98.33 |
Pattern2 | 96.49 | 97.94 | 97.67 |
Pattern3 | 96.75 | 99.57 | 98 |
Pattern4 | 100 | 99.22 | 99.33 |
Pattern5 | 100 | 99.14 | 99.33 |
结论:本发明通过这套算法,针对混淆矩阵,混淆矩阵的行表示实际深蹲动作序列,列表示算法识别深蹲动作序列,从混淆矩阵中可以看出:对于pattern0,算法识别结果与实际深蹲序列相同;对于pattern1,算法正确识别23次,错误识别4次,其中识别为pattern2两次,识别为pattern3一次,识别为pattern4一次;以此类推,最终本方法对6种深蹲动作识别准确率达到96.33%。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (4)
1.一种深蹲动作识别方法,其特征在于:其具体步骤如下:
S1、数据提取:下蹲需要4秒,传感器的捕获速度为100帧/秒,因此数据序列的长度为450帧,共设有6种深蹲模式;
S2、输入数据:实验中共使用8个感知神经元的传感器,每个感知神经元产生的计算数据为12列,随后,在训练数据的第1列增加不同动作模式的序列,分别记为0,1,2,3,4,5,作为机器学习中监督学习的标签,其余96列数据作为机器学习的训练数据,则输入数据尺寸大小为97×135000;
S3、预处理:
a、数据标准化:在训练数据经卷积神经网络CNN训练前,根据公式1-1对数据进行标准化:
其中,X是单个特征的值,μ是平均值,而σ是X的标准偏差;
b、数据分割处理:对输入数据做窗口分割处理,将每个窗口大小划分为96×450;
S4、训练CNN:在对输入数据预处理后开始训练卷积神经网络,卷积神经网络结构一共包含7层,具体说明如下:
a、第一层,卷积层,本层输入矩阵大小为96×450×1,卷积核为一维滤波器,尺寸大小为1×12,深度为46,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为46×439×46;
b、第二层,池化层,本层输入矩阵大小为46×439×46,池化方法为最大化池化,卷积核为一维滤波器,卷积核尺寸大小为1×10,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为46×86×46;
c、第三层,卷积层,本层输入矩阵大小为46×86×46,卷积核为一维滤波器,卷积核尺寸大小为1×6,深度为23,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为23×81×23;
d、第四层,池化层,本层输入矩阵大小为23×81×23,池化方法为最大化池化,卷积核为一维滤波器,卷积核尺寸大小为1×3,平移步长为5,使用的激活函数是ReLU函数,本层的输出矩阵大小为16×23×23;第四层的输出被转换成一维数组,并连接到神经网络中的每个神经元;
e、第五层,全连接层Ⅰ,本层输入矩阵大小为16×23×23=8464,共8464个神经元节点,使用的激活函数是ReLU函数;
f、第六层,全连接层Ⅱ,本层输入矩阵大小为1×8464,并对隐藏节点做dropout机制处理,保持其丢弃概率为50%,输出神经元规模为1×1000,共1000个神经元节点;
g、第七层,softmax层,本层在全连接层Ⅱ之后,增加softmax函数,连接到6个输出节点,每个节点代表一个深蹲模式,本层输出为后验概率P(S|X),其中,S为未知深蹲序列,X为输入数据序列;
S5、计算初始概率;
S6、计算转移概率;
S7、使用维特比算法重新分类:在卷积神经网络训练完成后,使用维特比算法对深蹲序列重新分类,具体步骤如下:
a、根据贝叶斯决策规则,将卷积神经网络中得到的后验概率P(S|X)表示为公式1-2;
b、对给定样本X,证据因子P(X)与类标记无关,因此,后验概率P(S|X)表示为类先验概率P(S)和类条件概率密度P(X|S)的乘积;
P(S|X)=P(X|S)P(S)(公式1-3);
c、考虑到输入的时间变化,采用一阶马尔可夫假设,将P(X|S)最大化,如公式1-4中,P(st|st-1)为6种深蹲动作之间的转移概率,P(xt|st)为公式1-2中类条件概率密度函数;
d、再次使用贝叶斯决策规则将P(xt|st)转化为似然度:
f、联立公式1-2、公式1-3、公式1-4、公式1-5、公式1-6,得到最终深蹲动作识别公式1-7:
S8、算法性能评估:通过使用三种不同的指标:准确率Accuracy,灵敏度Sensitivity和特异性Specificity进行评估,公式如下:
所述的步骤S7-a中,对于公式1-2,P(S)是类先验概率;P(X|S)为S关于X的似然函数,也称类条件概率密度函数;P(X)为用于归一化的证据因子,其目的在于保证各类别后验概率总和为1;
所述的步骤S7-c中,对于公式1-4,将P(X|S)最大化,其目的在于将识别错误率降至最低,
所述的步骤S7-d中,对于公式1-5中P(st)表示深蹲模式状态之间的转移次数,P(xt)为常数,最终得到S7-f中公式1-7为最佳识别序列。
2.根据权利要求1所述的一种深蹲动作识别方法,其特征在于:所述的步骤S1的实验中,选择8个感知神经元节点用于本实验,分别放置在身体脊椎、臀部、左腿、左脚、右腿、右脚,其中在左腿和右腿处分别在膝盖上侧和下侧安装两个感知神经元的传感器。
3.根据权利要求1所述的一种深蹲动作识别方法,其特征在于:所述的步骤S5中,6种深蹲模式初始概率均匀分布,均为1/6。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110183495.6A CN112784812B (zh) | 2021-02-08 | 2021-02-08 | 一种深蹲动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110183495.6A CN112784812B (zh) | 2021-02-08 | 2021-02-08 | 一种深蹲动作识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112784812A CN112784812A (zh) | 2021-05-11 |
CN112784812B true CN112784812B (zh) | 2022-09-23 |
Family
ID=75761576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110183495.6A Active CN112784812B (zh) | 2021-02-08 | 2021-02-08 | 一种深蹲动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112784812B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11758350B2 (en) * | 2021-09-24 | 2023-09-12 | Apple Inc. | Posture transition detection and classification using linked biomechanical model |
CN118053050B (zh) * | 2024-04-16 | 2024-07-05 | 西北工业大学 | 一种用于动作识别的自适应分类决策面构建方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203283A (zh) * | 2016-06-30 | 2016-12-07 | 重庆理工大学 | 基于三维卷积深度神经网络和深度视频的动作识别方法 |
CN108304795A (zh) * | 2018-01-29 | 2018-07-20 | 清华大学 | 基于深度强化学习的人体骨架行为识别方法及装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8774499B2 (en) * | 2011-02-28 | 2014-07-08 | Seiko Epson Corporation | Embedded optical flow features |
CN105205475B (zh) * | 2015-10-20 | 2019-02-05 | 北京工业大学 | 一种动态手势识别方法 |
CN107180226A (zh) * | 2017-04-28 | 2017-09-19 | 华南理工大学 | 一种基于组合神经网络的动态手势识别方法 |
CN109214250A (zh) * | 2017-07-05 | 2019-01-15 | 中南大学 | 一种基于多尺度卷积神经网络的静态手势识别方法 |
CN108537147B (zh) * | 2018-03-22 | 2021-12-10 | 东华大学 | 一种基于深度学习的手势识别方法 |
CN110852442B (zh) * | 2019-10-29 | 2022-03-15 | 支付宝(杭州)信息技术有限公司 | 一种行为辨识及模型训练的方法和装置 |
CN111291693B (zh) * | 2020-02-17 | 2023-03-31 | 安徽工程大学 | 一种基于骨骼的动作识别的深度集成方法 |
-
2021
- 2021-02-08 CN CN202110183495.6A patent/CN112784812B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203283A (zh) * | 2016-06-30 | 2016-12-07 | 重庆理工大学 | 基于三维卷积深度神经网络和深度视频的动作识别方法 |
CN108304795A (zh) * | 2018-01-29 | 2018-07-20 | 清华大学 | 基于深度强化学习的人体骨架行为识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112784812A (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dolatabadi et al. | An automated classification of pathological gait using unobtrusive sensing technology | |
CN112784812B (zh) | 一种深蹲动作识别方法 | |
Bu | Human motion gesture recognition algorithm in video based on convolutional neural features of training images | |
CN110659677A (zh) | 一种基于可移动传感器组合设备的人体跌倒检测方法 | |
CN111259735B (zh) | 基于多级预测特征增强卷积神经网络的单人姿态估计方法 | |
Ghadi et al. | Multiple events detection using context-intelligence features | |
CN112801000B (zh) | 一种基于多特征融合的居家老人摔倒检测方法及系统 | |
CN112294295A (zh) | 一种基于极限学习机的人体膝部运动姿态识别方法 | |
CN115830718A (zh) | 基于步态识别预测康复训练效果的数据处理系统 | |
CN113012815A (zh) | 一种基于多模态数据的帕金森健康风险评估方法 | |
CN105869354B (zh) | 一种基于吸引子传播算法的老人跌倒检测方法 | |
Wang et al. | A2dio: Attention-driven deep inertial odometry for pedestrian localization based on 6d imu | |
Kale et al. | Human posture recognition using artificial neural networks | |
CN110008847B (zh) | 一种基于卷积神经网络的泳姿识别方法 | |
CN115346272A (zh) | 基于深度图像序列的实时摔倒检测方法 | |
Hart et al. | Systematic review of automatic assessment systems for resistance-training movement performance: A data science perspective | |
Dey et al. | Workoutnet: A deep learning model for the recognition of workout actions from still images | |
CN113171082A (zh) | 一种前束交叉韧带损伤评估方法及装置 | |
Dong et al. | An improved deep neural network method for an athlete's human motion posture recognition | |
CN112329716A (zh) | 一种基于步态特征的行人年龄段识别方法 | |
Jung et al. | OPTIMIZING WEARABLE SYSTEM WITH SEQUENTIAL CLASSIFIER FOR CHILDREN WITH DEVELOPMENTAL DISABILITIES | |
CN114913547A (zh) | 基于改进的Transformer网络的跌倒检测方法 | |
CN114913585A (zh) | 融合面部表情的居家老人摔倒检测方法 | |
CN115410267A (zh) | 一种基于人体骨骼与肌肉相互配合动作分析数据统计算法 | |
CN112597842B (zh) | 基于人工智能的运动检测面瘫程度评估系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |