CN110991251B - 基于深度学习的无源人体运动识别方法 - Google Patents
基于深度学习的无源人体运动识别方法 Download PDFInfo
- Publication number
- CN110991251B CN110991251B CN201911078785.3A CN201911078785A CN110991251B CN 110991251 B CN110991251 B CN 110991251B CN 201911078785 A CN201911078785 A CN 201911078785A CN 110991251 B CN110991251 B CN 110991251B
- Authority
- CN
- China
- Prior art keywords
- data
- matrix
- behavior
- neural network
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 238000013135 deep learning Methods 0.000 title claims abstract description 10
- 238000012549 training Methods 0.000 claims abstract description 105
- 238000003062 neural network model Methods 0.000 claims abstract description 103
- 230000006399 behavior Effects 0.000 claims description 148
- 239000011159 matrix material Substances 0.000 claims description 147
- 230000001133 acceleration Effects 0.000 claims description 122
- 230000008569 process Effects 0.000 claims description 54
- 238000012795 verification Methods 0.000 claims description 41
- 210000005036 nerve Anatomy 0.000 claims description 36
- 238000012360 testing method Methods 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 23
- 239000013598 vector Substances 0.000 claims description 23
- 238000005070 sampling Methods 0.000 claims description 18
- 230000009466 transformation Effects 0.000 claims description 11
- 210000001015 abdomen Anatomy 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 238000010200 validation analysis Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 230000014509 gene expression Effects 0.000 claims 1
- 230000003542 behavioural effect Effects 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于深度学习的无源人体运动识别方法,通过首先对人体运动数据进行行为特征数据提取获取训练数据,然后在笔记本电脑中使用tensorflow构建深度神经网络模型,基于训练数据采用深度学习的方法实现对深度神经网络模型的训练,在人体运动识别时,通过给待识别人员配备WISP实现人体运动数据的采集,然后提取采集的运动数据的特征数据作为深度神经网络模型的输入数据,通过深度神经网络模型实现运动识别;优点是成本较低,识别时间短,且具有较高的识别准确率。
Description
技术领域
本发明涉及一种无源人体运动识别方法,尤其是涉及一种基于深度学习的无源人体运动识别方法。
背景技术
随着计算机视觉、MEMS(Micro Electro Mechanical Systems)技术以及人工智能等技术的日益成熟和不断发展,各种各样的智能设备进入了人们的日常生活中。与此同时,用于这些智能设备的智能控制或智能监测方法也得到了快速的发展。人体运动识别方法作为一种智能监测的模式识别方法,主要对人体的运动类别和行为模式进行分析和识别,得到了广泛应用。人体运动识别方法通过获取人体的运动信息并对这些运动信息进行处理,从而识别人的行为动作。人体运动识别方法可以识别的人的行为动作,进而判断人所处的地理环境,推测其潜在目的。如在医疗健康领域,人体运动识别方法可以实现子女对年迈的父母行为的远程监测,或者医院工作人员可以对特定病人的日常行为进行远程监测。
现有的人体运动识别方法根据数据采集方式的不同主要分为基于计算机视觉的人体运动识别方法和基于可穿戴设备的人体运动识别方法两大类。基于计算机视觉的人体运动识别方法是在一个限定区域的环境中安装视频数据采集装置,通过视频数据采集装置采集该限定区域内行为人的视频图像远程发送给监测者,监测者采用图像处理方法对采集到的视频图像进行处理获取对应的运动数据,然后基于这些运动数据分析确定行为人的运动状态。基于计算机视觉的人体运动识别方法虽然在人体运动识别方面具有较高的识别准确率,但是其需要在监测区域的中安装视频数据采集装置,成本较高,且容易受到采集区域中其它物体的干扰而导致准确度降低。
基于可穿戴设备的人体运动识别方法中,行为人携带包含高精度传感器的可穿戴设备,通过可穿戴设备对行为人运动状态数据进行采集,可穿戴设备中的高精度传感器有助于提高运动状态的识别准确率。行为人做出相应的运动行为时,可穿戴设备中的高精度传感器采集相应的数据,该可穿戴设备通过无线通信的方式将采集的数据发送给数据处理终端(如PC机),数据处理终端中构建有数据处理模型(SVM(Support Vector Machine)、决策树或者深度神经网络等模型),这些数据作为数据处理模型的输入数据输入数据处理模型中得到运动类型的结果输出。
基于可穿戴设备的人体运动识别方法相对于基于计算机视觉的人体运动识别方法,使用更加方便灵活,但是该方法需要使用的可穿戴设备成本也较高,且使用的SVM、决策树等模型随着数据量增大耗时严重且识别准确率会降低,使用过度复杂网络难以确定网络结构最终也将影响运动识别准确率。
发明内容
本发明所要解决的技术问题是提供一种成本较低,识别时间短,具有较高的识别准确率的基于深度学习的无源人体运动识别方法
本发明解决上述技术问题所采用的技术方案为:一种基于深度学习的无源人体运动识别方法,包括以下步骤:
①配备WISP(Wireless Identification and Sensing Platform),并将与WISP对应的WISP源码文件装载到一台笔记本电脑上,打开笔记本电脑上的WISP源码文件对WISP的参数进行设置:将WISP源码文件中WISP上三轴加速度传感器的采样频率参数设置为30Hz;参数设置完成后,将笔记本电脑与WISP通过MSP430 USB仿真器相连将WISP源码文件下载到WISP中,下载完成后,将WISP阅读器与笔记本电脑通过USB相连,此时,WISP阅读器与WISP通过无线网络进行通讯,WISP阅读器与笔记本电脑通过USB连接后进行通信;
②样本数据采集:将WISP依次佩戴于N名测试人员腰腹位置,N为大于等于5且小于等于10的整数,每个佩戴有WISP的测试人员分别独自完成上楼、下楼、站立、行走、卧躺和跑步这6种日常人体行为,其中,上楼为第1种行为,下楼为第2种行为,站立为第3种行为,行走为第4种行为,卧躺为第5种行为,跑步为第6种行为;对每种行为连续采样时长为3分钟,采样频率为30Hz,每个测试人员佩戴的WISP依次获取该测试人员6种行为的三轴加速度数据并通过无线方式发送给所述的WISP阅读器,所述的WISP阅读器将接收到的三轴加速度数据发送给笔记本电脑,在笔记本电脑中将这些三轴加速度数据保存为data.csv文件,其中第n个测试人员第a种行为的X轴加速度序列记为 第n个测试人员第a种行为的Y轴加速度序列记为 第n个测试人员第a种行为的Z轴加速度序列记为 其中为第n个测试人员第a种行为的X轴加速度序列中第m个加速度数据,为第n个测试人员第a种行为的Y轴加速度序列中第m个加速度数据,为第n个测试人员第a种行为的Z轴加速度序列中第m个加速度数据,a=1,2,3,4,5,6,n=1,2,...,N,m=1,2,...,M,M为采样数据量,由采样时长和采样频率计算得到;
③行为特征提取:
在笔记本电脑上使用matlab读取data.csv文件,获得第n个测试人员第a种行为的X轴加速度序列Y轴加速度序列和Z轴加速度序列使用matlab分别对 和进行加窗处理,其中窗口长度设置为128,重叠率设置为50%,分别得到 和的加窗数据序列,将第n个测试人员第a种行为的X轴加速度序列的加窗数据序列记为 Vi n,a表示加窗数据序列中第i个加窗数据,i=1,2,…,M',将第n个测试人员第a种行为的Y轴加速度序列的加窗数据序列记为 表示加窗数据序列中第i个加窗数据,将第n个测试人员第a种行为的Z轴加速度序列的加窗数据序列记为 表示加窗数据序列中第i个加窗数据;
式(1)~式(6)中,∑表示求和运算符号;
将第一矩阵Sx和第二矩阵Sy之间的相关系数记为Corr(Sx,Sy),将第一矩阵Sx和第三矩阵Sz之间的相关系数记为Corr(Sx,Sz),将第二矩阵Sy和第三矩阵Sz之间的相关系数记为Corr(Sy,Sz),分别采用公式(10)、(11)和(12)计算得到Corr(Sx,Sy)、Corr(Sx,Sz)和Corr(Sy,Sz):
其中,cov()为matlab中用于计算两个矩阵的协方差的函数,cov(Sx,Sy)表示第一矩阵Sx和第二矩阵Sy的协方差,cov(Sx,Sz)表示第一矩阵Sx和第三矩阵Sz的协方差,cov(Sy,Sz)表示第二矩阵Sy和第三矩阵Sz的协方差,σx为第一矩阵Sx的方差,σy为第二矩阵Sy的方差,σz为第三矩阵Sz的方差;
对第一矩阵Sx、第二矩阵Sy和第三矩阵Sz分别使用快速傅里叶变化转换得到变换矩阵,将第一矩阵Sx的变换矩阵记为Px,将第二矩阵Sy的变换矩阵记为Py,将第三矩阵Sz的变换矩阵记为Pz,Px、Py和Pz采用公式(13)、(14)和(15)分别表示为:
将所有测试人员第a种行为的初始特征向量记为将Corr(Sx,Sy)、Corr(Sx,Sz)、Corr(Sy,Sz)、f1的64个数据、f2的64个数据和f3的64个数据依次排列组成维数为201的向量,该向量即为
④重复步骤②和步骤③共50次,得到50个第a种行为的更新特征向量,采用50个第a种行为的更新特征向量构建第a种行为的特征矩阵,将第a种行为的特征矩阵记为Ga,G1为上楼的特征矩阵,G2为下楼的特征矩阵,G3为站立的特征矩阵,G4为行走的特征矩阵,G5为卧躺的特征矩阵,G6为跑步的特征矩阵,每种行为的特征矩阵的维度均为50×15;G1,G2,G3,G4,G5,G6分别采用式(20)、(21)、(22)、(23)、(24)和(25)表示为:
构建包括两列数据的训练集,训练集中第一列数据记为Xt,第二列数据记为Yt,Xt表示训练数据,Yt表示训练数据对应的行为类别,一个Xt和一个Yt构成一个训练数据组,使用matlab获取G1~G6的前40行数据作为训练集的训练数据,G1的40行数据对应的Yt均为1,G2的40行数据对应的的Yt均为2,G3的40行数据对应的Yt均为3,G4的40行数据对应的Yt均为4,G5的40行数据对应的Yt均为5,G6的40行数据对应的Yt均为6,构建得到的训练集中共包括240个训练数据组,将训练集在笔记本电脑中保存为train.csv,构建包括两列数据的验证集,验证集中第一列数据记为Xv,第二列数据记为Yv,Xv表示验证数据,Yv表示验证数据对应的行为类别,一个Xv和一个Yv构成一个验证数据组,获取G1~G6的后10行数据作为验证集的验证数据,G1的10行数据对应的Yv均为1,G2的10行数据对应的Yv均为2,G3的10行数据对应的Yv均为3,G4的10行数据对应的Yv均为4,G5的10行数据对应的Yv均为5,G610行数据对应的Yv均为6,,验证集中共包括60个验证数据组,将验证集在笔记本电脑中保存为test.csv;
⑤在笔记本电脑中使用tensorflow构建深度神经网络模型:所述的神经网络模型包括从左到右排列的输入层、第一隐藏层、第二隐藏层、第三隐藏层和输出层,所述的输入层具有k0个神经单元,k0=15,所述的第一隐藏层具有k1个神经单元,k1=50,所述的第二隐藏层具有k2个神经单元,k2=50,所述的第三隐藏层具有k3个神经单元,k3=50,所述的输出层具有k4个神经单元,k4=6,所述的深度神经网络模型中,位于同一层的任意两个神经单元之间互不连接,位于相邻两层的任意两个神经单元之间全连接,每个所述的神经单元分别具有激活状态和关闭状态,当所述的神经单元为激活状态时,其取值为1,当所述的神经单元为关闭状态时,其取值为0;设置所述的第一隐藏层、所述的第二隐藏层和所述的第三隐藏层的激活函数均为sigmoid函数,所述的输出层的激活函数为softmax函数,所述的输入层与所述的第一隐藏层之间存在权重w0,w0为15行50列的矩阵,所述的第一隐藏层和所述的第二隐藏层之间存在权重w1,w1为50行50列的矩阵,所述的第二隐藏层和所述的第三隐藏层之间存在权重w2,w2为50行50列的矩阵,所述的第三隐藏层和所述的输出层之间存在权重w3,w3为50行6列的矩阵,所述的第一隐藏层存在偏置b1,b1为50行1列的矩阵,所述的第二隐藏层存在偏置b2,b2为50行1列的矩阵,所述的第三隐藏层存在偏置b3,b3为50行1列的矩阵;将权重w0、权重w1、权重w2和权重w3分别初始化为平均值为0,方差为1的矩阵,将偏置b1、偏置b2和偏置b3分别初始化为全0矩阵,将深度神经网络模型在训练过程中学习到权重和偏置变化的快慢采用学习率表示,设置学习率为0.03,设置深度神经网络模型的代价函数为交叉熵函数,代价函数用来比较预测值与实际值的差异,进而在深度神经网络模型训练过程中调整各权重和各偏置;将深度神经网络模型的输入数据记为Xi,Xi为10行15列的矩阵,将深度神经网络模型的实际输出值记为Yr,Yr为10行6列的矩阵,将深度神经网络模型的预测输出值记为Yi,将第一隐藏层的输出记为a1,将第二隐藏层的输出记为a2,将第三隐藏层的输出记为a3,将深度神经网络模型的预测输出值与实际输出值之间的误差记为E,将第一隐藏层的网络前向传播过程、第二隐藏层的网络前向传播过程、第三隐藏层的网络前向传播过程、深度神经网络模型的预测输出值以及深度神经网络模型的预测输出值与实际输出值之间的误差分别采用式(26)、(27)、(28)、(29)和(30)表示为:
a1=sigmoid(Xiw0+b1) (26)
a2=sigmoid(a1w1+b2) (27)
a3=sigmoid(a2w2+b3) (28)
Yi=sigmoid(a3w3) (29)
E=-∑(Yr*log(Yi)) (30)
其中,*表示乘运算符号,log表示对数运算符号,∑表示求和运算符号;
⑥设置深度神经网络模型训练次数为5000,在后续训练过程中tensorflow自动调用反向传播算法调整权重和偏置对深度神经网络模型进行训练:在笔记本电脑上使用python读取train.csv文件,得到训练数据组Xt和Yt,读取test.csv文件,得到验证数据组Xv和Yv,在训练过程中,从Xt的第1行数据开始,每一次训练按照Xt数据的排列顺序取10行数据作为输入数据Xi,若取得的数据到达Xt尾部则返回第1行开始继续取,同理,在训练过程中,从Yt的第1行数据开始,每一次训练按照Yt数据的排列顺序取10行数据作为深度神经网络模型的实际输出值Yr,Yr即实际行为类别值,若取得的数据到达Yt尾部则返回第1行开始继续取,在每次训练过程中按照式(26)、(27)、(28)、(29)、(30)进行前向传播计算得到该次训练的误差E后,tensorflow自动调用反向传播算法调整权重w0、权重w1、权重w2、权重w3、偏置b1、偏置b2和偏置b3更新式(26)、(27)、(28)、(29)和(30);
在训练过程中,每训练100次需要对当前深度神经网络模型的误差进行验证,具体验证过程为:从Xv的第1行数据开始,每一次验证按照Xv数据的排列顺序取10行数据作为深度神经网络模型的输入数据,取完为止总共需要取6次,同理,在验证过程中,从Yv的第1行数据开始,每一次验证按照Yv数据的排列顺序取10行数据作为深度神经网络模型的实际输出数据Yr,在每次验证过程中按照式(26)、(27)、(28)、(29)、(30)进行前向传播计算得到该次训练的误差E,验证过程将Xv和Yv的数据取完为止,总共需要取6次,也就是每次验证过程验证6次,如果当前训练过程中6次得到的误差E相同,则深度神经网络模型训练完成,如果当前训练过程中6次得到的误差E不完全相同,则在该验证过程结束后判定是否已经达到设定的训练次数,如果已经达到,则深度神经网络模型训练完成,如果未达到,再次进行下一次的训练,直至满足深度神经网络模型训练完成条件;
⑧采用训练完成的深度神经网络模型训练对待识别人员运动类别进行识别,具体过程为:待识别人员将WISP佩戴在腹部位置的外衣上进行日常活动,WISP采集该人员当前行为的三轴加速度数据,并通过无线的方式发送给WISP阅读器,其中加速度数据包括X轴加速度序列、Y轴加速度序列和Z轴加速度序列,WISP阅读器再将该人员当前行为的X轴加速度序列、Y轴加速度序列和Z轴加速度序列通过有线的方式发送给笔记本电脑,在笔记本电脑上采用matlab按照步骤③的方法对该人员当前行为的X轴加速度序列、Y轴加速度序列和Z轴加速度序列进行处理,得到该人员当前行为的更新特征向量,将该人员当前行为的更新特征向量作为训练后的深度神经网络模型的输入数据输入到该深度神经网络模型,该深度神经网络模型的输出数据即对应为该人员的人体运动类型,当该深度神经网络模型的输出数据为1时,表示该人员在进行上楼行为,该人员的人体运动类型为上楼,当该深度神经网络模型的输出数据为2时,表示该人员在进行下楼行为,该人员的人体运动类型为下楼,当该深度神经网络模型的输出数据为3时,表示该人员在进行站立行为,该人员的人体运动类型为站立,当该深度神经网络模型的输出数据为4时,表示该人员在进行行走行为,该人员的人体运动类型为行走,当该深度神经网络模型的输出数据为5时,表示该人员在进行卧躺行为,该人员的人体运动类型为卧躺,当该深度神经网络模型的输出数据为6时,表示该人员在进行跑步行为,该人员的人体运动类型为跑步。
与现有技术相比,本发明的优点在于通过在笔记本电脑中使用tensorflow构建深度神经网络模型,通过对人体运动数据进行行为特征数据提取获取训练数据后采用深度学习的方法实现对深度神经网络模型的训练,在人体运动识别时,通过给待识别人员配备成本较低的WISP实现人体运动数据的采集,然后提取采集的运动数据的特征数据作为深度神经网络模型的输入数据,通过深度神经网络模型快速准确实现运动识别,由此本发明的方法成本较低,识别时间短,且具有较高的识别准确率。
具体实施方式
以下结合实施例对本发明作进一步详细描述。
实施例:一种基于深度学习的无源人体运动识别方法,包括以下步骤:
①配备WISP(Wireless Identification and Sensing Platform),并将与WISP对应的WISP源码文件装载到一台笔记本电脑上,打开笔记本电脑上的WISP源码文件对WISP的参数进行设置:将WISP源码文件中WISP上三轴加速度传感器的采样频率参数设置为30Hz;参数设置完成后,将笔记本电脑与WISP通过MSP430 USB仿真器相连将WISP源码文件下载到WISP中,下载完成后,将WISP阅读器与笔记本电脑通过USB相连,此时,WISP阅读器与WISP通过无线网络进行通讯,WISP阅读器与笔记本电脑通过USB连接后进行通信;
②样本数据采集:将WISP依次佩戴于N名测试人员腰腹位置,N为大于等于5且小于等于10的整数,每个佩戴有WISP的测试人员分别独自完成上楼、下楼、站立、行走、卧躺和跑步这6种日常人体行为,其中,上楼为第1种行为,下楼为第2种行为,站立为第3种行为,行走为第4种行为,卧躺为第5种行为,跑步为第6种行为;对每种行为连续采样时长为3分钟,采样频率为30Hz,每个测试人员佩戴的WISP依次获取该测试人员6种行为的三轴加速度数据并通过无线方式发送给WISP阅读器,WISP阅读器将接收到的三轴加速度数据发送给笔记本电脑,在笔记本电脑中将这些三轴加速度数据保存为data.csv文件,其中第n个测试人员第a种行为的X轴加速度序列记为 第n个测试人员第a种行为的Y轴加速度序列记为 第n个测试人员第a种行为的Z轴加速度序列记为 其中为第n个测试人员第a种行为的X轴加速度序列中第m个加速度数据,为第n个测试人员第a种行为的Y轴加速度序列中第m个加速度数据,为第n个测试人员第a种行为的Z轴加速度序列中第m个加速度数据,a=1,2,3,4,5,6,n=1,2,...,N,m=1,2,...,M,M为采样数据量,由采样时长和采样频率计算得到;
③行为特征提取:
在笔记本电脑上使用matlab读取data.csv文件,获得第n个测试人员第a种行为的X轴加速度序列Y轴加速度序列和Z轴加速度序列使用matlab分别对 和进行加窗处理,其中窗口长度设置为128,重叠率设置为50%,分别得到 和的加窗数据序列,将第n个测试人员第a种行为的X轴加速度序列的加窗数据序列记为 Vi n,a表示加窗数据序列中第i个加窗数据,i=1,2,…,M',将第n个测试人员第a种行为的Y轴加速度序列的加窗数据序列记为 表示加窗数据序列中第i个加窗数据,将第n个测试人员第a种行为的Z轴加速度序列的加窗数据序列记为 表示加窗数据序列中第i个加窗数据;
式(1)~式(6)中,∑表示求和运算符号;
将第一矩阵Sx和第二矩阵Sy之间的相关系数记为Corr(Sx,Sy),将第一矩阵Sx和第三矩阵Sz之间的相关系数记为Corr(Sx,Sz),将第二矩阵Sy和第三矩阵Sz之间的相关系数记为Corr(Sy,Sz),分别采用公式(10)、(11)和(12)计算得到Corr(Sx,Sy)、Corr(Sx,Sz)和Corr(Sy,Sz):
其中,cov()为matlab中用于计算两个矩阵的协方差的函数,cov(Sx,Sy)表示第一矩阵Sx和第二矩阵Sy的协方差,cov(Sx,Sz)表示第一矩阵Sx和第三矩阵Sz的协方差,cov(Sy,Sz)表示第二矩阵Sy和第三矩阵Sz的协方差,σx为第一矩阵Sx的方差,σy为第二矩阵Sy的方差,σz为第三矩阵Sz的方差;
对第一矩阵Sx、第二矩阵Sy和第三矩阵Sz分别使用快速傅里叶变化转换得到变换矩阵,将第一矩阵Sx的变换矩阵记为Px,将第二矩阵Sy的变换矩阵记为Py,将第三矩阵Sz的变换矩阵记为Pz,Px、Py和Pz采用公式(13)、(14)和(15)分别表示为:
将所有测试人员第a种行为的初始特征向量记为将Corr(Sx,Sy)、Corr(Sx,Sz)、Corr(Sy,Sz)、f1的64个数据、f2的64个数据和f3的64个数据依次排列组成维数为201的向量,该向量即为
④重复步骤②和步骤③共50次,得到50个第a种行为的更新特征向量,采用50个第a种行为的更新特征向量构建第a种行为的特征矩阵,将第a种行为的特征矩阵记为Ga,G1为上楼的特征矩阵,G2为下楼的特征矩阵,G3为站立的特征矩阵,G4为行走的特征矩阵,G5为卧躺的特征矩阵,G6为跑步的特征矩阵,每种行为的特征矩阵的维度均为50×15;G1,G2,G3,G4,G5,G6分别采用式(20)、(21)、(22)、(23)、(24)和(25)表示为:
构建包括两列数据的训练集,训练集中第一列数据记为Xt,第二列数据记为Yt,Xt表示训练数据,Yt表示训练数据对应的行为类别,一个Xt和一个Yt构成一个训练数据组,使用matlab获取G1~G6的前40行数据作为训练集的训练数据,G1的40行数据对应的Yt均为1,G2的40行数据对应的的Yt均为2,G3的40行数据对应的Yt均为3,G4的40行数据对应的Yt均为4,G5的40行数据对应的Yt均为5,G6的40行数据对应的Yt均为6,构建得到的训练集中共包括240个训练数据组,将训练集在笔记本电脑中保存为train.csv,构建包括两列数据的验证集,验证集中第一列数据记为Xv,第二列数据记为Yv,Xv表示验证数据,Yv表示验证数据对应的行为类别,一个Xv和一个Yv构成一个验证数据组,获取G1~G6的后10行数据作为验证集的验证数据,G1的10行数据对应的Yv均为1,G2的10行数据对应的Yv均为2,G3的10行数据对应的Yv均为3,G4的10行数据对应的Yv均为4,G5的10行数据对应的Yv均为5,G610行数据对应的Yv均为6,,验证集中共包括60个验证数据组,将验证集在笔记本电脑中保存为test.csv;
⑤在笔记本电脑中使用tensorflow构建深度神经网络模型:神经网络模型包括从左到右排列的输入层、第一隐藏层、第二隐藏层、第三隐藏层和输出层,输入层具有k0个神经单元,k0=15,第一隐藏层具有k1个神经单元,k1=50,第二隐藏层具有k2个神经单元,k2=50,第三隐藏层具有k3个神经单元,k3=50,输出层具有k4个神经单元,k4=6,深度神经网络模型中,位于同一层的任意两个神经单元之间互不连接,位于相邻两层的任意两个神经单元之间全连接,每个神经单元分别具有激活状态和关闭状态,当神经单元为激活状态时,其取值为1,当神经单元为关闭状态时,其取值为0;设置第一隐藏层、第二隐藏层和第三隐藏层的激活函数均为sigmoid函数,输出层的激活函数为softmax函数,输入层与第一隐藏层之间存在权重w0,w0为15行50列的矩阵,第一隐藏层和第二隐藏层之间存在权重w1,w1为50行50列的矩阵,第二隐藏层和第三隐藏层之间存在权重w2,w2为50行50列的矩阵,第三隐藏层和输出层之间存在权重w3,w3为50行6列的矩阵,第一隐藏层存在偏置b1,b1为50行1列的矩阵,第二隐藏层存在偏置b2,b2为50行1列的矩阵,第三隐藏层存在偏置b3,b3为50行1列的矩阵;将权重w0、权重w1、权重w2和权重w3分别初始化为平均值为0,方差为1的矩阵,将偏置b1、偏置b2和偏置b3分别初始化为全0矩阵,将深度神经网络模型在训练过程中学习到权重和偏置变化的快慢采用学习率表示,设置学习率为0.03,设置深度神经网络模型的代价函数为交叉熵函数,代价函数用来比较预测值与实际值的差异,进而在深度神经网络模型训练过程中调整各权重和各偏置;将深度神经网络模型的输入数据记为Xi,Xi为10行15列的矩阵,将深度神经网络模型的实际输出值记为Yr,Yr为10行6列的矩阵,将深度神经网络模型的预测输出值记为Yi,将第一隐藏层的输出记为a1,将第二隐藏层的输出记为a2,将第三隐藏层的输出记为a3,将深度神经网络模型的预测输出值与实际输出值之间的误差记为E,将第一隐藏层的网络前向传播过程、第二隐藏层的网络前向传播过程、第三隐藏层的网络前向传播过程、深度神经网络模型的预测输出值以及深度神经网络模型的预测输出值与实际输出值之间的误差分别采用式(26)、(27)、(28)、(29)和(30)表示为:
a1=sigmoid(Xiw0+b1) (26)
a2=sigmoid(a1w1+b2) (27)
a3=sigmoid(a2w2+b3) (28)
Yi=sigmoid(a3w3) (29)
E=-∑(Yr*log(Yi)) (30)
其中,*表示乘运算符号,log表示对数运算符号,∑表示求和运算符号;
⑥设置深度神经网络模型训练次数为5000,在后续训练过程中tensorflow自动调用反向传播算法调整权重和偏置对深度神经网络模型进行训练:在笔记本电脑上使用python读取train.csv文件,得到训练数据组Xt和Yt,读取test.csv文件,得到验证数据组Xv和Yv,在训练过程中,从Xt的第1行数据开始,每一次训练按照Xt数据的排列顺序取10行数据作为输入数据Xi,若取得的数据到达Xt尾部则返回第1行开始继续取,同理,在训练过程中,从Yt的第1行数据开始,每一次训练按照Yt数据的排列顺序取10行数据作为深度神经网络模型的实际输出值Yr,Yr即实际行为类别值,若取得的数据到达Yt尾部则返回第1行开始继续取,在每次训练过程中按照式(26)、(27)、(28)、(29)、(30)进行前向传播计算得到该次训练的误差E后,tensorflow自动调用反向传播算法调整权重w0、权重w1、权重w2、权重w3、偏置b1、偏置b2和偏置b3更新式(26)、(27)、(28)、(29)和(30);
在训练过程中,每训练100次需要对当前深度神经网络模型的误差进行验证,具体验证过程为:从Xv的第1行数据开始,每一次验证按照Xv数据的排列顺序取10行数据作为深度神经网络模型的输入数据,取完为止总共需要取6次,同理,在验证过程中,从Yv的第1行数据开始,每一次验证按照Yv数据的排列顺序取10行数据作为深度神经网络模型的实际输出数据Yr,在每次验证过程中按照式(26)、(27)、(28)、(29)、(30)进行前向传播计算得到该次训练的误差E,验证过程将Xv和Yv的数据取完为止,总共需要取6次,也就是每次验证过程验证6次,如果当前训练过程中6次得到的误差E相同,则深度神经网络模型训练完成,如果当前训练过程中6次得到的误差E不完全相同,则在该验证过程结束后判定是否已经达到设定的训练次数,如果已经达到,则深度神经网络模型训练完成,如果未达到,再次进行下一次的训练,直至满足深度神经网络模型训练完成条件;
⑧采用训练完成的深度神经网络模型训练对待识别人员运动类别进行识别,具体过程为:待识别人员将WISP佩戴在腹部位置的外衣上进行日常活动,WISP采集该人员当前行为的三轴加速度数据,并通过无线的方式发送给WISP阅读器,其中加速度数据包括X轴加速度序列、Y轴加速度序列和Z轴加速度序列,WISP阅读器再将该人员当前行为的X轴加速度序列、Y轴加速度序列和Z轴加速度序列通过有线的方式发送给笔记本电脑,在笔记本电脑上采用matlab按照步骤③的方法对该人员当前行为的X轴加速度序列、Y轴加速度序列和Z轴加速度序列进行处理,得到该人员当前行为的更新特征向量,将该人员当前行为的更新特征向量作为训练后的深度神经网络模型的输入数据输入到该深度神经网络模型,该深度神经网络模型的输出数据即对应为该人员的人体运动类型,当该深度神经网络模型的输出数据为1时,表示该人员在进行上楼行为,该人员的人体运动类型为上楼,当该深度神经网络模型的输出数据为2时,表示该人员在进行下楼行为,该人员的人体运动类型为下楼,当该深度神经网络模型的输出数据为3时,表示该人员在进行站立行为,该人员的人体运动类型为站立,当该深度神经网络模型的输出数据为4时,表示该人员在进行行走行为,该人员的人体运动类型为行走,当该深度神经网络模型的输出数据为5时,表示该人员在进行卧躺行为,该人员的人体运动类型为卧躺,当该深度神经网络模型的输出数据为6时,表示该人员在进行跑步行为,该人员的人体运动类型为跑步。
Claims (1)
1.一种基于深度学习的无源人体运动识别方法,其特征在于包括以下步骤:
①配备WISP(Wireless Identification and Sensing Platform),并将与WISP对应的WISP源码文件装载到一台笔记本电脑上,打开笔记本电脑上的WISP源码文件对WISP的参数进行设置:将WISP源码文件中WISP上三轴加速度传感器的采样频率参数设置为30Hz;参数设置完成后,将笔记本电脑与WISP通过MSP430 USB仿真器相连将WISP源码文件下载到WISP中,下载完成后,将WISP阅读器与笔记本电脑通过USB相连,此时,WISP阅读器与WISP通过无线网络进行通讯,WISP阅读器与笔记本电脑通过USB连接后进行通信;
②样本数据采集:将WISP依次佩戴于N名测试人员腰腹位置,N为大于等于5且小于等于10的整数,每个佩戴有WISP的测试人员分别独自完成上楼、下楼、站立、行走、卧躺和跑步这6种日常人体行为,其中,上楼为第1种行为,下楼为第2种行为,站立为第3种行为,行走为第4种行为,卧躺为第5种行为,跑步为第6种行为;对每种行为连续采样时长为3分钟,采样频率为30Hz,每个测试人员佩戴的WISP依次获取该测试人员6种行为的三轴加速度数据并通过无线方式发送给所述的WISP阅读器,所述的WISP阅读器将接收到的三轴加速度数据发送给笔记本电脑,在笔记本电脑中将这些三轴加速度数据保存为data.csv文件,其中第n个测试人员第a种行为的X轴加速度序列记为第n个测试人员第a种行为的Y轴加速度序列记为第n个测试人员第a种行为的Z轴加速度序列记为其中为第n个测试人员第a种行为的X轴加速度序列中第m个加速度数据,为第n个测试人员第a种行为的Y轴加速度序列中第m个加速度数据,为第n个测试人员第a种行为的Z轴加速度序列中第m个加速度数据,a=1,2,3,4,5,6,n=1,2,...,N,m=1,2,...,M,M为采样数据量,由采样时长和采样频率计算得到;
③行为特征提取:
在笔记本电脑上使用matlab读取data.csv文件,获得第n个测试人员第a种行为的X轴加速度序列Y轴加速度序列和Z轴加速度序列使用matlab分别对 和进行加窗处理,其中窗口长度设置为128,重叠率设置为50%,分别得到 和的加窗数据序列,将第n个测试人员第a种行为的X轴加速度序列的加窗数据序列记为 表示加窗数据序列中第i个加窗数据,i=1,2,…,M',将第n个测试人员第a种行为的Y轴加速度序列的加窗数据序列记为 表示加窗数据序列中第i个加窗数据,将第n个测试人员第a种行为的Z轴加速度序列的加窗数据序列记为 表示加窗数据序列中第i个加窗数据;
式(1)~式(6)中,∑表示求和运算符号;
将第一矩阵Sx和第二矩阵Sy之间的相关系数记为Corr(Sx,Sy),将第一矩阵Sx和第三矩阵Sz之间的相关系数记为Corr(Sx,Sz),将第二矩阵Sy和第三矩阵Sz之间的相关系数记为Corr(Sy,Sz),分别采用公式(10)、(11)和(12)计算得到Corr(Sx,Sy)、Corr(Sx,Sz)和Corr(Sy,Sz):
其中,cov()为matlab中用于计算两个矩阵的协方差的函数,cov(Sx,Sy)表示第一矩阵Sx和第二矩阵Sy的协方差,cov(Sx,Sz)表示第一矩阵Sx和第三矩阵Sz的协方差,cov(Sy,Sz)表示第二矩阵Sy和第三矩阵Sz的协方差,σx为第一矩阵Sx的方差,σy为第二矩阵Sy的方差,σz为第三矩阵Sz的方差;
对第一矩阵Sx、第二矩阵Sy和第三矩阵Sz分别使用快速傅里叶变化转换得到变换矩阵,将第一矩阵Sx的变换矩阵记为Px,将第二矩阵Sy的变换矩阵记为Py,将第三矩阵Sz的变换矩阵记为Pz,Px、Py和Pz采用公式(13)、(14)和(15)分别表示为:
将所有测试人员第a种行为的初始特征向量记为将Corr(Sx,Sy)、Corr(Sx,Sz)、Corr(Sy,Sz)、f1的64个数据、f2的64个数据和f3的64个数据依次排列组成维数为201的向量,该向量即为
④重复步骤②和步骤③共50次,得到50个第a种行为的更新特征向量,采用50个第a种行为的更新特征向量构建第a种行为的特征矩阵,将第a种行为的特征矩阵记为Ga,G1为上楼的特征矩阵,G2为下楼的特征矩阵,G3为站立的特征矩阵,G4为行走的特征矩阵,G5为卧躺的特征矩阵,G6为跑步的特征矩阵,每种行为的特征矩阵的维度均为50×15;G1,G2,G3,G4,G5,G6分别采用式(20)、(21)、(22)、(23)、(24)和(25)表示为:
构建包括两列数据的训练集,训练集中第一列数据记为Xt,第二列数据记为Yt,Xt表示训练数据,Yt表示训练数据对应的行为类别,一个Xt和一个Yt构成一个训练数据组,使用matlab获取G1~G6的前40行数据作为训练集的训练数据,G1的40行数据对应的Yt均为1,G2的40行数据对应的的Yt均为2,G3的40行数据对应的Yt均为3,G4的40行数据对应的Yt均为4,G5的40行数据对应的Yt均为5,G6的40行数据对应的Yt均为6,构建得到的训练集中共包括240个训练数据组,将训练集在笔记本电脑中保存为train.csv,构建包括两列数据的验证集,验证集中第一列数据记为Xv,第二列数据记为Yv,Xv表示验证数据,Yv表示验证数据对应的行为类别,一个Xv和一个Yv构成一个验证数据组,获取G1~G6的后10行数据作为验证集的验证数据,G1的10行数据对应的Yv均为1,G2的10行数据对应的Yv均为2,G3的10行数据对应的Yv均为3,G4的10行数据对应的Yv均为4,G5的10行数据对应的Yv均为5,G610行数据对应的Yv均为6,,验证集中共包括60个验证数据组,将验证集在笔记本电脑中保存为test.csv;
⑤在笔记本电脑中使用tensorflow构建深度神经网络模型:所述的神经网络模型包括从左到右排列的输入层、第一隐藏层、第二隐藏层、第三隐藏层和输出层,所述的输入层具有k0个神经单元,k0=15,所述的第一隐藏层具有k1个神经单元,k1=50,所述的第二隐藏层具有k2个神经单元,k2=50,所述的第三隐藏层具有k3个神经单元,k3=50,所述的输出层具有k4个神经单元,k4=6,所述的深度神经网络模型中,位于同一层的任意两个神经单元之间互不连接,位于相邻两层的任意两个神经单元之间全连接,每个所述的神经单元分别具有激活状态和关闭状态,当所述的神经单元为激活状态时,其取值为1,当所述的神经单元为关闭状态时,其取值为0;设置所述的第一隐藏层、所述的第二隐藏层和所述的第三隐藏层的激活函数均为sigmoid函数,所述的输出层的激活函数为softmax函数,所述的输入层与所述的第一隐藏层之间存在权重w0,w0为15行50列的矩阵,所述的第一隐藏层和所述的第二隐藏层之间存在权重w1,w1为50行50列的矩阵,所述的第二隐藏层和所述的第三隐藏层之间存在权重w2,w2为50行50列的矩阵,所述的第三隐藏层和所述的输出层之间存在权重w3,w3为50行6列的矩阵,所述的第一隐藏层存在偏置b1,b1为50行1列的矩阵,所述的第二隐藏层存在偏置b2,b2为50行1列的矩阵,所述的第三隐藏层存在偏置b3,b3为50行1列的矩阵;将权重w0、权重w1、权重w2和权重w3分别初始化为平均值为0,方差为1的矩阵,将偏置b1、偏置b2和偏置b3分别初始化为全0矩阵,将深度神经网络模型在训练过程中学习到权重和偏置变化的快慢采用学习率表示,设置学习率为0.03,设置深度神经网络模型的代价函数为交叉熵函数,代价函数用来比较预测值与实际值的差异,进而在深度神经网络模型训练过程中调整各权重和各偏置;将深度神经网络模型的输入数据记为Xi,Xi为10行15列的矩阵,将深度神经网络模型的实际输出值记为Yr,Yr为10行6列的矩阵,将深度神经网络模型的预测输出值记为Yi,将第一隐藏层的输出记为a1,将第二隐藏层的输出记为a2,将第三隐藏层的输出记为a3,将深度神经网络模型的预测输出值与实际输出值之间的误差记为E,将第一隐藏层的网络前向传播过程、第二隐藏层的网络前向传播过程、第三隐藏层的网络前向传播过程、深度神经网络模型的预测输出值以及深度神经网络模型的预测输出值与实际输出值之间的误差分别采用式(26)、(27)、(28)、(29)和(30)表示为:
a1=sigmoid(Xiw0+b1) (26)
a2=sigmoid(a1w1+b2) (27)
a3=sigmoid(a2w2+b3) (28)
Yi=sigmoid(a3w3) (29)
E=-∑(Yr*log(Yi)) (30)
其中,*表示乘运算符号,log表示对数运算符号,∑表示求和运算符号;
⑥设置深度神经网络模型训练次数为5000,在后续训练过程中tensorflow自动调用反向传播算法调整权重和偏置对深度神经网络模型进行训练:在笔记本电脑上使用python读取train.csv文件,得到训练数据组Xt和Yt,读取test.csv文件,得到验证数据组Xv和Yv,在训练过程中,从Xt的第1行数据开始,每一次训练按照Xt数据的排列顺序取10行数据作为输入数据Xi,若取得的数据到达Xt尾部则返回第1行开始继续取,同理,在训练过程中,从Yt的第1行数据开始,每一次训练按照Yt数据的排列顺序取10行数据作为深度神经网络模型的实际输出值Yr,Yr即实际行为类别值,若取得的数据到达Yt尾部则返回第1行开始继续取,在每次训练过程中按照式(26)、(27)、(28)、(29)、(30)进行前向传播计算得到该次训练的误差E后,tensorflow自动调用反向传播算法调整权重w0、权重w1、权重w2、权重w3、偏置b1、偏置b2和偏置b3更新式(26)、(27)、(28)、(29)和(30);
在训练过程中,每训练100次需要对当前深度神经网络模型的误差进行验证,具体验证过程为:从Xv的第1行数据开始,每一次验证按照Xv数据的排列顺序取10行数据作为深度神经网络模型的输入数据,取完为止总共需要取6次,同理,在验证过程中,从Yv的第1行数据开始,每一次验证按照Yv数据的排列顺序取10行数据作为深度神经网络模型的实际输出数据Yr,在每次验证过程中按照式(26)、(27)、(28)、(29)、(30)进行前向传播计算得到该次训练的误差E,验证过程将Xv和Yv的数据取完为止,总共需要取6次,也就是每次验证过程验证6次,如果当前训练过程中6次得到的误差E相同,则深度神经网络模型训练完成,如果当前训练过程中6次得到的误差E不完全相同,则在该验证过程结束后判定是否已经达到设定的训练次数,如果已经达到,则深度神经网络模型训练完成,如果未达到,再次进行下一次的训练,直至满足深度神经网络模型训练完成条件;
⑧采用训练完成的深度神经网络模型训练对待识别人员运动类别进行识别,具体过程为:待识别人员将WISP佩戴在腹部位置的外衣上进行日常活动,WISP采集该人员当前行为的三轴加速度数据,并通过无线的方式发送给WISP阅读器,其中加速度数据包括X轴加速度序列、Y轴加速度序列和Z轴加速度序列,WISP阅读器再将该人员当前行为的X轴加速度序列、Y轴加速度序列和Z轴加速度序列通过有线的方式发送给笔记本电脑,在笔记本电脑上采用matlab按照步骤③的方法对该人员当前行为的X轴加速度序列、Y轴加速度序列和Z轴加速度序列进行处理,得到该人员当前行为的更新特征向量,将该人员当前行为的更新特征向量作为训练后的深度神经网络模型的输入数据输入到该深度神经网络模型,该深度神经网络模型的输出数据即对应为该人员的人体运动类型,当该深度神经网络模型的输出数据为1时,表示该人员在进行上楼行为,该人员的人体运动类型为上楼,当该深度神经网络模型的输出数据为2时,表示该人员在进行下楼行为,该人员的人体运动类型为下楼,当该深度神经网络模型的输出数据为3时,表示该人员在进行站立行为,该人员的人体运动类型为站立,当该深度神经网络模型的输出数据为4时,表示该人员在进行行走行为,该人员的人体运动类型为行走,当该深度神经网络模型的输出数据为5时,表示该人员在进行卧躺行为,该人员的人体运动类型为卧躺,当该深度神经网络模型的输出数据为6时,表示该人员在进行跑步行为,该人员的人体运动类型为跑步。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911078785.3A CN110991251B (zh) | 2019-11-06 | 2019-11-06 | 基于深度学习的无源人体运动识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911078785.3A CN110991251B (zh) | 2019-11-06 | 2019-11-06 | 基于深度学习的无源人体运动识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110991251A CN110991251A (zh) | 2020-04-10 |
CN110991251B true CN110991251B (zh) | 2023-04-07 |
Family
ID=70083424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911078785.3A Active CN110991251B (zh) | 2019-11-06 | 2019-11-06 | 基于深度学习的无源人体运动识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110991251B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503667A (zh) * | 2016-10-26 | 2017-03-15 | 太原理工大学 | 一种基于wisp和模式识别的跌倒检测方法 |
CN109979161A (zh) * | 2019-03-08 | 2019-07-05 | 河海大学常州校区 | 一种基于卷积循环神经网络的人体跌倒检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9221428B2 (en) * | 2011-03-02 | 2015-12-29 | Automatic Labs Inc. | Driver identification system and methods |
-
2019
- 2019-11-06 CN CN201911078785.3A patent/CN110991251B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503667A (zh) * | 2016-10-26 | 2017-03-15 | 太原理工大学 | 一种基于wisp和模式识别的跌倒检测方法 |
CN109979161A (zh) * | 2019-03-08 | 2019-07-05 | 河海大学常州校区 | 一种基于卷积循环神经网络的人体跌倒检测方法 |
Non-Patent Citations (2)
Title |
---|
Van Wart Adam T ; .Weighted Implementation of Suboptimal Paths (WISP): An Optimized Algorithm and Tool for Dynamical Network Analysis.《Journal of Chemical Theory and Computation》.2014,全文. * |
仇逊超.无源无线传感器平台在人体跑步检测中的应用.《计算机工程与设计》.2014,全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN110991251A (zh) | 2020-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106956271B (zh) | 预测情感状态的方法和机器人 | |
Trabelsi et al. | An unsupervised approach for automatic activity recognition based on hidden Markov model regression | |
CN109276255B (zh) | 一种肢体震颤检测方法及装置 | |
CN109886068B (zh) | 基于运动数据的动作行为识别方法 | |
CN110334573B (zh) | 一种基于密集连接卷积神经网络的人体运动状态判别方法 | |
Zhang et al. | Rehabilitation exercise recognition and evaluation based on smart sensors with deep learning framework | |
US11216766B2 (en) | System and method for generalized skill assessment using activity data | |
CN107016342A (zh) | 一种动作识别方法及系统 | |
WO2018070935A1 (en) | Determining sleep stages | |
JP5520886B2 (ja) | 行動モデル学習装置、方法、及びプログラム | |
CN110659677A (zh) | 一种基于可移动传感器组合设备的人体跌倒检测方法 | |
CN107609477A (zh) | 一种基于深度学习与智能手环相结合的摔倒检测方法 | |
CN109620244A (zh) | 基于条件生成对抗网络和svm的婴儿异常行为检测方法 | |
CN109976526A (zh) | 一种基于表面肌电传感器和九轴传感器的手语识别方法 | |
CN109009145A (zh) | 一种基于穿戴设备的跌倒判断方法 | |
Wang et al. | A2dio: Attention-driven deep inertial odometry for pedestrian localization based on 6d imu | |
CN107609501A (zh) | 人体相近动作识别方法及装置、存储介质、电子设备 | |
CN113780223A (zh) | 假肢的步态识别方法、装置及存储介质 | |
CN110991251B (zh) | 基于深度学习的无源人体运动识别方法 | |
KR20210046121A (ko) | 검출정보별 신경망 분석을 실시하여 파킨슨 환자 및 족관절염 환자를 식별하는 장치 및 방법 | |
Suriani et al. | Smartphone sensor accelerometer data for human activity recognition using spiking neural network | |
JP7087969B2 (ja) | 前処理装置、前処理方法及び前処理プログラム | |
KR20200144996A (ko) | 근육시너지 라이브러리를 이용한 운동 코칭 시스템 및 근육시너지 라이브러리를 이용한 근육시너지 특성 산출방법 | |
Hosein et al. | Wearable sensor selection, motion representation and their effect on exercise classification | |
CN115147768A (zh) | 一种跌倒风险评估方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240122 Address after: 230000 floor 1, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province Patentee after: Dragon totem Technology (Hefei) Co.,Ltd. Country or region after: China Address before: 315211, Fenghua Road, Jiangbei District, Zhejiang, Ningbo 818 Patentee before: Ningbo University Country or region before: China |