CN104899564A - 一种人体行为实时识别方法 - Google Patents
一种人体行为实时识别方法 Download PDFInfo
- Publication number
- CN104899564A CN104899564A CN201510288632.7A CN201510288632A CN104899564A CN 104899564 A CN104899564 A CN 104899564A CN 201510288632 A CN201510288632 A CN 201510288632A CN 104899564 A CN104899564 A CN 104899564A
- Authority
- CN
- China
- Prior art keywords
- data
- real
- triaxial acceleration
- time
- classifier model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 230000001133 acceleration Effects 0.000 claims abstract description 84
- 230000006399 behavior Effects 0.000 claims abstract description 81
- 230000008569 process Effects 0.000 claims abstract description 45
- 238000007781 pre-processing Methods 0.000 claims abstract description 26
- 238000012360 testing method Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims description 16
- 230000009471 action Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 9
- 210000001624 hip Anatomy 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 abstract description 8
- 230000005540 biological transmission Effects 0.000 abstract description 5
- 238000005265 energy consumption Methods 0.000 abstract description 4
- 238000007796 conventional method Methods 0.000 abstract 1
- 230000036541 health Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000007635 classification algorithm Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 238000003703 image analysis method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Telephonic Communication Services (AREA)
- Testing Or Calibration Of Command Recording Devices (AREA)
Abstract
本发明提供一种人体行为实时识别方法,包括步骤:首先,利用移动设备采集加速度传感器中的三轴加速度数据并上传至PC机;然后,利用PC机上的预处理模块对所述三轴加速度数据进行预处理,包括窗长度截取和特征提取;接着利用预处理后的数据训练出精度较高的高斯过程分类器模型,并将所述高斯过程分类器模型和预处理模块移植并安装至Android平台上,之后安装到移动设备中,最后进行人体行为的实时测试和观察。本发明的方法可以有效地应用于实际中各种环境,如应急救援和医疗保健环境等,通过克服传统方法远程数据传输时因数据量太大而造成的阻塞问题,减少手机处理的数据量、降低能量消耗,实现高效、准确、实时地远程监控人体行为。
Description
技术领域
本发明涉及人体行为识别、传感器技术、移动通信等信息技术类应用领域,涉及一种人体行为实时识别方法,特别是涉及一种基于单个加速度传感器和Android平台的人体行为实时识别方法。
背景技术
目前,对人体行为识别的方法主要有图像分析方法和传感器分析方法两种。然而,由于在处理图像时需要处理的数据量比较大、所需算法比较复杂等问题的存在,使得图像分析法在很多情况下难以适用或实际应用时的效果较差。如在对实时性、能量消耗等方面要求比较高的医疗、保健、应急救援等领域,基于传感器的行为识别方法与图像分析方法相比,更加具有实际应用价值。在病人康复训练时,可以通过对病人的行为分析为其康复提供建议;在人体保健方面,可以通过对人体行为的长期监控预测其身体行为状况并在适当时候发出警告,从而提醒人对身体健康状况的重视进而调整行为状态;在应急救援时,人体行为信息与生命体征信息一起判断人体的健康状况,为人们的生命安全提供实时的监控和更及时的救援。
基于传感器的人体行为识别主要分为两种方法:在生活环境中安装传感器和把传感器绑定在人体上。其中,像智能家居式的把传感器安装在环境中各种设备或家具上,虽然可以在这样的环境中识别人体行为,但是局限性也很大。在人身上绑定传感器方法又有绑定位置的区别和传感器数量及类型的不同,多个位置绑定多个传感器同样面临要处理的数据量较大、实时性差的问题。此外,目前人体行为识别的数据处理基本上都是在PC机上实现,但是很多情况下,从传感器或者手机中的传感器中的数据不断向PC机传输时,由于数据量较大容易形成堵塞,从而影响预测的实时性;并且,佩戴传感器的人的行动范围受传输方式影响较大,例如蓝牙的有效传输距离只有10米左右。这给实时监控人体行为应用于实际造成很大的限制。
针对上述现有技术的弊端,本发明提出了一种基于单个加速度传感器和Android平台的人体行为实时识别方法。主要采用单个加速度传感器佩戴在人体的前腰右部的方式,利用Android平台上的行为识别算法,把通过蓝牙传入手机的加速度数据进行实时处理,从而预测出人体行为,通过3G网络传给远程监控的PC机,在此过程中,测试人员手中要始终拿着手机。这种方法有效的解决了上述现有技术的缺点,能够实现实时地远程监控人体行为,有重要的实际应用价值。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种人体行为实时识别方法,用于解决现有技术中人体行为识别方法存在数据量大、实时性差等问题。
为实现上述目的及其他相关目的,本发明提供一种人体行为实时识别方法,所述人体行为实时识别方法至少包括:
1)由被测人员佩戴加速度传感器,利用移动设备从所述加速度传感器中采集所有被测人员在不同行为下的三轴加速度数据,并将所述三轴加速度数据上传至PC机;
2)在所述PC机上利用预处理模块处理所述三轴加速度数据:选取若干个三轴加速度数据为一个窗,然后对每一个窗内的三轴加速度数据进行特征提取,获得多维的输入数据集;
3)通过所述输入数据集训练出识别精度高于一设定值的高斯过程分类器模型,将所述高斯过程分类器模型以及步骤2)中预处理模块移植至Android平台后安装在所述移动设备中;
4)进行实时测试,由被测人员手持安装有所述高斯过程分类器模型和预处理模块的移动设备,并佩戴加速度传感器,通过移动设备获得人体行为的预测结果之后将所述预测结果传给PC机,从而实现被测人员实时行为的观察。
作为本发明人体行为实时识别方法的一种优化的方案,所述步骤1)采集所有被测人员在不同人体行为下的三轴加速度数据的过程为:
1-1)在Android平台上编写数据采集程序,设置特定的采样频率,并将所述数据采集程序安装到所述移动设备上;
1-2)将所述加速度传感器分别固定在若干个被测人员的前腰右部,由被测人员手持安装有数据采集程序的移动设备,打开蓝牙,采集被测人员分别在走、跑、站、躺四种行为下的三轴加速度数据,每种行为的三轴加速度数据存储到移动设备的特定格式文件中。
1-3)将所述特定格式的文件上传至PC机,以读取所述三轴加速度数据用于做后续处理。
作为本发明人体行为实时识别方法的一种优化的方案,所述步骤2)中所述特征提取包括提取三轴加速度在每个窗内的均值、标准差、三轴之间的相关系数以及信号强度,经过提取后获得10维的输入数据集。
作为本发明人体行为实时识别方法的一种优化的方案,所述步骤3)中训练高精度高斯过程分类器模型的具体过程为:
3-1)选取步骤2)中部分所述输入数据集作为测试数据;
3-2)选取步骤2)中部分所述输入数据集作为训练数据,将所述训练数据输入高斯过程分类器中训练出用于区分走、跑、站、躺四种行为的高斯过程分类器模型,之后将所述测试数据输入训练出的所述高斯过程分类器模型中,获得人体行为的识别精度;
3-3)若所述人体行为的识别精度小于一设定值,则重复所述步骤3-2),若所述人体行为识别精度大于或等于该设定值,则将所述高斯过程分类器模型以及步骤2)中预处理模块移植至Android平台上,之后安装至所述移动设备中。
作为本发明人体行为实时识别方法的一种优化的方案,所述步骤4)中进行实时测试时,所述加速度传感器通过蓝牙将三轴加速度数据传输给移动设备,利用移动设备对三轴加速度数据进行特征提取形成多维数据集,再将所述多维数据集输入训练出的高精度高斯过程分类器模型中进行行为预测,之后将预测结果通过3G网络传输给PC机,供观测人员远程实时观察被测人员的行为。
作为本发明人体行为实时识别方法的一种优化的方案,所述移动设备为手机。
如上所述,本发明的人体行为实时识别方法,具体以下有益效果:本发明通过在Android的平台上实时处理单个加速度传感器传来的数据,对人体行为进行实时预测,并通过网络传给远程监控人员。这种方法使得基于传感器的人体行为识别方法可以更有效的应用于实际中,如在医疗保健和应急救援场景中,可以克服传统方法远程数据传输时因数据量太大而造成的阻塞问题,同时由于需要处理的数据量小、能量消耗低等优点可以有效实现实时监控。此外,采用高斯过程分类算法,使得数据处理更容易实现,且由于高斯过程分类算法在高维输入时识别精度受到较小的影响,故可以省去降维处理的过程,使整个系统更为简易可行。
附图说明
图1为本发明人体行为实时识别方法的流程示意图。
图2为本发明人体行为实时识别方法中三轴加速度数据采集过程的流程图。
图3为本发明人体行为实时识别方法中最佳高斯分类器模型的训练流程图。
图4为本发明人体行为实时识别方法中实时测试的流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。
请参阅附图1~图4。需要说明的是,本实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
本发明提供一种人体行为实时识别方法,如图1所示,所述方法至少包括以下步骤:
首先执行步骤S1,由被测人员佩戴加速度传感器,利用移动设备从所述加速度传感器中采集所有被测人员在不同行为下的三轴加速度数据,并将所述三轴加速度数据上传至PC机(个人电脑)。
如图2所示为该步骤采集加速度传感器中三轴加速度数据的具体过程,如下:
第一步,在Android平台上编写数据采集程序,设置特定的采样频率,并将所述数据采集程序安装到所述移动设备上。
本实施例中,采样频率可以设置为50Hz,所述移动设备选择为手机。
第二步,将所述加速度传感器分别固定在若干个被测人员的前腰右部,由被测人员手持安装有数据采集程序的移动设备,打开蓝牙,采集被测人员分别在走、跑、站、躺四种行为下的三轴加速度数据,每种行为的三轴加速度数据存储到移动设备的特定格式文件中。
本实施例中,采集9个人在不同行为下的三轴加速度数据。把单个加速度传感器分别固定在9个人的前腰右部,采集数据的这9个人手持装有数据采集程序的手机,打开蓝牙,开始通过接收加速度传感器传出的三轴加速度数据。此时,人开始分别做走、跑、站、躺四种行为动作,每个动作持续时间约为2分钟,每种行为动作的三轴加速度数据存储到手机上的一个txt格式的文件中。依次类推,直至9个人的数据全部采集完,共采集36个存储三轴加速度数据的txt文件。
第三步,将所述特定格式的文件上传至PC机,以读取所述三轴加速度数据用于做后续处理。
本实施例中,将36个存储有三轴加速度数据的txt格式文件都上传至PC机,由PC机读取txt文件中的数据。
然后执行步骤S2,在所述PC机上利用预处理模块处理所述三轴加速度数据:选取若干个三轴加速度数据为一个窗,然后对每一个窗内的三轴加速度数据进行特征提取,获得多维的输入数据集。
该步骤中对所述三轴加速度的预处理主要包括窗长度截取和特征提取。
窗长度提取:本实施例中,采样频率为50Hz,根据该采样频率,选取50个三轴加速度数据为一个窗,即每秒预测一次行为。这样,将采集的三轴加速度数据以50为窗长度进行分段截取。
特征提取:对每个窗内的三轴加速度信号进行特征提取,提取的特征包括:窗长度内每个轴加速度数据的均值、标准差、三轴之间的相关系数、信号强度。其中,
窗长度内每个轴加速度数据的均值为: 其中mi表示在第i窗内的均值矢量,mx(i)、my(i)和mz(i)分别表示每个轴加速度数据在第i窗内的均值。
窗长度内每个轴加速度数据的标准差: 其中 表示在第i窗内的标准差矢量,n表示窗长度,在本实施例中n=50,axi(t)表示在第i窗内t时刻的x轴的加速度数据。同理可计算出sy(i)和sz(i)。
三轴间的相关系数: 其中 同理可计算出pxz(i)和pyz(i)。
信号强度:sm(i)=mx(i)+my(i)+mz(i)。
这样,经过特征提取后便得到了维数为10的输入数据集,作为后面分类算法中的训练数据和测试数据使用。
接着执行步骤S3,通过所述输入数据集训练出识别精度高于一设定值的高斯过程分类器模型,将所述高斯过程分类器模型以及步骤S2中预处理模块移植至Android平台后安装在所述移动设备中。
本实施例中个,所述设定值选择为90%。
请参阅附图3,选取步骤S2中所述输入数据集中的部分数据作为测试数据;同时选取步骤2)中部分所述输入数据集作为训练数据,然后将所述训练数据输入高斯过程分类器中训练出用于区分走、跑、站、躺四种行为的高斯过程分类器模型,之后再将选取的所述测试数据输入训练出的所述高斯过程分类器模型中,获得人体行为的识别精度;
若所述人体行为的识别精度小于设定值90%,则继续重复上述步骤,从原始输入数据集中另外选取部分数据作为训练数据,来获得人体行为识别精度。若所述人体行为识别精度大于或等于设定值90%,则将所述高斯过程分类器模型以及步骤S2中预处理模块移植至Android平台上,之后安装至所述移动设备中。
需要说明的是,由于以上处理加速度数据的过程都是在PC机上利用MATLAB进行仿真的,因此,如要实际应用,需要把步骤S3训练出的相对精度较高的高斯过程分类器模型和S2中原始加速度预处理算法模块移植到Android平台上,然后把程序安装到手机上以便测试使用。
最后进行步骤S4,进行实时测试,由被测人员手持安装有所述高斯过程分类器模型和预处理模块的移动设备,并佩戴加速度传感器,通过移动设备获得人体行为的预测结果之后将所述预测结果传给PC机,从而实现被测人员实时行为的观察。
本实施例中,如图4所示,在进行实时测试时,测试人员手持已经安装好在Android平台上实现的人体行为识别系统程序(预处理模块和高斯过程分类器模型),同时把加速度传感器固定在身体的前腰右部,手机需要打开蓝牙和3G网络。之后测试人员随机做走、跑、站、躺四种动作,在PC机上观察测试人员的实时行为。在测试过程中,加速度传感器通过蓝牙把原始三轴加速度数据传给手机,每秒传一次,手机接收到原始三轴加速度后首先把这一秒内的数据当成一个窗的数据进行特征提取,然后把处理后的数据(10维)输入高斯过程分类器模型预测行为,最后把预测结果通过3G网络传给PC机,观测人员在PC机上可以实时观察测试人员的行为。
综上所述,本发明提供一种人体行为实时识别方法,包括步骤:首先,利用移动设备采集加速度传感器中的三轴加速度数据并上传至PC机;然后,利用PC机上的预处理模块对所述三轴加速度数据进行预处理,包括窗长度截取和特征提取;接着利用预处理后的数据训练精度较高的高斯过程分类器模型,并将所述高斯过程分类器模型和预处理模块移植Android平台上,之后安装到移动设备中,最后进行人体行为的实时测试和观察。本发明的方法可以有效地应用于实际中各种环境,如应急救援和医疗保健环境等,通过克服传统方法远程数据传输时因数据量太大而造成的阻塞问题,减少手机处理的数据量、降低能量消耗,实现高效、准确、实时地远程监控人体行为。
所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (6)
1.一种人体行为实时识别方法,其特征在于,所述人体行为实时识别方法至少包括:
1)由被测人员佩戴加速度传感器,利用移动设备从所述加速度传感器中采集所有被测人员在不同行为下的三轴加速度数据,并将所述三轴加速度数据上传至PC机;
2)在所述PC机上利用预处理模块处理所述三轴加速度数据:选取若干个三轴加速度数据为一个窗,然后对每一个窗内的三轴加速度数据进行特征提取,获得多维的输入数据集;
3)通过所述输入数据集训练出识别精度高于一设定值的高斯过程分类器模型,将所述高斯过程分类器模型以及步骤2)中预处理模块移植至Android平台后安装在所述移动设备中;
4)进行实时测试,由被测人员手持安装有所述高斯过程分类器模型和预处理模块的移动设备,并佩戴加速度传感器,通过移动设备获得人体行为的预测结果之后将所述预测结果传给PC机,从而实现被测人员实时行为的观察。
2.根据权利要求1所述的人体行为实时识别方法,其特征在于:所述步骤1)采集所有被测人员在不同行为下的三轴加速度数据的过程为:
1-1)在Android平台上编写数据采集程序,设置特定的采样频率,并将所述数据采集程序安装到所述移动设备上;
1-2)将所述加速度传感器分别固定在若干个被测人员的前腰右部,由被测人员手持安装有数据采集程序的移动设备,打开蓝牙,采集被测人员分别在走、跑、站、躺四种行为下的三轴加速度数据,每种行为的三轴加速度数据存储到移动设备的特定格式文件中。
1-3)将所述特定格式的文件上传至PC机,以读取所述三轴加速度数据用于做后续处理。
3.根据权利要求1所述的人体行为实时识别方法,其特征在于:所述步骤2)中所述特征提取包括提取三轴加速度在每个窗内的均值、标准差、三轴之间的相关系数以及信号强度,经过提取后获得10维的输入数据集。
4.根据权利要求1所述的人体行为实时识别方法,其特征在于:所述步骤3)中训练高精度高斯过程分类器模型的具体过程为:
3-1)选取步骤2)中部分所述输入数据集作为测试数据;
3-2)选取步骤2)中部分所述输入数据集作为训练数据,将所述训练数据输入高斯过程分类器中训练出用于区分走、跑、站、躺四种行为的高斯过程分类器模型,之后将所述测试数据输入训练出的所述高斯过程分类器模型中,获得人体行为的识别精度;
3-3)若所述人体行为的识别精度小于一设定值,则重复所述步骤3-2),若所述人体行为识别精度大于或等于该设定值,则将所述高斯过程分类器模型以及步骤2)中预处理模块移植至Android平台上,之后安装至所述移动设备中。
5.根据权利要求1所述的人体行为实时识别方法,其特征在于:所述步骤4)中进行实时测试时,所述加速度传感器通过蓝牙将三轴加速度数据传输给移动设备,利用移动设备对三轴加速度数据进行特征提取形成多维数据集,再将所述多维数据集输入训练出的高精度高斯过程分类器模型中进行行为预测,之后将预测结果通过无线网络传输给PC机,供观测人员远程实时观察被测人员的行为。
6.根据权利要求1~5任一项所述的人体行为实时识别方法,其特征在于:所述移动设备为手机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510288632.7A CN104899564B (zh) | 2015-05-29 | 2015-05-29 | 一种人体行为实时识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510288632.7A CN104899564B (zh) | 2015-05-29 | 2015-05-29 | 一种人体行为实时识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104899564A true CN104899564A (zh) | 2015-09-09 |
CN104899564B CN104899564B (zh) | 2019-01-25 |
Family
ID=54032220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510288632.7A Active CN104899564B (zh) | 2015-05-29 | 2015-05-29 | 一种人体行为实时识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104899564B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105528754A (zh) * | 2015-12-28 | 2016-04-27 | 湖南师范大学 | 一种基于双神经网络行为识别模型的老年人信息服务系统 |
CN105528613A (zh) * | 2015-11-30 | 2016-04-27 | 南京邮电大学 | 一种基于智能手机gps速度与加速度数据的行为识别方法 |
CN105868779A (zh) * | 2016-03-28 | 2016-08-17 | 浙江工业大学 | 一种基于特征增强和决策融合的行为识别方法 |
CN109886068A (zh) * | 2018-12-20 | 2019-06-14 | 上海至玄智能科技有限公司 | 基于运动数据的动作行为识别方法 |
CN110543102A (zh) * | 2018-05-29 | 2019-12-06 | 珠海格力电器股份有限公司 | 一种控制智能家居设备的方法、装置及计算机存储介质 |
CN111603750A (zh) * | 2020-05-26 | 2020-09-01 | 深圳市蝙蝠云科技有限公司 | 基于边缘计算的动作捕捉识别评估系统及方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984921A (zh) * | 2014-04-29 | 2014-08-13 | 华南理工大学 | 一种用于人体动作识别的三轴特征融合方法 |
-
2015
- 2015-05-29 CN CN201510288632.7A patent/CN104899564B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103984921A (zh) * | 2014-04-29 | 2014-08-13 | 华南理工大学 | 一种用于人体动作识别的三轴特征融合方法 |
Non-Patent Citations (6)
Title |
---|
HANG ZHOU等: "Human action recognition by feature-reduced Gaussian process classification", 《PATTERN RECOGNITION LETTERS》 * |
HANG ZHOU等: "Human Motion Recognition using Gaussian Processes Classification", 《2008 19TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION,ICPR 2008》 * |
XIANGHANG LIU等: "Active learning for human action recognition with Gaussian Processes", 《2011 18TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》 * |
YOUNG-SEOL LEE,SUNG-BAE CHO: "Activity Recognition Using Hierarchical Hidden Markov Models on a Smartphone with 3D Accelerometer", 《HYBRID ARTIFICIAL INTELLIGENT SYSTEMS,PART I》 * |
徐川龙等: "一种基于三维加速度传感器的人体行为识别方法", 《计算机系统应用》 * |
薛洋: "基于单个加速度传感器的人体运动模式识别", 《中国博士学位论文全文数据库信息科技辑》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105528613A (zh) * | 2015-11-30 | 2016-04-27 | 南京邮电大学 | 一种基于智能手机gps速度与加速度数据的行为识别方法 |
CN105528754A (zh) * | 2015-12-28 | 2016-04-27 | 湖南师范大学 | 一种基于双神经网络行为识别模型的老年人信息服务系统 |
CN105868779A (zh) * | 2016-03-28 | 2016-08-17 | 浙江工业大学 | 一种基于特征增强和决策融合的行为识别方法 |
CN105868779B (zh) * | 2016-03-28 | 2018-12-18 | 浙江工业大学 | 一种基于特征增强和决策融合的行为识别方法 |
CN110543102A (zh) * | 2018-05-29 | 2019-12-06 | 珠海格力电器股份有限公司 | 一种控制智能家居设备的方法、装置及计算机存储介质 |
CN109886068A (zh) * | 2018-12-20 | 2019-06-14 | 上海至玄智能科技有限公司 | 基于运动数据的动作行为识别方法 |
CN109886068B (zh) * | 2018-12-20 | 2022-09-09 | 陆云波 | 基于运动数据的动作行为识别方法 |
CN111603750A (zh) * | 2020-05-26 | 2020-09-01 | 深圳市蝙蝠云科技有限公司 | 基于边缘计算的动作捕捉识别评估系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104899564B (zh) | 2019-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104899564B (zh) | 一种人体行为实时识别方法 | |
US10918312B2 (en) | Wearable and connected gait analytics system | |
Leuenberger et al. | A method to qualitatively assess arm use in stroke survivors in the home environment | |
CN110334573B (zh) | 一种基于密集连接卷积神经网络的人体运动状态判别方法 | |
CN107007263B (zh) | 一种普适化的睡眠质量测评方法和系统 | |
JP2018102617A (ja) | 感情推定装置、方法およびプログラム | |
CN106580282A (zh) | 一种人体健康监测装置、系统及方法 | |
CN106725376B (zh) | 体征信号检测方法及装置 | |
CN108937973A (zh) | 一种机器人诊断人体愤怒情绪方法及装置 | |
CN107137096A (zh) | 一种多模态生理和行为数据融合采集系统 | |
Pastorino et al. | Wearable sensor network for health monitoring: the case of Parkinson disease | |
CN106643722A (zh) | 一种基于三轴加速度计的宠物运动识别方法 | |
Khokhlov et al. | Design of activity recognition systems with wearable sensors | |
Shin et al. | Korean sign language recognition using EMG and IMU sensors based on group-dependent NN models | |
CN113642432A (zh) | 基于协方差矩阵变换的卷积神经网络用于人体姿态识别方法 | |
CN103785157A (zh) | 人体运动类型识别准确度提高方法 | |
Tepe et al. | The effects of the number of channels and gyroscopic data on the classification performance in EMG data acquired by Myo armband | |
Qamar et al. | An approach towards position-independent human activity recognition model based on wearable accelerometer sensor | |
CN114818952A (zh) | 一种基于手机传感器的智能跌倒姿态分类与识别方法 | |
Maguire et al. | Comparison of feature classification algorithm for activity recognition based on accelerometer and heart rate data | |
CN112370058A (zh) | 一种基于移动端对用户的情感进行识别与监测方法 | |
CN101819635A (zh) | 一种基于微惯导信号和模式识别的手语翻译方法 | |
McConville et al. | Person identification and discovery with wrist worn accelerometer data | |
CN111079927B (zh) | 一种基于极限学习机的髌骨疼痛检测系统 | |
Mekruksavanich et al. | Resnet-based deep neural network using transfer learning for animal activity recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |