CN113095153A - 基于深度残差网络的移动终端人类情境识别方法 - Google Patents
基于深度残差网络的移动终端人类情境识别方法 Download PDFInfo
- Publication number
- CN113095153A CN113095153A CN202110297073.1A CN202110297073A CN113095153A CN 113095153 A CN113095153 A CN 113095153A CN 202110297073 A CN202110297073 A CN 202110297073A CN 113095153 A CN113095153 A CN 113095153A
- Authority
- CN
- China
- Prior art keywords
- residual error
- mobile terminal
- error network
- network
- depth residual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度残差网络的移动终端人类情境识别方法。该方法如下:初始化移动终端系统参数;初始化深度残差网络参数,包括网络层数、每层神经元的个数、激活函数、池化函数和池化窗、卷积核;对传感器数据进行预处理;对深度残差网络进行训练优化;利用优化后的深度残差网络识别人类情境。本发明方法可以提高基于传感器数据的移动终端人类情境识别的准确率,减少了识别误差;能提高移动终端系统识别人类情境的能力,可以被广泛应用于活动识别、姿态预测等移动终端实际应用场景。
Description
技术领域
本发明属于移动终端控制技术领域,特别涉及一种基于深度残差网络的移动终端人类情境识别方法。
背景技术
移动终端系统是利用智能移动终端上多个传感器完成实际任务的综合系统,对日常生活产生了重要影响。随着智能手机的不断普及,其应用越来越普遍,应用场景也是越来越丰富。其中,人类情境识别(human context recognition,HCR)是最为常见的应用场景之一,既包括个人情境识别(例如活动,健康状况,情绪)又包括环境情境识别(例如位置,尘埃水平,社会互动),在医疗领域可以用于身体评估以及对患有慢性疾病(例如糖尿病,肥胖症,认知障碍或心律不齐)的患者进行监督。现如今人口老龄化的趋势更需要高性能高精度的HCR,来对人体状况进行有效监测。
人类情境识别即根据传感器所采集到的信号识别用户所处的情境,例如识别血压是否正常、体温是否正常、当前的手势和姿态等,并将识别出的情境发送至相应的客户端。在现实的应用场景中,为了实现人类各种情境的识别,系统往往设计得比较复杂,有多个传感器同时工作。因此,需要基于移动感知系统中各传感器所采集的数据,设计合适的情境识别算法,即分类算法,形成最终的识别结果输出给用户。目前已有分类算法的实现方法大量运用了有监督机器学习方法,尤其是深度学习的运用将分类器的识别准确率提高到90%左右。但传统的深度学习存在一些短板,例如梯度消失等,使得分类算法的识别准确率无法进一步提升。
发明内容
本发明的目的在于提供一种准确、高效的基于深度残差网络的移动终端人类情境识别方法,使移动终端能够精确识别人类情境。
实现本发明目的的技术解决方案为:一种基于深度残差网络的移动终端人类情境识别方法,包括以下步骤:
步骤1,初始化移动终端系统参数;
步骤2,初始化深度残差网络参数;
步骤3,对传感器数据进行预处理;
步骤4,对深度残差网络进行训练优化;
步骤5,利用优化后的深度残差网络识别人类情境。
进一步地,步骤1所述初始化移动终端系统参数,具体包括:
初始化移动终端系统参数,包括:总任务时长T、传感器参数、预先设定可被识别的人类情境种类,包括行走、坐立;其中,传感器参数包括传感器采样频率、占空比。
进一步地,步骤2所述初始化深度残差网络参数,具体包括:
初始化深度残差网络参数,包括网络层数、每层神经元的个数、激活函数、池化函数和池化窗、卷积核。
进一步地,步骤3所述对传感器数据进行预处理,具体为:
将人体佩戴式、基于物体和环境的传感器的信号量即固定时间段内收集数据包的数量调整至相同数目,并且作归一化处理,同时去除掉噪声和失真值;接着进行窗口的划分,将总任务时长T划分为多个短的时间窗口。
进一步地,步骤4所述对深度残差网络进行训练优化,具体包括:
步骤4-1,将收集到的传感器数据预处理后的数据集,再按10:1的比例分为训练集和测试集;
步骤4-2,从数据集批量抽取样本用来进行深度残差网络的训练,按照类别进行抽取,类别即用来情境识别的传感器种类;
步骤4-3,将抽取的样本输入深度残差网络,进行一次池化操作;
步骤4-4,经过多层残差单元的计算,多层残差单元即残差单元的输出是将输入和卷积后的结果相加,在通过多层残差单元后得到32个特征平面,再进行一次池化操作;
步骤4-5,将池化后的输出结果输入到全连接层,最后输出为所识别的用户情境结果;
步骤4-6,利用梯度下降法优化深度残差网络的参数,即通过寻找最小值,在一个方向上更新和调整模型的参数,来最小化损失函数;
步骤4-7,若训练轮次未达到预设值,则采取设定的样本抽取规则保留部分样本,返回步骤4-2。
进一步地,步骤4-7所述采取设定的样本抽取规则保留部分样本,具体为:
在每一个样本被输入网络训练后,求取每一个样本对应的预测误差值,即神经网络的LOSS值,之后根据误差值对所有样本进行升序排列,获得样本序列(j1,…jd,jd+1,…,jminib),并保留该经验样本序列的前d个样本,d的取值小于minib。
进一步地,步骤5所述利用优化后的深度残差网络识别人类情境,具体如下:
步骤5-1,移动终端收集各个传感器的数据,并进行预处理;
步骤5-2,将预处理后的传感器数据输入到优化后的深度残差网络中,输出所识别的人类情境。
本发明与现有技术相比,其显著优点为:(1)运用深度残差网络解决了网络梯度消失等问题,提高了识别的准确率;(2)更好的鲁棒性,深度残差网络具有较好的可移植性和鲁棒性;(3)提出的样本抽取规则可以提高网络训练的速度和最终的效果。
下面结合附图对本发明作进一步详细描述。
附图说明
图1为一个实施例中基于深度残差网络的移动终端人类情境识别方法流程图。
图2为一个实施例中Loss值和准确率随着训练过程的变化图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,结合图1,提供了一种基于深度残差网络的移动终端人类情境识别方法,该方法包括以下步骤:
步骤1,初始化移动终端系统各参数;
步骤2,初始化深度残差网络参数;
步骤3,对传感器数据进行预处理;
步骤4,对深度残差网络进行训练优化;
步骤5,利用获得的深度残差网络识别人类情境。
进一步地,步骤1所述初始化移动终端系统参数,具体包括:
初始化移动终端系统参数,包括:总任务时长T、传感器参数、预先设定可被识别的人类情境种类,包括行走、坐立;其中,传感器参数包括传感器采样频率、占空比。
进一步地,步骤2所述初始化深度残差网络参数,具体包括:
初始化深度残差网络参数,包括网络层数、每层神经元的个数、激活函数、池化函数和池化窗、卷积核。
进一步地,步骤3所述对传感器数据进行预处理,具体为:将人体佩戴式、基于物体和环境的传感器的信号量即固定时间段内收集数据包的数量调整至相同数目,并且作归一化处理,同时去除掉噪声和失真值;接着进行窗口的划分,将总任务时长T划分为多个短的时间窗口。
进一步地,步骤4所述对深度残差网络进行训练优化,具体包括:
步骤4-1,将收集到的传感器数据预处理后的数据集,再按10:1的比例分为训练集和测试集;
步骤4-2,从数据集批量抽取样本用来进行深度残差网络的训练,按照类别进行抽取,类别即用来情境识别的传感器种类;
步骤4-3,将抽取的样本输入深度残差网络,进行一次池化操作;
步骤4-4,经过多层残差单元的计算,多层残差单元即残差单元的输出是将输入和卷积后的结果相加,在通过多层残差单元后得到32个特征平面,再进行一次池化操作;
步骤4-5,将池化后的输出结果输入到全连接层,最后输出为所识别的用户情境结果;
步骤4-6,利用梯度下降法优化深度残差网络的参数,即通过寻找最小值,在一个方向上更新和调整模型的参数,来最小化损失函数;
步骤4-7,若训练轮次未达到预设值,则采取设定的样本抽取规则保留部分样本,返回步骤4-2;所述采取设定的样本抽取规则保留部分样本,具体为:
在每一个样本被输入网络训练后,求取每一个样本对应的预测误差值,即神经网络的LOSS值,之后根据误差值对所有样本进行升序排列,获得样本序列(j1,…jd,jd+1,…,jminib),并保留该经验样本序列的前d个样本,d的取值小于minib。
进一步地,步骤5所述利用获得的深度残差网络识别人类情境,具体包括:
步骤5-1,移动终端收集各个传感器的数据,并进行预处理;
步骤5-2,将预处理后的传感器数据输入到训练后深度残差网络中,输出所识别的人类情境。
作为一种具体示例,在一个实施例中,对本发明进行实验验证:
所用的数据源为开源的用户活动数据集,其中预先定义了26种情境,例如行走、坐立等。所用到的传感器有多种类型,包括人体佩戴式、基于物体和环境的传感器等,传感器总数为72个。利用多个传感器动态地连续收集传感器信号,分类器通过分析传感器信号识别用户的活动。在分析算法性能时,利用Loss值来观察算法的收敛效果。Loss值的计算即预测值与实际值的平方误差和。
图2为本实例Loss值和准确率随着训练过程的变化图。由图2可知,随着训练轮数增加,网络Loss值逐渐降低,最终值接近于0,同时,预测的准确率也从最初的不到10%提升至接近于100%。
综上所述,本发明方法可以提高基于传感器数据的移动终端人类情境识别的准确率,减少了识别误差。本发明能提高移动终端系统识别人类情境的能力,可以被广泛应用于活动识别、姿态预测等移动终端实际应用场景。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (7)
1.一种基于深度残差网络的移动终端人类情境识别方法,其特征在于,包括以下步骤:
步骤1,初始化移动终端系统参数;
步骤2,初始化深度残差网络参数;
步骤3,对传感器数据进行预处理;
步骤4,对深度残差网络进行训练优化;
步骤5,利用优化后的深度残差网络识别人类情境。
2.根据权利要求1所述的基于深度残差网络的移动终端人类情境识别方法,其特征在于,步骤1所述初始化移动终端系统参数,具体包括:
初始化移动终端系统参数,包括:总任务时长T、传感器参数、预先设定可被识别的人类情境种类,包括行走、坐立;其中,传感器参数包括传感器采样频率、占空比。
3.根据权利要求1所述的基于深度残差网络的移动终端人类情境识别方法,其特征在于,步骤2所述初始化深度残差网络参数,具体包括:
初始化深度残差网络参数,包括网络层数、每层神经元的个数、激活函数、池化函数和池化窗、卷积核。
4.根据权利要求1所述的基于深度残差网络的移动终端人类情境识别方法,其特征在于,步骤3所述对传感器数据进行预处理,具体为:
将人体佩戴式、基于物体和环境的传感器的信号量即固定时间段内收集数据包的数量调整至相同数目,并且作归一化处理,同时去除掉噪声和失真值;接着进行窗口的划分,将总任务时长T划分为多个短的时间窗口。
5.根据权利要求1所述的基于深度残差网络的移动终端人类情境识别方法,其特征在于,步骤4所述对深度残差网络进行训练优化,具体包括:
步骤4-1,将收集到的传感器数据预处理后的数据集,再按10:1的比例分为训练集和测试集;
步骤4-2,从数据集批量抽取样本用来进行深度残差网络的训练,按照类别进行抽取,类别即用来情境识别的传感器种类;
步骤4-3,将抽取的样本输入深度残差网络,进行一次池化操作;
步骤4-4,经过多层残差单元的计算,多层残差单元即残差单元的输出是将输入和卷积后的结果相加,在通过多层残差单元后得到32个特征平面,再进行一次池化操作;
步骤4-5,将池化后的输出结果输入到全连接层,最后输出为所识别的用户情境结果;
步骤4-6,利用梯度下降法优化深度残差网络的参数,即通过寻找最小值,在一个方向上更新和调整模型的参数,来最小化损失函数;
步骤4-7,若训练轮次未达到预设值,则采取设定的样本抽取规则保留部分样本,返回步骤4-2。
6.根据权利要求5所述的基于深度残差网络的移动终端人类情境识别方法,其特征在于,步骤4-7所述采取设定的样本抽取规则保留部分样本,具体为:
在每一个样本被输入网络训练后,求取每一个样本对应的预测误差值,即神经网络的LOSS值,之后根据误差值对所有样本进行升序排列,获得样本序列(j1,…jd,jd+1,…,jminib),并保留该经验样本序列的前d个样本,d的取值小于minib。
7.根据权利要求1所述的基于深度残差网络的移动终端人类情境识别方法,其特征在于,步骤5所述利用优化后的深度残差网络识别人类情境,具体如下:
步骤5-1,移动终端收集各个传感器的数据,并进行预处理;
步骤5-2,将预处理后的传感器数据输入到优化后的深度残差网络中,输出所识别的人类情境。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110297073.1A CN113095153A (zh) | 2021-03-19 | 2021-03-19 | 基于深度残差网络的移动终端人类情境识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110297073.1A CN113095153A (zh) | 2021-03-19 | 2021-03-19 | 基于深度残差网络的移动终端人类情境识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113095153A true CN113095153A (zh) | 2021-07-09 |
Family
ID=76668508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110297073.1A Withdrawn CN113095153A (zh) | 2021-03-19 | 2021-03-19 | 基于深度残差网络的移动终端人类情境识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113095153A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117374469A (zh) * | 2023-12-07 | 2024-01-09 | 深圳市普裕时代新能源科技有限公司 | 基于浸没式液冷储能系统的控制方法 |
-
2021
- 2021-03-19 CN CN202110297073.1A patent/CN113095153A/zh not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117374469A (zh) * | 2023-12-07 | 2024-01-09 | 深圳市普裕时代新能源科技有限公司 | 基于浸没式液冷储能系统的控制方法 |
CN117374469B (zh) * | 2023-12-07 | 2024-02-09 | 深圳市普裕时代新能源科技有限公司 | 基于浸没式液冷储能系统的控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111027487B (zh) | 基于多卷积核残差网络的行为识别系统、方法、介质及设备 | |
CN111160139B (zh) | 心电信号的处理方法、装置及终端设备 | |
Yang et al. | Deep convolutional neural networks on multichannel time series for human activity recognition. | |
CN105184325B (zh) | 一种移动智能终端 | |
CN111209885A (zh) | 一种手势信息处理方法、装置、电子设备及存储介质 | |
CN111149104B (zh) | 用于生物特征识别的装置、方法和计算机可读存储介质 | |
Palaniappan et al. | VEP optimal channel selection using genetic algorithm for neural network classification of alcoholics | |
Benalcázar et al. | Real-time hand gesture recognition based on artificial feed-forward neural networks and EMG | |
CN107609477A (zh) | 一种基于深度学习与智能手环相结合的摔倒检测方法 | |
CN116821809B (zh) | 基于人工智能的生命体征数据采集系统 | |
CN111089604A (zh) | 基于可穿戴传感器的健身运动识别方法 | |
CN112464738A (zh) | 改进朴素贝叶斯算法基于手机传感器的用户行为识别方法 | |
CN111753683A (zh) | 一种基于多专家卷积神经网络的人体姿态识别方法 | |
CN113946218A (zh) | 设备上的活动识别 | |
CN113095153A (zh) | 基于深度残差网络的移动终端人类情境识别方法 | |
Compagnon et al. | Learning personalized ADL recognition models from few raw data | |
CN108874137B (zh) | 一种基于脑电信号的手势动作意图检测的通用模型 | |
CN114386981A (zh) | 风险识别方法、装置、计算机设备及存储介质 | |
CN110717407A (zh) | 基于唇语密码的人脸识别方法、装置及存储介质 | |
CN112329633B (zh) | 基于张量分解的情感识别方法、装置、介质及电子设备 | |
WO2018207619A1 (en) | Data collection apparatus and learning apparatus | |
Seera et al. | A hybrid FMM-CART model for human activity recognition | |
KR102267741B1 (ko) | Ppg신호를 이용한 딥러닝 기반의 감정인식 시스템 및 감정인식 방법 | |
CN110765939B (zh) | 身份识别方法、装置、移动终端及存储介质 | |
CN112215962A (zh) | 一种虚拟现实情感刺激系统及其创建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210709 |