CN116725538B - 一种基于深度学习的手环情绪识别方法 - Google Patents
一种基于深度学习的手环情绪识别方法 Download PDFInfo
- Publication number
- CN116725538B CN116725538B CN202311006396.6A CN202311006396A CN116725538B CN 116725538 B CN116725538 B CN 116725538B CN 202311006396 A CN202311006396 A CN 202311006396A CN 116725538 B CN116725538 B CN 116725538B
- Authority
- CN
- China
- Prior art keywords
- body movement
- period
- current
- emotion
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 38
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000008451 emotion Effects 0.000 claims abstract description 143
- 230000000737 periodic effect Effects 0.000 claims abstract description 26
- 239000002243 precursor Substances 0.000 claims abstract description 12
- 230000000694 effects Effects 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 5
- 230000002123 temporal effect Effects 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000012163 sequencing technique Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000037081 physical activity Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004622 sleep time Effects 0.000 description 2
- 230000009182 swimming Effects 0.000 description 2
- 230000009184 walking Effects 0.000 description 2
- 244000062793 Sorghum vulgare Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 235000019713 millet Nutrition 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009183 running Effects 0.000 description 1
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供了一种基于深度学习的手环情绪识别方法,包括:基于智能手环周期感应的当前佩戴者的周期基础生理数据和每种情绪指标的主要指数识别模型确定出每种情绪指标的主要情绪指数;确定出当前所属时段的时段体动数据,并基于时段体动数据确定出当前体动频率;对海量包括单个时段的体动频率和每种情绪指标的主要情绪指数,以及用户标定情绪指数的记录实例进行深度学习,获得每种情绪指标的最终指数识别模型;将当前所属时段的当前体动频率和每种情绪指标的主要情绪指数,输入至每种情绪指标的最终指数识别模型,确定出每种情绪指标的最终情绪指数;用以实现对佩戴者的精准情绪识别。
Description
技术领域
本发明涉及情绪识别技术领域,特别涉及一种基于深度学习的手环情绪识别方法。
背景技术
智能手环是可穿戴智能设备的一种,可实现对佩戴者的心率、脑电波、运动状态的高精度监测,也可以将数据与其他智能设备进行同步,部分智能手环也具有对佩戴者进行情绪识别的功能。
但是,现存的智能手环的情绪识别方法大多通过感应获得的佩戴者的心率、脑电波等基础生理数据进行分析获得,然而佩戴者的基础生理数据与佩戴者的情绪状态之间不是一对一的变量关系,即存在其他影响变量影响佩戴者的基础生理数据,例如当佩戴者在运动时将导致佩戴者的基础生理数据发生很大变化。例如公开号为“CN114938958A”,专利名称为“一种基于智能手环和热红外摄像机的驾驶人情绪识别方法及系统”的专利,其公开了一种基于智能手环和热红外摄像机的驾驶人情绪识别方法及系统,驾驶人情绪识别方法包括如下步骤:获取不同情绪下驾驶人的皮电、心电和鼻尖温度生理参数;并对获得的生理数据进行数据处理与分析、进行特征指标的建立和特征提取,使得驾驶人的情绪特征更加明显,有效提高了识别的准确性;再将驾驶人不同情绪状态下的特征参数形成数据集,采用随机森林模型训练模型,从而实现对驾驶人情绪的准确识别;并基于上述的情绪识别,提供一种由智能手环和热红外摄像机为采集设备、上述模型为判定方法、车载设备或智能手机为预警输出的驾驶人情绪识别系统。但是上述专利就是只采用了佩戴者的皮电、心电和鼻尖温度生理参数作为决策变量,以实现对佩戴者的情绪识别,存在其他影响变量导致该种情绪识别方法的识别精准度不够高。
因此,本发明提出了一种基于深度学习的手环情绪识别方法。
发明内容
本发明提供一种基于深度学习的手环情绪识别方法,用以基于手环感应的基础生理数据和基于深度学习构建除的主要指数识别模型确定出每种情绪指标的主要情绪指数,即实现对基础数据的周期性分析以及对情绪进行分指标分析,并进一步地,对佩戴者的体动数据进行分时段分析并确定体动频率,将体动频率作为其不同情绪指标的最终指数的辅助决策变量,结合前述步骤确定出的主要情绪指数以及基于深度学习构建出的最终指数识别模型,即将体动数据作为影响变量引入情绪识别的决策变量,并结合深度学习技术,大大提高了对佩戴者的情绪识别的精准度。
本发明提供一种基于深度学习的手环情绪识别方法,包括:
S1:基于智能手环周期感应的当前佩戴者的周期基础生理数据和每种情绪指标的主要指数识别模型,确定出每种情绪指标的主要情绪指数;
S2:对智能手环最新感应的当前佩戴者的当日体动数据进行时段归属确定,获得当前所属时段的时段体动数据,并基于时段体动数据确定出当前体动频率;
S3:对海量包括单个时段的体动频率和每种情绪指标的主要情绪指数,以及用户标定情绪指数的记录实例进行深度学习,获得每种情绪指标的最终指数识别模型;
S4:将当前所属时段的当前体动频率和每种情绪指标的主要情绪指数,输入至每种情绪指标的最终指数识别模型,确定出每种情绪指标的最终情绪指数。
优选的,S1:基于智能手环周期感应的当前佩戴者的周期基础生理数据和每种情绪指标的主要指数识别模型,确定出每种情绪指标的主要情绪指数,包括:
S101:基于大量包含历史周期基础生理数据和单种情绪指标的历史主要情绪指数的历史情绪识别实例,训练获得每种情绪指标的主要指数识别模型;
S102:将基于智能手环在最新周期感应获得的当前佩戴者的周期基础生理数据,输入至主要指数识别模型,获得每种情绪指标的主要情绪指数。
优选的,S2:对智能手环最新感应的当前佩戴者的当日体动数据进行时段归属确定,获得当前所属时段的时段体动数据,并基于时段体动数据确定出当前体动频率,包括:
S201:对智能手环感应获得的当前佩戴者的所有单日历史体动数据进行时段特征分析,获得当前佩戴者的体动时段划分规则;
S202:基于当前佩戴者的体动时段划分规则,确定出当前所属时段;
S203:在智能手环最新感应的当前佩戴者的当日体动数据中,划分出当前所属时段的时段体动数据;
S204:基于时段体动数据确定出当前体动频率。
优选的,S201:对智能手环感应获得的当前佩戴者的所有单日历史体动数据进行时段特征分析,获得当前佩戴者的体动时段划分规则,包括:
对智能手环感应获得的当前佩戴者的所有单日历史体动数据进行类型划分,获得每种体动类型对应的所有单日历史数据;
基于每种体动类型的体动活跃数据最小阈值,在每种体动类型的所有单日历史数据中标定出每种体动类型的活跃时段;
基于每种体动类型的所有活跃时段,确定出当前佩戴者的每种体动类型的有效活跃时段;
基于所有体动类型的所有有效活跃时段,确定出当前佩戴者的体动时段划分规则。
优选的,基于每种体动类型的所有活跃时段,确定出当前佩戴者的每种体动类型的有效活跃时段,包括:
基于每种体动类型的所有活跃时段的起始时刻,生成每种体动类型得出起始时刻序列,同时,基于每种体动类型的所有活跃时段的终止时刻,生成每种体动类型的终止时刻序列;
基于所有体动类型的起始时刻序列和终止时刻序列,计算出每两种体动类型之间的活跃时段关联度;
计算出每个活跃时段在对应体动类型的所有活跃时段中的时段集中度,并将体动类型的所有活跃时段中最小时段集中度的活跃时段删除,并基于剩余的活跃时段生成新的起始时刻序列和终止时刻序列,并基于新的起始时刻序列和终止时刻序列,计算出对应两种体动类型之间的新的活跃时段关联度,直至新的活跃时段关联度和预设时段关联度的差值出现极小值时,则将体动类型的当前剩余的所有活跃时段,当作当前佩戴者的对应种类的体动类型的有效活跃时段。
优选的,基于所有体动类型的所有有效活跃时段,确定出当前佩戴者的体动时段划分规则,包括:
将每个体动类型的所有有效活跃时段的交集,当作每个体动类型的集中活跃时段;
将从所有体动类型的集中活跃时段的起始时刻中的最小起始时刻,至所有体动类型的集中活跃时段的终止时刻中的最大终止时刻为止的时段,当作当前佩戴者的完整体动时段,并将单日中除完整体动时段以外剩余的所有时段当作非体动时段;
将完整体动时段和非体动时段,当作当前佩戴者的体动时段划分规则。
优选的,S204:基于时段体动数据确定出当前体动频率,包括:
对时段体动数据中每种体动数据类型对应的体动数据进行周期性规律分析,确定出每种体动数据类型的体动周期;
将所有体动数据类型的体动周期的最小公倍数,当作综合体动周期;
并将综合体动周期的倒数,当作当前体动频率。
优选的,对时段体动数据中每种体动数据类型对应的体动数据进行周期性规律分析,确定出每种体动数据类型的体动周期,包括:
基于时段体动数据中每种体动数据类型对应的体动数据,生成对应体动数据类型的体动数据曲线;
在体动数据曲线中与当前体动数据峰值相邻的体动数据谷值中筛选出与当前体动数据峰值的绝对值差值最小的体动数据谷值,当作当前体动数据峰值的同周期摆动值;
基于每种体动数据曲线中所有体动数据峰值和对应的同周期摆动值,确定出每种体动数据类型的体动周期。
优选的,每种体动数据曲线中所有体动数据峰值和对应的同周期摆动值,确定出每种体动数据类型的体动周期,包括:
将每种体动数据曲线中每个体动数据峰值和对应的同周期摆动值之间的时段,当作当前体动数据类型的固定周期时段;
将体动数据曲线的总持续时段中除固定周期时段以外剩余的时段,当作当前体动数据类型的非固定周期时段,并基于预设时间偏差表,在每个非固定周期时段的中位点对应的时段附近确定多个第一划分点;
基于预设时间偏差表中每个预设时间偏差对应的第一划分点对体动数据曲线的总持续时段进行划分,获得当前体动数据类型的多个第一划分周期;
计算出每个预设时间偏差对应的所有第一划分周期的规律程度,并将最大规律程度对应的所有第一划分周期,当作当前体动数据类型的体动周期。
优选的,S3:对海量包括单个时段的体动频率和每种情绪指标的主要情绪指数,以及用户标定情绪指数的记录实例进行深度学习,获得每种情绪指标的最终指数识别模型,包括:
将记录实例中的单哥时段的体动频率和当前情绪指标的主要情绪指数,当作模型输入量;
将当前情绪指标在对应记录实例中的用户标定情绪指标,当作模型输出量;
基于海量记录实例中的模型输入量和模型输出量,进行模型训练,获得当前情绪指标的最终指数识别模型。
本发明区别于现有技术的有益效果为:基于手环感应的基础生理数据和基于深度学习构建除的主要指数识别模型确定出每种情绪指标的主要情绪指数,即实现对基础数据的周期性分析以及对情绪进行分指标分析,并进一步地,对佩戴者的体动数据进行分时段分析并确定体动频率,将体动频率作为其不同情绪指标的最终指数的辅助决策变量,结合前述步骤确定出的主要情绪指数以及基于深度学习构建出的最终指数识别模型,即将体动数据作为影响变量引入情绪识别的决策变量,并结合深度学习技术,大大提高了对佩戴者的情绪识别的精准度。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中的一种基于深度学习的手环情绪识别方法流程图;
图2为本发明实施例中基于深度学习的手环情绪识别方法流程图;
图3为本发明实施例中的基于深度学习的手环情绪识别方法流程图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1:
本发明提供了一种基于深度学习的手环情绪识别方法,参考图1,包括:
S1:基于智能手环周期感应的当前佩戴者的周期基础生理数据(以及以周期为获取时间单位获取的当前佩戴者的基础生理数据,基础生理数据例如有:心率、脑电波)和每种情绪指标(与情绪状态评估有关的指标,例如心情指数、压力指数、疲劳指数等)的主要指数识别模型(即为基于深度学习算法搭建的用于基于输入的周期基础生理数据确定出对应情绪指标的主要情绪指数),确定出每种情绪指标的主要情绪指数(即为基于基础生理数据评估出的当前佩戴者在当前周期中的情绪状态的对应情绪指标的具体评估数值);
上述步骤S1基于手环感应的基础生理数据和基于深度学习构建除的主要指数识别模型确定出每种情绪指标的主要情绪指数,即实现对基础数据的周期性分析以及对情绪进行分指标分析;
S2:对智能手环最新感应的当前佩戴者的当日体动数据(即为基于加速度传感器或重力加速度传感器监测获得的佩戴者在当前单日内的手臂振动速度,振幅等数据)进行时段归属确定(即确定当前时刻属于佩戴者的体动时段还是非体动时段(例如常规的睡眠时段)),获得当前所属时段(包括体动时段、非体动时段两种)的时段体动数据(即今天所在的单日内当前所属时段的开始时刻至当前时刻内的体动数据),并基于时段体动数据确定出当前体动频率(即为手臂振动频率);
上述步骤S2对佩戴者的体动数据进行分时段分析并确定出了体动频率;
S3:对海量(例如1万个)包括单个时段(即体动时段或非体动时段)的体动频率和每种情绪指标的主要情绪指数,以及用户标定情绪指数的记录实例进行深度学习,获得每种情绪指标的最终指数识别模型(基于基于深度学习算法搭建出的可以基于输入的单哥时段的体动频率和对应种类的情绪指标的主要情绪指数确定出对应种类的情绪指标的最终情绪指数的模型);
S4:将当前所属时段的当前体动频率和每种情绪指标的主要情绪指数,输入至每种情绪指标的最终指数识别模型,确定出每种情绪指标的最终情绪指数(基于基于佩戴者的周期基础生理数据和单时段体动数据,评估出的表征佩戴者的情绪状态的对应种类情绪指标的最终评估数值);
上述步骤S3和S4将体动频率作为其不同情绪指标的最终指数的辅助决策变量,结合前述步骤确定出的主要情绪指数以及基于深度学习构建出的最终指数识别模型,即将体动数据作为影响变量引入情绪识别的决策变量,并结合深度学习技术,大大提高了对佩戴者的情绪识别的精准度。
实施例2:
在实施例1的基础上,S1:基于智能手环周期感应的当前佩戴者的周期基础生理数据和每种情绪指标的主要指数识别模型,确定出每种情绪指标的主要情绪指数,参考图2,包括:
S101:基于大量包含历史周期基础生理数据(即为曾经获取的佩戴者的周期基础生理数据)和单种情绪指标的历史主要情绪指数(即为基于现有的基于基础生理数据进行情绪识别获得的情绪评估指数的方法确定出的历史周期基础生理数据对应的情绪评估指数)的历史情绪识别实例(即为包含历史基础生理数据和历史主要情绪指数的记录实例),训练获得每种情绪指标的主要指数识别模型;
S102:将基于智能手环在最新周期感应获得的当前佩戴者的周期基础生理数据,输入至主要指数识别模型,获得每种情绪指标的主要情绪指数;
基于上述过程实现了基于深度学习算法对大量历史情绪识别实例进行深度学习,搭建出可精准确定出主要情绪指数的主要指数识别模型,并基于智能手环在最新周期感应获得的周期基础生理数据,确定出佩戴者当下的每种情绪指标的主要情绪指数。
实施例3:
在实施例1的基础上,S2:对智能手环最新感应的当前佩戴者的当日体动数据进行时段归属确定,获得当前所属时段的时段体动数据,并基于时段体动数据确定出当前体动频率,参考图3,包括:
S201:对智能手环感应获得的当前佩戴者的所有单日历史体动数据进(即为记录有佩戴者在以前的单日体动数据)行时段特征分析(即为基于体动数据的波动特征和数值高低确定出体动时段或非体动时段的过程),获得当前佩戴者的体动时段划分规则(包含单日内完整体动时段的开始时刻和终止时刻以及非体动时段的开始时刻的终止时刻);
S202:基于当前佩戴者的体动时段划分规则,确定出当前所属时段;
S203:在智能手环最新感应的当前佩戴者的当日体动数据中,划分出当前所属时段的时段体动数据(即为将当前所属时段在当日体动数据中对应的部分体动数据);
S204:基于时段体动数据确定出当前体动频率;
基于上述过程实现了通过对单日历史体动数据进行时段特征分析确定出体动时段划分规则,并确定出当前所属时段,并进一步确定出体动频率,实现对当日体动数据的时段划分和体动频率的确定。
实施例4:
在实施例3的基础上,S201:对智能手环感应获得的当前佩戴者的所有单日历史体动数据进行时段特征分析,获得当前佩戴者的体动时段划分规则,包括:
对智能手环感应获得的当前佩戴者的所有单日历史体动数据进行类型划分(例如行走、跑步、跳操、游泳等),获得每种体动类型对应的所有单日历史数据(即单种体动类型在单日内的记录数据,例如:佩戴者在单日内行走时的手臂振动速度和手臂振幅);
基于每种体动类型的体动活跃数据最小阈值(即为用于在每种体动类型的单日历史数据中标定出活跃时段的体动数据阈值,可能包括不止一个,与体动数据的种类的个数对应例如:佩戴者在游泳时的最最小手臂振幅和最小手臂振动速度),在每种体动类型的所有单日历史数据中标定出每种体动类型的活跃时段(即为单日历史数据中同时满足体动活跃数据最小阈值的时段);
基于每种体动类型的所有活跃时段,确定出当前佩戴者的每种体动类型的有效活跃时段(即为基于不同种类的体动类型的所有活跃时段在时段上的关联性进行不断删除去噪后获得的剩余时段);
基于所有体动类型的所有有效活跃时段,确定出当前佩戴者的体动时段划分规则;
基于上述步骤,通过对佩戴者的单日历史体动数据进行不同体动类型的划分分析,确定出不同体动类型的活跃时段,并基于所有体动类型的活跃时确定出有效时段,并进一步确定出体动时段划分谷子额,实现了对佩戴者的个人活动时间规律的有效分析。
实施例5:
在实施例4的基础上,基于每种体动类型的所有活跃时段,确定出当前佩戴者的每种体动类型的有效活跃时段,包括:
基于每种体动类型的所有活跃时段的起始时刻,生成每种体动类型得出起始时刻序列(即为将体动类型的所有活跃时段的起始时刻按照活跃时段的获取时间从前到后的顺序进行排序后获得的序列),同时,基于每种体动类型的所有活跃时段的终止时刻,生成每种体动类型的终止时刻序列(即为将体动类型的所有活跃时段的终止时刻按照活跃时段的获取时间从前到后的顺序进行排序后获得的序列);
基于所有体动类型的起始时刻序列和终止时刻序列,计算出每两种体动类型之间的活跃时段关联度(即为表征两种体动类型的活跃时段在时序上的关联程度的数值),包括:
将两种体动类型的起始时刻序列(终止时刻序列)中所有排序序数相同的起始时刻(终止时刻)的差值与该两个排序序数相同的起始时刻(终止时刻)的均值的比值的均值,当作两种体动类型的起始时刻序列(终止时刻序列)的非关联度;
将1与两种体动类型的起始时刻序列的非关联度的差值、1与两种体动类型的终止时刻序列的非关联度的差值的均值,当作两种体动类型之间的活跃时段关联度;
计算出每个活跃时段在对应体动类型的所有活跃时段中的时段集中度(即为表征单个活跃时段与对应体动类型的所有活跃时段在时序上的关联程度的数值),包括:
将当前活跃时段的起始时刻与对应体动类型的其他活跃时段的起始时刻的差值与当前活跃时段的起始时刻与对应体动类型的其他活跃时段的起始时刻的均值的比值,当作该两个活跃时段的非关联度;
将1与非关联度的差值当作关联度,将当前活跃时段与对应体动类型的所有其他活跃时段之间的关联度的均值,当作时段集中度;
并将体动类型的所有活跃时段中最小时段集中度的活跃时段删除,并基于剩余的活跃时段生成新的起始时刻序列和终止时刻序列,并基于新的起始时刻序列和终止时刻序列,计算出对应两种体动类型之间的新的活跃时段关联度,直至新的活跃时段关联度和预设时段关联度的差值出现极小值时,则将体动类型的当前剩余的所有活跃时段,当作当前佩戴者的对应种类的体动类型的有效活跃时段;
基于上述步骤实现了从不同体动类型的活跃时段在时段上的关联程度,以及相同体动类型的所有活跃时段在时段上的关联程度的,实现对单种体动类型的活跃时段的有效性筛选,是的筛选出的有效活跃时段符合体动类型的普遍时段规律,更具代表性。
实施例6:
在实施例4的基础上,基于所有体动类型的所有有效活跃时段,确定出当前佩戴者的体动时段划分规则,包括:
将每个体动类型的所有有效活跃时段的交集,当作每个体动类型的集中活跃时段(即为佩戴者执行单种体动类型的运动时的集中时段);
将从所有体动类型的集中活跃时段的起始时刻中的最小起始时刻,至所有体动类型的集中活跃时段的终止时刻中的最大终止时刻为止的时段,当作当前佩戴者的完整体动时段,并将单日中除完整体动时段以外剩余的所有时段当作非体动时段;
将完整体动时段(即为佩戴者进行体动运动时的常规的总的持续时段)和非体动时段(即为单日内佩戴者不进行体动运动的持续时段,例如睡眠时段),当作当前佩戴者的体动时段划分规则;
基于上述步骤实现了基于佩戴者的所有体动类型的有效活跃时段实现对佩戴者的完整体动时段和非体动时段的合理精确划分。
实施例7:
在实施例3的基础上,S204:基于时段体动数据确定出当前体动频率,包括:
对时段体动数据中每种体动数据类型(例如手臂振动速度、手臂振幅)对应的体动数据进行周期性规律分析(实现对每种体动数据类型的周期分析),确定出每种体动数据类型的体动周期(即体动数据类型的体动数据的波动情况遵循的周期);
将所有体动数据类型的体动周期的最小公倍数,当作综合体动周期;
通过取同种体动类型的所有体动数据类型的体动周期的最小公倍数,使得确定出的对应体动类型的综合体动周期同时满足每种体动数据类型的周期性规律;
并将综合体动周期的倒数,当作当前体动频率;
上述步骤通过对体动数据进行分数据类型的周期分析,并基于所有数据类型的周期,确定出单种体动类型的数据波动周期。
实施例8:
在实施例7的基础上,对时段体动数据中每种体动数据类型对应的体动数据进行周期性规律分析,确定出每种体动数据类型的体动周期,包括:
基于时段体动数据中每种体动数据类型对应的体动数据(例如手臂振动速度随时间变化的数据),生成对应体动数据类型的体动数据曲线(即为表征对应体动数据类型的体动数值随时间变化的曲线);
在体动数据曲线中与当前体动数据峰值(即为体动数据曲线中的数值峰值)相邻的体动数据谷值(即为体动数据曲线中的数值谷值)中筛选出与当前体动数据峰值的绝对值差值(即为当前体动数据峰值的绝对值和体动数据谷值的绝对值的差值)最小的体动数据谷值,当作当前体动数据峰值的同周期摆动值(即为与当前体动数据峰值属于同一个手臂振动周期的体动数据谷值);
基于每种体动数据曲线中所有体动数据峰值和对应的同周期摆动值,确定出每种体动数据类型的体动周期;
上述步骤通过对单种体动数据类型的体动数据的曲线表示中的峰谷值的体动数值的分析比较,实现体动数据峰值和体动数据谷值的同周期划分,并基于该同周期划分结果,实现对对饮个体动数据类型的体动周期的划分。
实施例9:
在实施例8的基础上,基于每种体动数据曲线中所有体动数据峰值和对应的同周期摆动值,确定出每种体动数据类型的体动周期,包括:
将每种体动数据曲线中每个体动数据峰值和对应的同周期摆动值之间的时段,当作当前体动数据类型的固定周期时段(即为属于同一体动周期的时段);
将体动数据曲线的总持续时段中除固定周期时段以外剩余的时段,当作当前体动数据类型的非固定周期时段(即为其中包含两个体动周期的部分时段),并基于预设时间偏差表(即为包含不同的时间偏差的列表),在每个非固定周期时段的中位点(即诶非固定周期时段的起始时刻和终止时刻的均值)对应的时段附近确定多个第一划分点(第一划分点与对应中位点的时间偏差为预设时间偏差表中的时间偏差,且第一划分点的总数与预设时间偏差表中的时间偏差总数一致);
基于预设时间偏差表中每个预设时间偏差对应的第一划分点对体动数据曲线的总持续时段(即为从体动数据曲线的起始时刻至终止时刻为止的时段)进行划分,获得当前体动数据类型的多个第一划分周期(即为由单个预设时间偏差对应的所有第一划分点对体动数据曲线的总持续时段进行划分后获得的周期);
计算出每个预设时间偏差对应的所有第一划分周期的规律程度,包括:
基于预设时间间隔在所有第一划分周期中确定出多个数值点,并计算出所有第一划分周期中序数相同的数值点的均值与对应序数的所有数值点的最小差值和最大差值之间的差值与对应均值的比值,当作不规律程度;
并将1与不规律程度的差值当作所有第一划分周期的规律程度。
并将最大规律程度对应的所有第一划分周期,当作当前体动数据类型的体动周期;
基于上述步骤实现了基于非固定周期中以预设时间偏差确定出的划分点划分出不同的划分周期,并通过计算同一预设时间偏差的所有划分周期的规律程度,确定出不同划分方式的筛选依据,使得最终确定出的体动周期具有最大程度的普遍规律性。
实施例10:
在实施例1的基础上,S3:对海量包括单个时段的体动频率和每种情绪指标的主要情绪指数,以及用户标定情绪指数的记录实例进行深度学习,获得每种情绪指标的最终指数识别模型,包括:
将记录实例中的单哥时段的体动频率和当前情绪指标的主要情绪指数,当作模型输入量;
将当前情绪指标在对应记录实例中的用户标定情绪指标,当作模型输出量;
基于海量记录实例中的模型输入量和模型输出量,进行模型训练(即为将模型输入量和模型输出量当作神经网络模型的输入量和输出量进行模型训练迭代),获得当前情绪指标的最终指数识别模型。
基于上述步骤实现了基于深度学习算法和大量的记录实例,训练出了每种情绪指标的最终指数识别模型。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (6)
1.一种基于深度学习的手环情绪识别方法,其特征在于,包括:
S1:基于智能手环周期感应的当前佩戴者的周期基础生理数据和每种情绪指标的主要指数识别模型,确定出每种情绪指标的主要情绪指数;
S2:对智能手环最新感应的当前佩戴者的当日体动数据进行时段归属确定,获得当前所属时段的时段体动数据,并基于时段体动数据确定出当前体动频率;
S3:对海量包括单个时段的体动频率和每种情绪指标的主要情绪指数,以及用户标定情绪指数的记录实例进行深度学习,获得每种情绪指标的最终指数识别模型;
S4:将当前所属时段的当前体动频率和每种情绪指标的主要情绪指数,输入至每种情绪指标的最终指数识别模型,确定出每种情绪指标的最终情绪指数;
其中,S2:对智能手环最新感应的当前佩戴者的当日体动数据进行时段归属确定,获得当前所属时段的时段体动数据,并基于时段体动数据确定出当前体动频率,包括:
S201:对智能手环感应获得的当前佩戴者的所有单日历史体动数据进行时段特征分析,获得当前佩戴者的体动时段划分规则;
S202:基于当前佩戴者的体动时段划分规则,确定出当前所属时段;
S203:在智能手环最新感应的当前佩戴者的当日体动数据中,划分出当前所属时段的时段体动数据;
S204:基于时段体动数据确定出当前体动频率;
其中,S201:对智能手环感应获得的当前佩戴者的所有单日历史体动数据进行时段特征分析,获得当前佩戴者的体动时段划分规则,包括:
对智能手环感应获得的当前佩戴者的所有单日历史体动数据进行类型划分,获得每种体动类型对应的所有单日历史数据;
基于每种体动类型的体动活跃数据最小阈值,在每种体动类型的所有单日历史数据中标定出每种体动类型的活跃时段;
基于每种体动类型的所有活跃时段,确定出当前佩戴者的每种体动类型的有效活跃时段;
基于所有体动类型的所有有效活跃时段,确定出当前佩戴者的体动时段划分规则;
其中,基于每种体动类型的所有活跃时段,确定出当前佩戴者的每种体动类型的有效活跃时段,包括:
基于每种体动类型的所有活跃时段的起始时刻,生成每种体动类型的起始时刻序列,同时,基于每种体动类型的所有活跃时段的终止时刻,生成每种体动类型的终止时刻序列;
基于所有体动类型的起始时刻序列和终止时刻序列,计算出每两种体动类型之间的活跃时段关联度;
其中,活跃时段关联度为表征两种体动类型的活跃时段在时序上的关联程度的数值;
计算出每个活跃时段在对应体动类型的所有活跃时段中的时段集中度,并将体动类型的所有活跃时段中最小时段集中度的活跃时段删除,并基于剩余的活跃时段生成新的起始时刻序列和终止时刻序列,并基于新的起始时刻序列和终止时刻序列,计算出对应两种体动类型之间的新的活跃时段关联度,直至新的活跃时段关联度和预设时段关联度的差值出现极小值时,则将体动类型的当前剩余的所有活跃时段,当作当前佩戴者的对应种类的体动类型的有效活跃时段;
其中,时段集中度为表征单个活跃时段与对应体动类型的所有活跃时段在时序上的关联程度的数值。
2.根据权利要求1所述的基于深度学习的手环情绪识别方法,其特征在于,S1:基于智能手环周期感应的当前佩戴者的周期基础生理数据和每种情绪指标的主要指数识别模型,确定出每种情绪指标的主要情绪指数,包括:
S101:基于大量包含历史周期基础生理数据和单种情绪指标的历史主要情绪指数的历史情绪识别实例,训练获得每种情绪指标的主要指数识别模型;
S102:将基于智能手环在最新周期感应获得的当前佩戴者的周期基础生理数据,输入至主要指数识别模型,获得每种情绪指标的主要情绪指数。
3.根据权利要求1所述的基于深度学习的手环情绪识别方法,其特征在于,S204:基于时段体动数据确定出当前体动频率,包括:
对时段体动数据中每种体动数据类型对应的体动数据进行周期性规律分析,确定出每种体动数据类型的体动周期;
将所有体动数据类型的体动周期的最小公倍数,当作综合体动周期;
并将综合体动周期的倒数,当作当前体动频率。
4.根据权利要求3所述的基于深度学习的手环情绪识别方法,其特征在于,对时段体动数据中每种体动数据类型对应的体动数据进行周期性规律分析,确定出每种体动数据类型的体动周期,包括:
基于时段体动数据中每种体动数据类型对应的体动数据,生成对应体动数据类型的体动数据曲线;
在体动数据曲线中与当前体动数据峰值相邻的体动数据谷值中筛选出与当前体动数据峰值的绝对值差值最小的体动数据谷值,当作当前体动数据峰值的同周期摆动值;
基于每种体动数据曲线中所有体动数据峰值和对应的同周期摆动值,确定出每种体动数据类型的体动周期。
5.根据权利要求4所述的基于深度学习的手环情绪识别方法,其特征在于,基于每种体动数据曲线中所有体动数据峰值和对应的同周期摆动值,确定出每种体动数据类型的体动周期,包括:
将每种体动数据曲线中每个体动数据峰值和对应的同周期摆动值之间的时段,当作当前体动数据类型的固定周期时段;
其中,固定周期时段为属于同一体动周期的时段;
将体动数据曲线的总持续时段中除固定周期时段以外剩余的时段,当作当前体动数据类型的非固定周期时段,并基于预设时间偏差表,在每个非固定周期时段的中位点对应的时段附近确定多个第一划分点;
其中,非固定周期时段为其中包含两个体动周期的部分时段;
基于预设时间偏差表中每个预设时间偏差对应的第一划分点对体动数据曲线的总持续时段进行划分,获得当前体动数据类型的多个第一划分周期;
计算出每个预设时间偏差对应的所有第一划分周期的规律程度,并将最大规律程度对应的所有第一划分周期,当作当前体动数据类型的体动周期。
6.根据权利要求1所述的基于深度学习的手环情绪识别方法,其特征在于,S3:对海量包括单个时段的体动频率和每种情绪指标的主要情绪指数,以及用户标定情绪指数的记录实例进行深度学习,获得每种情绪指标的最终指数识别模型,包括:
将记录实例中的单个时段的体动频率和当前情绪指标的主要情绪指数,当作模型输入量;
将当前情绪指标在对应记录实例中的用户标定情绪指标,当作模型输出量;
基于海量记录实例中的模型输入量和模型输出量,进行模型训练,获得当前情绪指标的最终指数识别模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311006396.6A CN116725538B (zh) | 2023-08-11 | 2023-08-11 | 一种基于深度学习的手环情绪识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311006396.6A CN116725538B (zh) | 2023-08-11 | 2023-08-11 | 一种基于深度学习的手环情绪识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116725538A CN116725538A (zh) | 2023-09-12 |
CN116725538B true CN116725538B (zh) | 2023-10-27 |
Family
ID=87917201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311006396.6A Active CN116725538B (zh) | 2023-08-11 | 2023-08-11 | 一种基于深度学习的手环情绪识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116725538B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105045234A (zh) * | 2015-07-10 | 2015-11-11 | 西安交通大学 | 基于智能可穿戴设备行为感知的智能家庭能源管理方法 |
CN105496416A (zh) * | 2015-12-28 | 2016-04-20 | 歌尔声学股份有限公司 | 一种人体运动状态的识别方法和装置 |
CN106778575A (zh) * | 2016-12-06 | 2017-05-31 | 山东瀚岳智能科技股份有限公司 | 一种基于可穿戴设备的学生学习状态的识别方法与系统 |
CN109416729A (zh) * | 2016-04-18 | 2019-03-01 | 麻省理工学院 | 从生理信号提取特征 |
JP2019069004A (ja) * | 2017-10-10 | 2019-05-09 | パナソニックIpマネジメント株式会社 | 体動分析システム、体動分析方法及びプログラム |
CN110717542A (zh) * | 2019-10-12 | 2020-01-21 | 广东电网有限责任公司 | 一种情绪识别方法、装置和设备 |
CN112515675A (zh) * | 2020-12-14 | 2021-03-19 | 西安理工大学 | 一种基于智能可穿戴设备的情绪分析方法 |
CN114098729A (zh) * | 2020-08-27 | 2022-03-01 | 北京晶栈信息技术有限公司 | 基于心脏间期的情绪状态客观测量方法 |
CN115131876A (zh) * | 2022-07-13 | 2022-09-30 | 中国科学技术大学 | 一种基于人体运动步态和姿态的情绪识别方法及系统 |
CN115120236A (zh) * | 2022-04-28 | 2022-09-30 | 广东小天才科技有限公司 | 情绪识别方法、装置、可穿戴设备及存储介质 |
CN115153552A (zh) * | 2022-07-21 | 2022-10-11 | 中国医学科学院生物医学工程研究所 | 情绪状态评估方法、装置、电子设备及存储介质 |
CN115316991A (zh) * | 2022-01-06 | 2022-11-11 | 中国科学院心理研究所 | 一种激惹情绪的自适应识别预警方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210015417A1 (en) * | 2018-03-21 | 2021-01-21 | Limbic Limited | Emotion data training method and system |
-
2023
- 2023-08-11 CN CN202311006396.6A patent/CN116725538B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105045234A (zh) * | 2015-07-10 | 2015-11-11 | 西安交通大学 | 基于智能可穿戴设备行为感知的智能家庭能源管理方法 |
CN105496416A (zh) * | 2015-12-28 | 2016-04-20 | 歌尔声学股份有限公司 | 一种人体运动状态的识别方法和装置 |
CN109416729A (zh) * | 2016-04-18 | 2019-03-01 | 麻省理工学院 | 从生理信号提取特征 |
CN106778575A (zh) * | 2016-12-06 | 2017-05-31 | 山东瀚岳智能科技股份有限公司 | 一种基于可穿戴设备的学生学习状态的识别方法与系统 |
JP2019069004A (ja) * | 2017-10-10 | 2019-05-09 | パナソニックIpマネジメント株式会社 | 体動分析システム、体動分析方法及びプログラム |
CN110717542A (zh) * | 2019-10-12 | 2020-01-21 | 广东电网有限责任公司 | 一种情绪识别方法、装置和设备 |
CN114098729A (zh) * | 2020-08-27 | 2022-03-01 | 北京晶栈信息技术有限公司 | 基于心脏间期的情绪状态客观测量方法 |
CN112515675A (zh) * | 2020-12-14 | 2021-03-19 | 西安理工大学 | 一种基于智能可穿戴设备的情绪分析方法 |
CN115316991A (zh) * | 2022-01-06 | 2022-11-11 | 中国科学院心理研究所 | 一种激惹情绪的自适应识别预警方法 |
CN115120236A (zh) * | 2022-04-28 | 2022-09-30 | 广东小天才科技有限公司 | 情绪识别方法、装置、可穿戴设备及存储介质 |
CN115131876A (zh) * | 2022-07-13 | 2022-09-30 | 中国科学技术大学 | 一种基于人体运动步态和姿态的情绪识别方法及系统 |
CN115153552A (zh) * | 2022-07-21 | 2022-10-11 | 中国医学科学院生物医学工程研究所 | 情绪状态评估方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116725538A (zh) | 2023-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200237262A1 (en) | Activity recognition | |
Zenonos et al. | HealthyOffice: Mood recognition at work using smartphones and wearable sensors | |
CN106956271B (zh) | 预测情感状态的方法和机器人 | |
CN110363090B (zh) | 智能心脏疾病检测方法、装置及计算机可读存储介质 | |
CN110604565A (zh) | 一种基于便携式eeg设备的脑部健康筛查方法 | |
CN109568760A (zh) | 一种睡眠环境调节方法及系统 | |
JPWO2011070831A1 (ja) | 生活パターン分類装置及び生活パターン分類システム | |
CN106934199A (zh) | 一种心理压力评估方法及装置 | |
Calero et al. | Embedded emotion recognition within cyber-physical systems using physiological signals | |
CN112057066A (zh) | 心率的检测方法、可穿戴设备及计算机存储介质 | |
Khatun et al. | Human activity recognition using smartphone sensor based on selective classifiers | |
Zhao et al. | MobiGesture: Mobility-aware hand gesture recognition for healthcare | |
CN114224343B (zh) | 认知障碍检测方法、装置、设备及存储介质 | |
CN112370058A (zh) | 一种基于移动端对用户的情感进行识别与监测方法 | |
CN116725538B (zh) | 一种基于深度学习的手环情绪识别方法 | |
US20230200697A1 (en) | Automatic evolution method for brainwave database and automatic evolving system for detecting brainwave | |
US20230329587A1 (en) | System And Method For Assessing Neuro Muscular Disorder By Generating Biomarkers From The Analysis Of Gait | |
US20240090827A1 (en) | Methods and Systems for Improving Measurement of Sleep Data by Classifying Users Based on Sleeper Type | |
CN116227602A (zh) | 基于人在回路的模型无关可解释方法及可解释框架 | |
KR102373496B1 (ko) | 스마트밴드 생체정보 기반 우울도 예측 모델 생성 시스템 및 방법 | |
Konsolakis | Physical activity recognition using wearable accelerometers in controlled and free-living environments | |
CN113616466A (zh) | 按摩方式生成方法、装置、电子设备和存储介质 | |
Mekruksavanich et al. | A Hybrid Deep Neural Network with Attention Mechanism for Human Activity Recognition Based on Smartphone Sensors | |
US20230210503A1 (en) | Systems and Methods for Generating Menstrual Cycle Cohorts and Classifying Users into a Cohort | |
Kim et al. | TraM: Enhancing User Sleep Prediction with Transformer-based Multivariate Time Series Modeling and Machine Learning Ensembles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |