CN114098729B - 基于心脏间期的情绪状态客观测量方法 - Google Patents
基于心脏间期的情绪状态客观测量方法 Download PDFInfo
- Publication number
- CN114098729B CN114098729B CN202010881177.2A CN202010881177A CN114098729B CN 114098729 B CN114098729 B CN 114098729B CN 202010881177 A CN202010881177 A CN 202010881177A CN 114098729 B CN114098729 B CN 114098729B
- Authority
- CN
- China
- Prior art keywords
- data
- emotion
- basic data
- unified format
- activity index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 214
- 238000000691 measurement method Methods 0.000 title abstract description 9
- 230000000694 effects Effects 0.000 claims abstract description 48
- 230000002889 sympathetic effect Effects 0.000 claims abstract description 30
- 210000005037 parasympathetic nerve Anatomy 0.000 claims abstract description 29
- 210000005036 nerve Anatomy 0.000 claims abstract description 27
- 238000000034 method Methods 0.000 claims description 49
- 238000012360 testing method Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 28
- 238000012795 verification Methods 0.000 claims description 28
- 230000002996 emotional effect Effects 0.000 claims description 26
- 230000001537 neural effect Effects 0.000 claims description 26
- 230000005284 excitation Effects 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 238000003066 decision tree Methods 0.000 claims description 12
- 230000000747 cardiac effect Effects 0.000 claims description 11
- 238000011010 flushing procedure Methods 0.000 claims description 9
- 230000001734 parasympathetic effect Effects 0.000 claims description 7
- 238000010801 machine learning Methods 0.000 claims description 6
- 239000000463 material Substances 0.000 claims description 5
- 230000000948 sympatholitic effect Effects 0.000 claims 4
- 230000008035 nerve activity Effects 0.000 abstract description 8
- 230000037007 arousal Effects 0.000 description 18
- 238000011156 evaluation Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000003203 everyday effect Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000036651 mood Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000013019 agitation Methods 0.000 description 2
- 230000002354 daily effect Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000241 respiratory effect Effects 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 208000001431 Psychomotor Agitation Diseases 0.000 description 1
- 206010038743 Restlessness Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002610 neuroimaging Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Psychiatry (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Artificial Intelligence (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Physiology (AREA)
- Social Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Psychology (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于心脏间期的情绪状态客观测量方法,该方法中根据收集的心脏搏动间期模拟交感神经和副交感神经活动,并利用回归系数提取交感神经的活动指标和副交感神经的活动指标,从而消除了噪音和极端值的影响,再通过参与者提供的情绪唤醒状况和情绪效价状况组成二维情绪标签,进而结合综合神经活动指标建立情绪预测模型,从而根据后续输出的心脏搏动间期得到对应的情绪状态。
Description
技术领域
本发明涉及应用心理学中的情绪测量,具体涉及一种基于心脏间期的情绪状态客观测量方法。
背景技术
在应用心理学中,关于情绪测量的研究一直是比较重要的一个项目,目前已有的相关技术为基于心率变异性(Heart Rate Variability,HRV)的情绪探测技术。该技术利用心电传感器或脉搏传感器获取心脏波动间期(R-R间期)利用一段时间内(通常为60秒-1小时)的R-R间期长度的变异性(如R-R间期方差、均方根、经傅里叶变换后的高-中-低频)指标拟合个体的情绪状态。其测量的情绪状态一般为“心理紧张程度”或“挫败感强度”。其实质是对人的交感神经-副交感神经活动性的测量。但利用HRV测量情绪在本领域的有效性一直饱受质疑,因为HRV并不能很好地反映交感-副交感神经活动性,其所表达出的结果常常缺乏区分力或非常失真。
该技术中较具代表性的为Plarre等人2011年的成果(Plarre et al.,2011),其首次较为深入地使用机器学习算法(支持向量机等)利用大量HRV参数结合其他指标(皮肤电、呼吸节律)建模并得出情绪状态预测,期预测结果为一个比较粗略的二分指标,即紧张/不紧张。作者也在文献中承认,纯粹利用HRV数据建模区分情绪状态非常困难,他们较意外地发现呼吸节律指标,并最终加入到模型中,方才得到较高的模型判别准确率。
此类技术有如下几个技术限制,其一为:均采用HRV参数作为机器学习特征,但HRV的不可靠性是一个客观问题,尽管技术人员采用了大量技术(如多模型组合、高级特征工程),但其模型始终存在较大浮动,因此不可能得出特别精确的情绪估计,无论是2种还是4种情绪分类,每个分类所跨越的范围都是很大的,根据常识,人的情绪状态差异可以实细致入微的,远非2-4个区间可以概括;其二为,HRV技术得到的数据时间颗粒度非常大,如前述,最快速的兼测也需要60秒左右的时间。
另外,现有技术测量得到的数据是单一维度的,即紧张程度,也有些研究中称的“受挫折”(frustrated)程度,这些在心理学领域统称为情绪的唤醒程度(即从沉静到激越之间变化的维度),然而情绪不仅仅只有这一个维度,情绪效价(即情绪的积极-消极维度的性质)也是很重要的判别指标,失去了情绪的积极和消极判定,情绪判别是不完整的。如同样为非常激越的状态,可以有暴怒(消极)和狂喜(积极)两种极端,同为非常沉静的状态,也可以有绝望(消极)和安详两种非常不同的状态。
由于上述原因,本发明人对现有的情绪测量方法进行了深入研究,以期待设计出一种能够解决上述问题的新的情绪状态客观测量方法。
发明内容
为了克服上述问题,本发明人进行了锐意研究,设计出一种基于心脏间期的情绪状态客观测量方法,该方法中根据收集的心脏搏动间期模拟交感神经和副交感神经活动,并利用回归系数提取交感神经的活动指标和副交感神经的活动指标,从而消除了噪音和极端值的影响,再通过参与者提供的情绪唤醒状况和情绪效价状况组成二维情绪标签,进而结合综合神经活动指标建立情绪预测模型,从而根据后续输出的心脏搏动间期得到对应的情绪状态,从而完成本发明。
具体来说,本发明的目的在于提供一种基于心脏/脉搏间期的情绪状态客观测量方法,该方法包括:
收集生理数据和情绪标签,据此获得预测模型;
再收集生理数据,代入到该预测模型中,获得情绪激越程度和情绪效价。
其中,其特征在于,获得所述预测模型的过程包括如下步骤:
步骤1,通过收集设备收集生理数据,所述生理数据包括心脏搏动间期,并将该生理数据转换为交感神经的活动指标和副交感神经的活动指标;
步骤2,设置情绪唤醒标签和情绪效价标签,在情绪唤醒标签中记录具体的情绪激越程度,在情绪效价标签中记录具体的情绪效价,将综合神经活动指标数据与情绪标签组合为基础数据;
步骤3,调整该基础数据的格式得到统一格式的基础数据,判断该统一格式的基础数据是否符合要求;
步骤4,从符合要求的统一格式的基础数据中选取可用数据;
步骤5,根据步骤4中的可用数据获得预测模型。
其中,在得到预测模型后,
通过收集设备收集的心脏搏动间期,将其转换为交感神经的活动指标和副交感神经的活动指标,并输入到所述预测模型中,得到对应的情绪激越程度和情绪效价。
其中,所述收集设备包括可穿戴手环和智能手表。
其中,每个综合神经活动指标包扩下述数据中的一种或多种:交感神经的活动指标、副交感神经的活动指标、交感神经的活动指标与副交感神经的活动指标之商、交感神经的活动指标与副交感神经的活动指标之和、交感神经的活动指标与副交感神经的活动指标之差。
其中,步骤3中判断统一格式的基础数据是否符合要求包括如下子步骤:
子步骤1,将所有统一格式的基础数据随机地按照预定比例分学习组和检验组,
子步骤2,利用学习组中的数据冲刷模型,再用检验组中的每个数据逐一验证该模型,并分别记录检验组中每个数据的验证结果;
子步骤3,重复子步骤1和子步骤2,其中,曾经被分配到检验组中的统一格式的基础数据不再被分配到检验组中,确保每个统一格式的基础数据都曾在检验组中对被学习组中数据冲刷过的模型做过验证,直至获得所有统一格式的基础数据对应的验证结果;
子步骤4,解算所有统一格式的基础数据验证结果的总通过率,当总通过率大于70%时,所述统一格式的基础数据符合要求,否则删除所述统一格式的基础数据,重复步骤1和步骤2。
其中,步骤4中得到可用数据包括如下子步骤:
子步骤a,多次重复子步骤1-3,每次重复子步骤1时都得到由不同的统一格式的基础数据组成的检验组;使得每个统一格式的基础数据都对应有多个验证结果,再分别解算每个统一格式的基础数据对应的平均通过率;
子步骤b,找到并隐藏1例平均通过率最低的统一格式的基础数据,利用剩余的统一格式的基础数据再次执行子步骤1-4,观察总通过率相较于隐藏数据前是否提高,如果总通过率提高,则删除该被隐藏的统一格式的基础数据,并执行子步骤c;如果总通过率未提高,则恢复被隐藏的数据,挑选并隐藏平均通过率第二低的统一格式的基础数据,重复以上过程,直至总通过率提高;
子步骤c,在总通过率提高后,以剩余的统一格式的基础数据为基础,重复子步骤a和子步骤b,发现总通过率提高后再以当前剩余的统一格式的基础数据为基础,继续重复子步骤a和子步骤b,直至总通过率达到80%以上,或者删除的统一格式的基础数据达到总的统一格式的基础数据的10%时为止,此时剩余的统一格式的基础数据即为可用数据。
其中,在步骤5中,获得预测模型的过程中,将每个可用数据中的综合神经活动指标数据与情绪唤醒数据拼接成一个数据段,作为学习材料,通过机器学习获得情绪唤醒预测模型。
其中,在步骤5中,使用综合神经活动指标和标签数据建立3-4层结构的神经网络、C4.5决策树和XGBoost三种模型,从而得到预测模型,该预测模型的输出为三种模型输出中最为接近的两个输出值的平均值。
本发明所具有的有益效果包括:
根据本发明提供的基于心脏/脉搏间期的情绪状态客观测量方法,能够即时地评测情绪状态,将输出间隔从60秒左右缩短至500-1200毫秒,为即时状态高密度评测提供了技术手段;
本发明的方法从基础方法层面消除了噪音和极端值的影响,从而使得评测数据相较于基于HRV的技术更加稳定准确;
本发明采用了二维情绪评价模型,不仅仅能测量情绪的唤醒,还对情绪效价做出了估计,相较于之前2分类或4分类的情绪评定技术,本技术可以输出100种不同强度、性质的情绪评定,其结果更加真实、接近常识也更容易被人理解,故而在实际生产生活中更具有可用性。
附图说明
图1示出根据本发明一种优选实施方式的基于心脏/脉搏间期的情绪状态客观测量方法整体逻辑图;
图2示出根据本发明一种优选实施方式的情绪坐标示意图。
具体实施方式
下面通过附图和实施例对本发明进一步详细说明。通过这些说明,本发明的特点和优点将变得更为清楚明确。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
根据本发明提供的基于心脏/脉搏间期的情绪状态客观测量方法,如图1中所示,该方法包括:
收集生理数据和情绪标签,据此获得预测模型;
再收集生理数据,代入到该预测模型中,获得情绪激越程度和情绪效价。
优选地,获得所述预测模型的过程包括如下步骤:
步骤1,通过收集设备收集生理数据,所述生理数据包括心脏搏动间期,并将该生理数据转换为交感神经的活动指标和副交感神经的活动指标;所述心脏搏动间期也称之为R-R间期;
步骤2,设置情绪唤醒标签和情绪效价标签及特殊状态辅助标签,在情绪唤醒标签中选择具体的情绪激越程度,在情绪效价标签中选择具体的情绪效价,在特殊状态辅助标签中记录经历特殊情绪状态的时间,将综合神经活动指标数据与情绪标签组合为基础数据;其中,所述特殊情绪状态包括发怒、哭泣、遭受应激事件或创伤等,如果在收集生理数据的过程中存在该特殊情绪状态,则根据具体状态的激越程度和情绪效价标注,并将其标记为特殊状态数据,可以作为特殊状态模型的建模材料。
所述情绪标签包括情绪唤醒标签和情绪效价标签,在更优选的实施方式中,还包括特殊状态辅助标签;
步骤3,调整该基础数据的格式,得到统一格式的基础数据,判断该统一格式的基础数据是否符合要求;
步骤4,从符合要求的统一格式的基础数据中选取可用数据;
步骤5,根据步骤4中的可用数据获得预测模型。
在获得预测模型以后,再次通过收集设备收集心脏搏动间期,并将收集到的信息输入到所述预测模型中,得到对应的情绪激越程度和情绪效价。
在一个优选的实施方式中,所述收集设备包括可穿戴手环和智能手表。优选地,所述收集设备还可以包括按摩椅、跑步机等。在通过收集设备收集到生理数据并记录标签数据,可以将所有的数据都实时传输到远程服务器进行统计保存,也可以在该收集设备中集成存储芯片进行实时存储和计算处理。
在一个优选的实施方式中,在步骤1中,根据收集到的每个心脏搏动间期对应转换输出两组数据,分别为交感神经的活动指标和副交感神经的活动指标,从而使得本申请中的方案具有较细腻的时间颗粒度。
在步骤1中,两种神经共同影响心脏搏动且神经活动周期性相互的前摄影响最终构成了心率变异。
在一个优选的实施方式中,所述情绪唤醒标签中设置有多个能够代表情绪唤醒程度的数值,可以根据实际状况选择对应的数值,优选地,所述情绪唤醒标签中设置有5-10个数值档位,根据参与者的实际情况选择最为接近的数值档位。所述情绪唤醒标签中表征的是情绪唤醒程度,最低的数值代表完全平静,数值越大表示情绪越为激越。
所述情绪效价标签中设置有多个能够代表情绪效价的数值,可以根据实际状况选择对应的数值,优选地,所述情绪效价标签中设置有2-10个数值档位,根据参与者的实际情况选择最为接近的数值档位。所述情绪效价标签中表征情绪的积极及消极程度,最低的数值代表最为消极,数值越大表示情绪越积极。数值档位一致的两个情绪效价标签中的数据格式统一,数值档位一致的两个情绪唤醒标签中的数据格式统一。
优选地,所述情绪唤醒标签中采用标准化的情绪唤醒分数作为原始标签分数;
优选地,所述情绪效价标签中采用PANAS标准分作为原始标签分数,其中,积极情绪:均分29.7,标准差:7.9;消极情绪:均分14.8,标准差5.4。
进一步优选地,在情绪唤醒标签中和情绪效价标签中,都通过数值范围的正负1.96个标准差范围依照数据分布的频数分为10份。
优选地,在步骤2中,情绪标签包括情绪唤醒标签和情绪效价标签,该两个标签可以分别提供,也可以以坐标或者图表的形式同时提供。情绪唤醒标签用于记载情绪唤醒数据,情绪效价标签用于记载情绪效价数据。
优选地,在步骤2中,所述综合神经活动指标与交感神经的活动指标和副交感神经的活动指标相关,每个综合神经活动指标中都包含下述数据中的一种或多种:交感神经的活动指标、副交感神经的活动指标、交感神经的活动指标与副交感神经的活动指标之商、交感神经的活动指标与副交感神经的活动指标之和、交感神经的活动指标与副交感神经的活动指标之差等等。
本申请中,所述综合神经活动指标数据的采集频率较高,可以每分钟提供60-90甚至更多组该综合神经活动指标数据。
所述情绪标签的采集频率相对较低,可以每小时采集一次,或者每天采集2-5次。所以每个情绪标签数据对应有多个综合神经活动指标数据,将一个情绪标签数据和与之对应的多个综合神经活动指标数据组合在一起即可构成一个基础数据。其中,每个情绪标签数据都包含情绪唤醒数据和情绪效价数据。
在一个优选的实施方式中,所述情绪效价标签和情绪唤醒标签中的数值档位可能相同,也可能不同,在数据统计时会出现不匹配或者数据错位的问题,为此,在步骤3中,调整基础数据的格式主要包括调整情绪标签数据中的数值和数值档位;具体来说,首先设定标准数值档位数量,如设置为5个数值档位,则将调整基础数据中的数值档位调整为5个,再根据比例将基础数据中选择的档位数值调整为5个数值档位情况下的档位数值,遇到不能整除时向上取整。
在一个优选的实施方式中,步骤3中判断统一格式的基础数据是否符合要求包括如下子步骤:
子步骤1,将所有统一格式的基础数据随机地按照预定比例分成两组,即为学习组和检验组;优选地,所述比例可以为8~9:1,更优选地,学习组中数据数量与检验组中数据数量之比为8:1;
子步骤2,利用学习组中的数据冲刷模型,再用检验组中的每个数据逐一验证该模型,并分别记录检验组中每个数据的验证结果,优选地,所述验证结果包括验证通过和验证不通过;其中,验证通过是指将检验组中统一格式的基础数据的综合神经活动指标数据带入到模型中,得到的情绪标签数据与该基础数据中的情绪标签数据一致,即情绪激越程度和情绪效价都一致;验证不通过是指将检验组中基础数据的综合神经活动指标数据带入到模型中,得到的情绪标签数据与该基础数据中的情绪标签数据不一致,即情绪激越程度和/或情绪效价不一致;
子步骤3,多次重复上述子步骤1和子步骤2,其中,曾经被分配到检验组中的统一格式的基础数据不再被分配到检验组中,确保每个统一格式的基础数据都曾在检验组中对被学习组中数据冲刷过的模型做过验证,直至获得所有统一格式的基础数据对应的验证结果;
子步骤4,解算所有统一格式的基础数据验证结果的总通过率,所述总通过率为所有统一格式的基础数据的验证结果为验证通过的数量与所有统一格式的基础数据的数量之比;当总通过率不大于70%时,认为这些统一格式的基础数据不符合基本要求,全部放弃,重复步骤1和步骤2,重新获得新的基础数据;当子步骤4中结果即总通过率大于70%时,认为这些统一格式的基础数据满足使用要求,可以进行下一步处理。
在一个优选的实施方式中,步骤4中得到可用数据包括如下子步骤:
子步骤a,以梯度法针对每一个模型-参数组合剔除离群数据,筛选出高生态效用的模型。具体地,多次重复步骤3中的子步骤1-3,并且每次重复子步骤1时都得到一个由不同的统一格式的基础数据组成的检验组,即所有的检验组都是不同的;优选地,所述子步骤1-3重复8-10次,进而使得每个统一格式的基础数据都对应有多个验证结果,再分别解算每个统一格式的基础数据对应的平均通过率;所述统一格式的基础数据对应的平均通过率为该统一格式的基础数据对应的验证结果中验证通过的数量与该统一格式的基础数据对应的验证结果的总数量之比。
子步骤b,找到并隐藏1例平均通过率最低的统一格式的基础数据,当存在多例统一格式的基础数据的平均通过率一致且最低时,任意隐藏其中一例即可,被隐藏的数据,在被恢复以前,不再参与任何计算处理;找到并利用剩余的统一格式的基础数据再次执行子步骤1-4,观察总通过率相较于隐藏数据前是否提高,如果总通过率提高,则删除该被隐藏的统一格式的基础数据,并执行子步骤c;如果总通过率未提高,则恢复被隐藏的数据,挑选并隐藏平均通过率第二低的统一格式的基础数据,其中,如果存在多个统一格式的基础数据的平均通过率相同且最低的情况,此时可以再挑选其他命中率最低的统一格式的基础数据;重复以上过程,直至总通过率提高;
子步骤c,在总通过率提高后,以剩余的统一格式的基础数据为基础,重复子步骤a和子步骤b,发现总通过率提高后再以当前剩余的统一格式的基础数据为基础,继续重复子步骤a和子步骤b,直至总通过率达到80%以上,优选为90%以上;或者删除的统一格式的基础数据达到总的统一格式的基础数据的10%时为止,此时剩余的统一格式的基础数据即为可用数据。
优选地,所述子步骤2中的模型包括绝大多数有监督学习的模型,对该模型的冲刷过程包括多个有监督模型的综合判断,其具体冲刷过程包括但不限于采用线性回归、支持向量机、梯度下降法、朴素贝叶斯分类、决策树分类、AdaBoost、XGBoost、多层神经网络等冲刷方法。优选地,利用3-4层结构的神经网络、C4.5决策树、XGBoost 3种模型的结果中彼此较为接近的2个结果的平均值作为每次冲刷的输出值,即将3-4层结构的神经网络、C4.5决策树、XGBoost组合为最优选的模型,即高生态效用的模型。
在步骤5中,获得预测模型的过程中,将每个可用数据中的综合神经活动指标数据与情绪唤醒数据拼接成一个数据段,作为学习材料,通过机器学习获得情绪唤醒预测模型;
将每个可用数据中的综合神经活动指标数据与情绪效价数据拼接成一个数据段,作为学习材料,通过机器学习获得情绪效价预测模型;所述预测模型包括所述情绪唤醒预测模型和情绪效价预测模型。
在一个优选的实施方式中,在步骤5中,情绪唤醒预测模型和情绪效价预测模型的学习过程为中,同时使用综合神经活动指标和标签数据建立3-4层结构的神经网络、C4.5决策树和XGBoost三种模型,将这三种模型的组合作为预测模型,该预测模型的输出为三种模型输出中最为接近的两个输出值的平均值。例如,针对一组数据,三个模型分别给出的输出结果为出一个是8,一个是20,一个是7,输出结果7和输出结果8彼此接近,则最终模型的输出结果7为,即7和8的平均值,并向下取整。
在一个优选实施方式中,采集方案一,在步骤1-5中,追踪收集1000名各年龄段的参与者,持续追踪2周至2个月,获得追踪数据。参与者的生理数据来自如智能手表等可穿戴设备及扫描传感器,评分数据来自于参与者每日的自评;生理数据采用每10分钟采集90秒数据的方式,24小时持续追踪;在情绪唤醒标签和情绪效价标签的评分数据方面要求参与者每天至少3次评估自己的激越程度和情绪效价。
在另一种优选实施方式中,采集方案二,在步骤1-5中,追踪收集1名参与者,持续追踪不低于2周,获得追踪数据。参与者的生理数据来自如智能手表等可穿戴设备及扫描传感器,评分数据来自于参与者每日的自评;生理数据采用每10分钟采集90秒数据的方式,24小时持续追踪;在情绪唤醒标签和情绪效价标签的评分数据方面要求参与者每天至少3次评估自己的激越程度和情绪效价。所述每天3次评估的时间应尽量平均覆盖全天的时间段,典型地,如上午、下午、晚上。3次数据采集为采集频率的下限,如有条件获得大于3次的状态采集,则可以得到更加准确的基础数据和预测模型。
数据采集方案一所采集的是群体模型,用于界定数据的总体分布和边界;还能够确定大致的输入与输出的对应关系,形成概略的判断。数据采集方案二所采集的是个体模型,用于校正群体模型以适用于个体的特殊情况。具体地,在无个体模型的情况下,具体实施过程中全部套用群体模型;在具备个体模型的情况下,使用集体和个体模型共同判断,结果以两个模型输出的结果中距离情绪坐标中心点更远者为准。
在一个优选的实施方式中,在建立了情绪唤醒预测模型和情绪效价预测模型的基础上,将收集设备收集的参与者生理数据输入到两个模型中,即可得到对应的情绪唤醒和情绪效价。具体来说,所述生理数据包括心脏搏动间期,首先将该心脏搏动间期RRI转化为综合神经活动指标的交感神经输出和副交感神经输出:
利用拉盖尔函数递推式,令其因变量为最切近的一个RRI,令其自变量为8个拉盖尔递推式的分解项X,每一个分解项由一个未知系数G,一个可推断系数φ和一个RRI值组成,整体估计表达式如下式(一)中所示:
其中,S表示表示j的上限,即拉盖尔多项式的阶数,该阶数决定了利用过去多少个RRI拟合一个表达式,阶数越多,结果越准确,优选地使用9个;j表示正交拉盖尔离散时间函数的阶数;g(j,t)表示结合j阶拉盖尔多项式和t时间范围内RRI间期时间求得的系数矩阵,该系数矩阵中的系数为纳入的每个RRI的系数,目的是将多个RRI并入一个递推的拉盖尔多项式,用过往的RRI拟合最后一次RRI,令多个RRI形成一个递推关系;F(t)表示纳入计算的前后相邻心脏搏动间期序列中具体间期的位置序数;n表示从此次RRI开始,向前回溯的RRI的序号;RRF(t)-n表示任意一个RRI,通过拉盖尔多项式递推获得;表示j阶的正交拉盖尔离散时间函数,通过下式(二)获得;
α为常数,其取值为0.2;
从最切近的RRI算起,依照时间逆向取8个RRI作为以上的RRI代入求得RRI组合,组成RRI=∑(i∈0-2)Xi+∑(i∈3-8)Xi。利用Kalman自回归求取8个未知系数G。代入∑(i∈0-2)NiGi和∑(i∈3-8)NiGi,分别代表综合神经活动指标中的交感与副交感神经输出值。与之配套的系数N分别使用常数39,10,-5,28,-17,6,12,6,-7,-6,-4。
再将综合神经活动指标分别带入到情绪唤醒预测模型和情绪效价预测模型中,在两个模型中分别进行如下处理:
将综合神经活动指标分别代入用于预测情绪唤醒程度的情绪唤醒预测模型和用于预测情绪效价的情绪效价预测模型;其中,情绪唤醒预测模型包括3-4层结构的神经网络、C4.5决策树和XGBoost计算模型,该情绪唤醒预测模型接收到综合神经活动指标后,得到分别由3-4层结构的神经网络、C4.5决策树和XGBoost计算模型输出的值,在这三个输出值中挑选出2个较为接近的值,并求取该二个值的平均值,作为情绪唤醒模型的输出结果。绪效价预测模型也包括3-4层结构的神经网络、C4.5决策树和XGBoost计算模型,该绪效价预测模型接收到综合神经活动指标后,得到分别由3-4层结构的神经网络、C4.5决策树和XGBoost计算模型输出的值,在这三个输出值中挑选出2个较为接近的值,并求取该二个值的平均值,作为绪效价预测模型的输出结果。
最后得到对应的情绪唤醒程度和情绪效价程度。
在一个优选的实施方式中,在得到参与者的情绪唤醒程度和情绪效价程度以后,通过情绪坐标系统予以形象展示;所述情绪坐标如图2中所示,所述情绪坐标是由情绪唤醒标签和情绪效价标签组合得到的。
在重复多次预测过程后,经过将预测结果与参与者自身记录相比较可知,本申请提供的基于心脏/脉搏间期的情绪状态客观测量方法即能够完成对单一参与者的情绪测量,也能够完成对参与者群体的情绪测量,其准确率都可达到95%以上。
实施例1
选定一个参与者,对其进行为期2个月的持续追踪,参与者佩戴能够收集心脏搏动间期的智能手表,通过该智能手表每10分钟采集连续的90秒心脏搏动间期数据,将该心脏搏动间期数据转化为交感神经的活动指标和副交感神经的活动指标,另外,参与者每天3次在情绪唤醒标签中记录情绪激越程度,在情绪效价标签中记录情绪效价,且所有的标签中格式一致,标签中都包括10个数值档位,其中,参与者每天上午记录其当天上午的平均情绪激越程度和情绪效价,每天下午记录其当天下午的平均情绪激越程度和情绪效价,每天晚上记录其当天晚上的平均情绪激越程度和情绪效价。
得到8640条RRI数据,平均每条255个值,再将其转换为交感神经的活动指标和副交感神经的活动指标,同时通过收集数据还得到180条包含情绪唤醒标签和情绪效价标签的记录,将一个情绪标签数据和与之对应的多个综合神经活动指标数据组合成一个基础数据,共形成180个基础数据,其中一个基础数据如下:
交感神经:
[1857.2284267620796,-2951.0796827446093,-3282.1430097606312,-3181.907168492867,-2953.0861267567284,-3032.4555678810166,-2561.859901361908,-2401.3247911265375,-2634.5226288414133,-1263.5755955940956,-1681.047831381738,-2421.860323197891,-2756.495010103731,-3702.7282739683574,-3792.9060385738076,-3872.3765769672495,-4135.619177273514,-4204.80414752759,-3050.8601814738468,-2566.0101026166703,-2229.309000217542,-1655.0304071969006,-1760.5651725037908,-1956.758329233374,-1996.59586543147,-2542.5232032891595,-2089.2057433234054,-1701.7975014871563,-1239.3135361499433,-1592.9986370511551,-1844.4464911282205,-2209.2891691264317,-2309.8500487847737,-2687.899672258449,-2829.089645963404,-3688.2922678037075,-3881.9582623356655,-2745.3397413498046,-2449.383856199492,-3193.687149703182,-3692.235564996326,-3194.2227188499783,-3077.4655129758435,-3282.996040482046,-3228.9827636865907,-4150.980488670713,-3579.190603996347,-2942.0376025519454,-3048.5635047546834,-3069.167418900896,-2594.774418994403,-2113.7859941461948,-1851.3914703360288,-2107.0580090897547,-2047.1021730649131,-1935.2818695106196,-1809.2646687963377,-1707.8665141758202,-1719.5786297628417,-1641.7699550333311,-1867.515591488798,-2099.2838967616585,-2368.076721132822,-2334.418708412978,-2384.7512798248895,-2529.4797397654015,-2586.465034850752,-2828.9843547219693,-2550.4766529142207,-2634.8813901327867,-2794.5163054364443,-3137.817589802817,-2858.8197648683495,-2952.385916203141,-2876.1449881378685,-2785.416440805476,-2680.438560057697,-2312.8040154714918,-2163.682051215073,-2143.637810715302,-1906.5447465188686,-2120.3540291058384,-2206.603343799735,-2250.540114739431,-2425.117738795974,-2519.891586021361,-2803.7330934999104,-3082.509963007842,-3249.1732009965867,-3249.780664169451,-2917.0860239124113,-2516.480341778862,-1341.3493127305787,-1724.4933546268912,-1780.6096976306924,-1719.7046437728102,-1644.031445644776,-1567.58760601961,-1382.6206561774954,-1165.144286132956,-1594.9910803112157,-1624.2764663927326,-3061.1281852822312,-4229.588651090299,-4964.692480771476,-2955.8198277472784,-2524.737707615429,-2165.5347694735283,-2761.257595023336,-3294.64390511422,-5448.276871365829,-6908.7165518064185]
副交感神经:
[-1857.2284267620796,-2951.0796827446093,-3282.1430097606312,-3181.907168492867,-2953.0861267567284,-3032.4555678810166,-2561.859901361908,-2401.3247911265375,-2634.5226288414133,-1263.5755955940956,-1681.047831381738,-2421.860323197891,-2756.495010103731,-3702.7282739683574,-3792.9060385738076,-3872.3765769672495,-4135.619177273514,-4204.80414752759,-3050.8601814738468,-2566.0101026166703,-2229.309000217542,-1655.0304071969006,-1760.5651725037908,-1956.758329233374,-1996.59586543147,-2542.5232032891595,-2089.2057433234054,-1701.7975014871563,-1239.3135361499433,-1592.9986370511551,-1844.4464911282205,-2209.2891691264317,-2309.8500487847737,-2687.899672258449,-2829.089645963404,-3688.2922678037075,-3881.9582623356655,-2745.3397413498046,-2449.383856199492,-3193.687149703182,-3692.235564996326,-3194.2227188499783,-3077.4655129758435,-3282.996040482046,-3228.9827636865907,-4150.980488670713,-3579.190603996347,-2942.0376025519454,-3048.5635047546834,-3069.167418900896,-2594.774418994403,-2113.7859941461948,-1851.3914703360288,-2107.0580090897547,-2047.1021730649131,-1935.2818695106196,-1809.2646687963377,-1707.8665141758202,-1719.5786297628417,-1641.7699550333311,-1867.515591488798,-2099.2838967616585,-2368.076721132822,-2334.418708412978,-2384.7512798248895,-2529.4797397654015,-2586.465034850752,-2828.9843547219693,-2550.4766529142207,-2634.8813901327867,-2794.5163054364443,-3137.817589802817,-2858.8197648683495,-2952.385916203141,-2876.1449881378685,-2785.416440805476,-2680.438560057697,-2312.8040154714918,-2163.682051215073,-2143.637810715302,-1906.5447465188686,-2120.3540291058384,-2206.603343799735,-2250.540114739431,-2425.117738795974,-2519.891586021361,-2803.7330934999104,-3082.509963007842,-3249.1732009965867,-3249.780664169451,-2917.0860239124113,-2516.480341778862,-1341.3493127305787,-1724.4933546268912,-1780.6096976306924,-1719.7046437728102,-1644.031445644776,-1567.58760601961,-1382.6206561774954,-1165.144286132956,-1594.9910803112157,-1624.2764663927326,-3061.1281852822312,-4229.588651090299,-4964.692480771476]
情绪标签中的情绪激越程度为:5,情绪标签中的情绪效价为-4,
求取总通过率,将全部180条基础数据随机分为9份,其中一份作为检验组,其他份作为学习组,通过学习组冲刷模型,再用检验组中的数据验证该模型,得到每个检验组数据的验证结果;再用其他份中的数据作为检验组,重复上述步骤,共重复循环9次,确保每个数据都曾分配到过检验组中,即每个数据都得到对应的验证结果,求得总通过率为74%,高于70%,可以进行下一步处理。
剔除该基础数据中的异常数据,即得到可用数据,具体来说,
求取平均通过率,将全部180条基础数据随机分为9份,其中一份作为检验组,其他份作为学习组,通过学习组冲刷模型,再用检验组中的数据验证该模型,得到每个数据的验证结果;再重新分配检验组和学习组,至少重复81次上述过程,确保每个基础数据都至少9次被分入到检验组中,即每个基础数据都得到了9个对应的验证结果,进而获得每个基础数据的平均通过率;
找到并隐藏1例平均通过率最低的基础数据,利用剩余的179基础数据再次执行上述求取总通过率的过程,观察总通过率相较于隐藏数据前是否提高,如果总通过率提高,则删除该被隐藏的统一格式的基础数据;如果总通过率未提高,则恢复被隐藏的数据,挑选并隐藏平均通过率第二低的基础数据,重复上述求取总通过率的过程,直至总通过率提高;
在命中率有所上升后,删除隐藏数据,以剩余的基础数据为基础,继续执行上述求取平均通过率的过程,解算每个基础数据对应的平均通过率,寻找并隐藏平均通过率最低的数据,再在平均通过率最低的数据的基础上求取总通过率,持续重复上述剔除过程。剔除过程结束条件为:删除数据大于总数据的10%或者总通过率达到90%。
删除数据大于总数据的10%或者总通过率达到90%时剩余的数据都称之为可用数据。
根据可用数据获得情绪唤醒预测模型和情绪效价预测模型,具体来说,
利用可用数据冲刷3-4层结构的神经网络、C4.5决策树、XGBoost计算模块,得到该三个模型组合的预测模型,该预测模型的输出值为三个模型给出的3个模型输出中2个较为接近的值的均值,从而得到情绪唤醒预测模型和情绪效价预测模型。
在获得了情绪唤醒预测模型和情绪效价预测模型的基础上,继续探测参与者的生理数据,每500-1200毫秒输出一个心脏搏动间期,相应地转换得到的交感神经的活动指标和副交感神经的活动指标,其中一组交感神经活动为:
[-2785.416440805476,-2680.438560057697,-2312.8040154714918,-2163.682051215073,-2143.637810715302,-1906.5447465188686,-2120.3540291058384,-2206.603343799735,-2250.540114739431,-2425.117738795974,-2519.891586021361,-2803.7330934999104,-3082.509963007842,-3249.1732009965867,-3249.780664169451,-2917.0860239124113,-2516.480341778862,-1341.3493127305787,-1724.4933546268912,-1780.6096976306924,-1719.7046437728102,-1644.031445644776,-1567.58760601961,-1382.6206561774954,-1165.144286132956,-1594.9910803112157,-1624.2764663927326,-3061.1281852822312,-4229.588651090299,-4964.692480771476,-2955.8198277472784,-2524.737707615429,-2165.5347694735283,-2761.257595023336,-3294.64390511422,-5448.276871365829,-6908.7165518064185,-5557.896500695634,-2892.0876569827824,-2604.303820368308,-2975.4892013150707,-2864.812347113363,-2492.271402601608,-2050.5794017164417,-2068.715603113573,-2428.3255248634287,-3692.510208859707,-4024.851537638828,-2821.6117211374817,-1647.309305672858,-982.5337142718303,-1903.1844582260026,-2412.0715479148316,-3492.944191773724,-4026.5253736234013,-3262.0926353648124,-3288.8228279883583,-3707.6911265978947,-3963.9415073721157,-2909.0471125019762,-2557.1152746387643,-2341.4924309212997,-2261.397195125791,-2450.355678107723,-2576.5666880888243,-1904.6518192849746,-1617.7368495744308,-1923.0513154992648,-2159.0479048679467,-3284.4260072759416,-3841.244603690705,-2683.4631370163947,-2358.988095298212,-2388.748146193171,-2525.6422910055494,-1973.532040245783,-2039.518125525089,-1778.0113070104012,-1192.287111585418,-2211.074651507768,-2255.795337251977,-2392.405129523077,-2690.4333871974036,-2286.8387812726105,-2858.2367178786503,-3114.5453150114204,-2734.0858147761805,-2581.752925265905,-2501.8447508164827,-2550.858291989042,-2544.6752642833503,-2561.9549097226145,-2582.7308612451648,-2487.6464873096184,-2421.0875634690187,-2592.6732564648296,-2515.5056800561433,-2238.3481400943983,-2488.1524308630514,-2589.7455092709642,-4192.208151912241,-3316.0616793989134,-2855.1706920591087,-2034.0913544072828,-2017.9882447354776,-2810.5043574618144,-3028.0907482434177,-2551.582767656894,-2486.6531257030706,-2477.3314764081697,-2474.317295356146,-2475.4117362487896,-2539.499423301168,-2585.401149507308,-2626.1444066327795,-2593.2981660979085,-2554.5543758063923,-2559.33059315885,-2514.0830990414156,-2462.4666653360023]
副交感神经活动:
[20528.34671119923,27275.62231747674,27397.343656044213,25875.22349130844,24029.089000043587,23549.230020351988,21468.569646971664,14171.719799350227,21551.311999723537,26424.2498483226,29188.011955817215,24396.026379488292,17063.128907729053,16918.4459362882,22834.07446193743,22852.02274465572,19107.895479869854,14154.780058348466,16233.738993165372,18212.30261376968,21043.397048248662,21051.551034469685,20985.494845968202,20666.169353946298,20848.116705076074,20350.573684162806,20213.67940093858,20554.398846947337,21517.236698973,22366.138466489923,23122.891118645704,23361.69173890778,22807.555589243802,22621.866369194624,22210.63814147258,21831.41690034681,20981.74933924044,22134.810249125116,23234.33826284633,24984.54070354139,24535.734470510302,23847.980684249447,21514.04262237545,21846.392732124674,25478.032515185278,29001.886406319827,28317.572114990482,25258.77572654413,21361.68806517201,21731.882682345153,21972.64948133849,22231.791417144123,22073.105536989864,21735.47622080485,21655.637663704518,22447.724899032488,22908.495872322223,23319.26716943619,23304.53580112144,23186.60363597967,24014.610212576772,25329.639368956574,24416.673261338252,22168.46159089126,20479.10245569873,20290.600490522957,21313.324518761176,22466.123109448057,23705.891029330407,23684.82324014783,21324.46122245483,19796.680501448165,15406.89691483997,14034.40769053261,14271.544875548712,20013.66015872214,27772.7804055159,28905.49811071519,25656.994486129406,23171.348903961913,22734.47971216225,21807.726180205842,21186.16358977129,21484.0468622851,22263.572747890517,22923.165513863285,22342.052796640404,25358.984828868346,28129.07482174593,22225.37892467921,15215.862615589225,14417.842663608611,15955.757875035786,17080.730527559062,21272.60928005056,35121.51103426294,48387.18271115064,48314.72155720705,22349.885568970047,2403.968508413404,691.4480223596768]
根据情绪唤醒预测模型得到该参与者的情绪唤醒程度为5,根据情绪效价预测模型得到该参与者的情绪效价程度为5。
参与者给出其自身情绪状况为狂喜,与评价结果吻合,从而可知本次预测结果准确。
实施例2
选定100个参与者,对所有参与者进行为期1个月的持续追踪,参与者都佩戴能够收集心脏搏动间期的智能手表,通过该智能手表每10分钟采集连续的90秒心脏搏动间期数据,将该心脏搏动间期数据转化为交感神经的活动指标和副交感神经的活动指标,另外,参与者都每天3次在情绪唤醒标签中记录情绪激越程度,在情绪效价标签中记录情绪效价,标签中都包括10个数值档位,其中,参与者每天上午记录其当天上午的平均情绪激越程度和情绪效价,每天下午记录其当天下午的平均情绪激越程度和情绪效价,每天晚上记录其当天晚上的平均情绪激越程度和情绪效价。
共得到431200条RRI数据,平均每条255个值,再将其转换为交感神经的活动指标和副交感神经的活动指标,同时通过收集数据还得到9000条包含情绪唤醒标签和情绪效价标签的记录,将一个情绪标签数据和与之对应的多个综合神经活动指标数据组合成一个基础数据,共形成9000个基础数据,其中一个基础数据如下:
交感神经:
[-2352.7420650496697,-2783.546939129197,-2798.3337251853927,-2872.3927718864998,-2905.9079898729083,-3046.8395870881777,……-2804.3733538279457,-3008.2918976054166,-3287.738538981377,-3544.0398471686317,-3737.012263054074,-3392.8533953606484,-3045.772406277159,-2976.0559437259394,-2914.321721585286,-2950.051493837062]
副交感神经:
[16786.30205908748,18542.62071504715,18687.557335776917,19238.365882675615,19869.161172454547,20339.86701138869,20012.237788876777,18016.69582037624,16998.331328856646,19910.840183243206,26942.09266315093……17280.91628392906,21047.571408197946,24580.296550241463,25196.32879028415,22546.75076935078,19131.805043189772,17533.63687573278,16998.82816350645,16756.28218034956,17068.77186244518]
情绪标签中的情绪激越程度为:4,情绪标签中的情绪效价为2,
求取总通过率,将全部9000条基础数据随机分为9份,其中一份作为检验组,其他份作为学习组,通过学习组冲刷模型,再用检验组中的数据验证该模型,得到每个检验组数据的验证结果,再用其他份中的数据作为检验组,重复上述步骤,共重复循环9次,确保每个数据都曾分配到过检验组中,即每个数据都得到对应的验证结果,求得总通过率为75%,高于70%,可以进行下一步处理。
剔除该基础数据中的异常数据,即得到可用数据,具体来说,
求取平均通过率,将所有基础数据重新分成9份,其中一份作为检验组,其他份作为学习组,通过学习组冲刷模型,再用检验组中的数据验证该模型,得到每个数据的验证结果;再重新分配检验组和学习组,至少重复81次上述过程,确保每个基础数据都至少9次被分入到检验组中,即每个基础数据都得到了9个对应的验证结果,进而获得每个基础数据的平均通过率;
找到并隐藏1例平均通过率最低的基础数据,利用剩余8999条基础数据再次执行上述求取平均通过率和总通过率的过程,观察总通过率相较于隐藏数据前是否提高,如果总通过率提高,则删除该被隐藏的统一格式的基础数据;如果总通过率未提高,则恢复被隐藏的数据,挑选并隐藏平均通过率第二低的基础数据,重复上述求取总通过率的过程,直至总通过率提高;
在命中率有所上升后,删除隐藏数据,以剩余的基础数据为基础,继续执行上述求取平均通过率的过程,解算每个基础数据对应的平均通过率,寻找并隐藏平均通过率最低的数据,再在平均通过率最低的数据的基础上求取总通过率,持续重复上述剔除过程。剔除过程结束条件为:删除数据大于总数据的10%或者总通过率达到90%。
在命中率有所上升后,删除隐藏数据,以剩余的基础数据为基础,继续重复上述过程。
删除数据大于总数据的10%或者总通过率达到90%时剩余的数据都称之为可用数据。
根据可用数据获得情绪唤醒预测模型和情绪效价预测模型,具体来说,
利用可用数据冲刷3-4层结构的神经网络、C4.5决策树、XGBoost计算模块,得到该三个模型组合的预测模型,该预测模型的输出值为三个模型给出的3个模型输出中2个较为接近的值的均值,从而得到情绪唤醒预测模型和情绪效价预测模型。
在获得了情绪唤醒预测模型和情绪效价预测模型的基础上,继续探测10名参与者的生理数据,每500-1200毫秒输出一个心脏搏动间期,相应地转换得到的交感神经的活动指标和副交感神经的活动指标,其中一组交感神经活动为:
[-3036.931194140554,-3584.4573036641646,-3797.3306698275765,-3016.7702282109963,-2934.9532185873486,-2853.0814021856354,-3084.7685662589074,-3660.226443999395,-4040.208213219673,-3920.294777768466……-3217.2095270428676,-3209.1190672381945,-3525.815096773241,-3837.1110644064343,-3858.6797446763344,-3156.8331808188623,-3211.5736680191367,-3188.223883548828,-2903.1455630925147,-2837.31464728985,-2918.917239014356]
副交感神经活动:
[17310.74420184628,17346.472839024013,20399.2222619049,23999.479990425738,23917.00083757425,20816.35536657011,17176.93514543329,16388.38767047882,18803.943457167785,24728.14663004904……28885.415937024587,26183.871039871123,20700.597998157282,19331.732846508872,23363.429685984178,26495.336038800495,24963.028611670816,21238.082330745914,18656.00123513128,18370.228541016753]
根据情绪唤醒预测模型和情绪效价预测模型得到10名参与者的情绪唤醒程度分别为(5,0,-5,2,-2,5,1,-3,4,-2),情绪效价程度分别为(0,0,0,2,-2,5,5,4,-3,-4)。
10名参与者给出其自身情绪状况为(焦虑,平淡,心力交瘁,愉快,郁闷,狂喜,幸福,恬静,恼怒,悲伤),与评价结果吻合,从而可知本次预测结果都准确。
以上结合了优选的实施方式对本发明进行了说明,不过这些实施方式仅是范例性的,仅起到说明性的作用。在此基础上,可以对本发明进行多种替换和改进,这些均落入本发明的保护范围内。
Claims (4)
1.一种基于心脏/脉搏间期的情绪状态客观测量方法,其特征在于,该方法包括:
收集生理数据和情绪标签,据此获得预测模型;
再收集生理数据,代入到该预测模型中,获得情绪激越程度和情绪效价;
获得所述预测模型的过程包括如下步骤:
步骤1,通过收集设备收集生理数据,所述生理数据包括心脏搏动间期,并将该生理数据转换为交感神经的活动指标和副交感神经的活动指标;
步骤2,设置情绪唤醒标签和情绪效价标签,在情绪唤醒标签中记录具体的情绪激越程度,在情绪效价标签中记录具体的情绪效价,将综合神经活动指标数据与情绪标签组合为基础数据;
步骤3,调整该基础数据的格式得到统一格式的基础数据,判断该统一格式的基础数据是否符合要求;
步骤4,从符合要求的统一格式的基础数据中选取可用数据;
步骤5,根据步骤4中的可用数据获得预测模型;
在得到预测模型后,
通过收集设备收集的心脏搏动间期,将其转换为交感神经的活动指标和副交感神经的活动指标,并输入到所述预测模型中,得到对应的情绪激越程度和情绪效价;
每个综合神经活动指标包扩下述数据中的一种或多种:交感神经的活动指标、副交感神经的活动指标、交感神经的活动指标与副交感神经的活动指标之商、交感神经的活动指标与副交感神经的活动指标之和、交感神经的活动指标与副交感神经的活动指标之差;
步骤3中判断统一格式的基础数据是否符合要求包括如下子步骤:
子步骤1,将所有统一格式的基础数据随机地按照预定比例分学习组和检验组;
子步骤2,利用学习组中的数据冲刷模型,再用检验组中的每个数据逐一验证该模型,并分别记录检验组中每个数据的验证结果;
子步骤3,重复子步骤1和子步骤2,其中,曾经被分配到检验组中的统一格式的基础数据不再被分配到检验组中,确保每个统一格式的基础数据都曾在检验组中对被学习组中数据冲刷过的模型做过验证,直至获得所有统一格式的基础数据对应的验证结果;
子步骤4,解算所有统一格式的基础数据验证结果的总通过率,当总通过率大于70%时,所述统一格式的基础数据符合要求,否则删除所述统一格式的基础数据,重复步骤1和步骤2;
步骤4中得到可用数据包括如下子步骤:
子步骤a,多次重复子步骤1-3,每次重复子步骤1时都得到由不同的统一格式的基础数据组成的检验组;使得每个统一格式的基础数据都对应有多个验证结果,再分别解算每个统一格式的基础数据对应的平均通过率;
子步骤b,找到并隐藏1例平均通过率最低的统一格式的基础数据,利用剩余的统一格式的基础数据再次执行子步骤1-4,观察总通过率相较于隐藏数据前是否提高,如果总通过率提高,则删除该被隐藏的统一格式的基础数据,并执行子步骤C;如果总通过率未提高,则恢复被隐藏的数据,挑选并隐藏平均通过率第二低的统一格式的基础数据,重复以上过程,直至总通过率提高;
子步骤c,在总通过率提高后,以剩余的统一格式的基础数据为基础,重复子步骤a和子步骤b,发现总通过率提高后再以当前剩余的统一格式的基础数据为基础,继续重复子步骤a和子步骤b,直至总通过率达到80%以上,或者删除的统一格式的基础数据达到总的统一格式的基础数据的10%时为止,此时剩余的统一格式的基础数据即为可用数据。
2.根据权利要求1所述的基于心脏/脉搏间期的情绪状态客观测量方法,其特征在于,
所述收集设备包括可穿戴手环和智能手表。
3.根据权利要求1所述的基于心脏/脉搏间期的情绪状态客观测量方法,其特征在于,
在步骤5中,获得预测模型的过程中,将每个可用数据中的综合神经活动指标数据与情绪唤醒数据拼接成一个数据段,作为学习材料,通过机器学习获得情绪唤醒预测模型。
4.根据权利要求3所述的基于心脏/脉搏间期的情绪状态客观测量方法,其特征在于,
在步骤5中,使用综合神经活动指标和标签数据建立3-4层结构的神经网络、C4.5决策树和XGBoost三种模型,从而得到预测模型,该预测模型的输出为三种模型输出中最为接近的两个输出值的平均值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010881177.2A CN114098729B (zh) | 2020-08-27 | 2020-08-27 | 基于心脏间期的情绪状态客观测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010881177.2A CN114098729B (zh) | 2020-08-27 | 2020-08-27 | 基于心脏间期的情绪状态客观测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114098729A CN114098729A (zh) | 2022-03-01 |
CN114098729B true CN114098729B (zh) | 2023-11-10 |
Family
ID=80375005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010881177.2A Active CN114098729B (zh) | 2020-08-27 | 2020-08-27 | 基于心脏间期的情绪状态客观测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114098729B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116725538B (zh) * | 2023-08-11 | 2023-10-27 | 深圳市昊岳科技有限公司 | 一种基于深度学习的手环情绪识别方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104112055A (zh) * | 2013-04-17 | 2014-10-22 | 深圳富泰宏精密工业有限公司 | 情绪分析显示系统及方法 |
CN104715129A (zh) * | 2013-12-13 | 2015-06-17 | 中国科学院心理研究所 | 基于移动设备使用行为的心理健康状态评估系统和方法 |
WO2016054842A1 (zh) * | 2014-10-09 | 2016-04-14 | 湖南大学 | 一种混合孤岛检测方法 |
CN106293074A (zh) * | 2016-07-29 | 2017-01-04 | 维沃移动通信有限公司 | 一种情绪识别方法和移动终端 |
WO2017000828A1 (zh) * | 2015-07-02 | 2017-01-05 | 阿里巴巴集团控股有限公司 | 基于规则的数据对象验证方法、装置、系统及电子设备 |
CN106845242A (zh) * | 2016-08-26 | 2017-06-13 | 中国科学院信息工程研究所 | 一种基于is4软件特征的隐藏信息检测及提取方法 |
CN108805089A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态的情绪识别方法 |
CN109567832A (zh) * | 2018-11-06 | 2019-04-05 | 长安大学 | 一种基于智能手环的检测愤怒驾驶状态的方法及系统 |
CN110037693A (zh) * | 2019-04-24 | 2019-07-23 | 中央民族大学 | 一种基于面部表情和eeg的情绪分类方法 |
CN110189171A (zh) * | 2019-05-27 | 2019-08-30 | 北京金山安全软件有限公司 | 特征数据的生成方法、装置及设备 |
WO2019180452A1 (en) * | 2018-03-21 | 2019-09-26 | Limbic Limited | Emotion data training method and system |
CN110298301A (zh) * | 2019-04-17 | 2019-10-01 | 国网江苏省电力有限公司 | 一种组织人员心态预测方法 |
CN110621228A (zh) * | 2017-05-01 | 2019-12-27 | 三星电子株式会社 | 使用基于相机的感测来确定情绪 |
CN110866537A (zh) * | 2019-09-27 | 2020-03-06 | 华南理工大学 | 一种基于脑电波的用于游戏评估的情感识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10285634B2 (en) * | 2015-07-08 | 2019-05-14 | Samsung Electronics Company, Ltd. | Emotion evaluation |
JP6985005B2 (ja) * | 2015-10-14 | 2021-12-22 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体 |
-
2020
- 2020-08-27 CN CN202010881177.2A patent/CN114098729B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104112055A (zh) * | 2013-04-17 | 2014-10-22 | 深圳富泰宏精密工业有限公司 | 情绪分析显示系统及方法 |
CN104715129A (zh) * | 2013-12-13 | 2015-06-17 | 中国科学院心理研究所 | 基于移动设备使用行为的心理健康状态评估系统和方法 |
WO2016054842A1 (zh) * | 2014-10-09 | 2016-04-14 | 湖南大学 | 一种混合孤岛检测方法 |
WO2017000828A1 (zh) * | 2015-07-02 | 2017-01-05 | 阿里巴巴集团控股有限公司 | 基于规则的数据对象验证方法、装置、系统及电子设备 |
CN106293074A (zh) * | 2016-07-29 | 2017-01-04 | 维沃移动通信有限公司 | 一种情绪识别方法和移动终端 |
CN106845242A (zh) * | 2016-08-26 | 2017-06-13 | 中国科学院信息工程研究所 | 一种基于is4软件特征的隐藏信息检测及提取方法 |
CN110621228A (zh) * | 2017-05-01 | 2019-12-27 | 三星电子株式会社 | 使用基于相机的感测来确定情绪 |
WO2019180452A1 (en) * | 2018-03-21 | 2019-09-26 | Limbic Limited | Emotion data training method and system |
CN108805089A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态的情绪识别方法 |
CN109567832A (zh) * | 2018-11-06 | 2019-04-05 | 长安大学 | 一种基于智能手环的检测愤怒驾驶状态的方法及系统 |
CN110298301A (zh) * | 2019-04-17 | 2019-10-01 | 国网江苏省电力有限公司 | 一种组织人员心态预测方法 |
CN110037693A (zh) * | 2019-04-24 | 2019-07-23 | 中央民族大学 | 一种基于面部表情和eeg的情绪分类方法 |
CN110189171A (zh) * | 2019-05-27 | 2019-08-30 | 北京金山安全软件有限公司 | 特征数据的生成方法、装置及设备 |
CN110866537A (zh) * | 2019-09-27 | 2020-03-06 | 华南理工大学 | 一种基于脑电波的用于游戏评估的情感识别方法 |
Non-Patent Citations (4)
Title |
---|
Li, F., Xu, P., Zheng, S..Photoplethysmography based psychological stress detection with pulse rate variability feature differences and elastic net.《International Journal of Distributed Sensor Networks》.2018,第1-14页. * |
李昌竹,郑士春,陆梭等.心率变异性与人格的神经质之间关系研究.《心理与行为研究》.2020,275-280. * |
杨照芳.心跳间期和皮肤电信号中的情感响应模式研究.《中国博士学位论文全文数据库》.2015,第F102-11页. * |
陈明.《大数据技术概论》.北京:中国铁道出版社,2019,第120-121页. * |
Also Published As
Publication number | Publication date |
---|---|
CN114098729A (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hovsepian et al. | cStress: towards a gold standard for continuous stress assessment in the mobile environment | |
Li et al. | Eustress or distress: An empirical study of perceived stress in everyday college life | |
CN109843163A (zh) | 用于标记睡眠状态的方法和系统 | |
Alharthi et al. | Gait spatiotemporal signal analysis for Parkinson’s disease detection and severity rating | |
Dobbins et al. | Signal processing of multimodal mobile lifelogging data towards detecting stress in real-world driving | |
Vos et al. | Generalizable machine learning for stress monitoring from wearable devices: A systematic literature review | |
CN111067503A (zh) | 一种基于心率变异性的睡眠分期方法 | |
Kuo et al. | Automatic sleep staging based on a hybrid stacked LSTM neural network: verification using large-scale dataset | |
AU2018285950A1 (en) | Mental state indicator | |
Paisarnsrisomsuk et al. | Deep Sleep: Convolutional neural networks for predictive modeling of human sleep time-signals | |
CN115670460A (zh) | 一种心境状态监测方法、装置及存储介质 | |
Baldominos et al. | Optimizing EEG energy-based seizure detection using genetic algorithms | |
CN114098729B (zh) | 基于心脏间期的情绪状态客观测量方法 | |
CN113076347B (zh) | 移动终端上基于情绪的推送程序筛选系统及筛选方法 | |
Lopes et al. | Ensemble deep neural network for automatic classification of EEG independent components | |
Tiwari et al. | Stress and anxiety measurement" in-the-wild" using quality-aware multi-scale hrv features | |
CN113143274A (zh) | 基于摄像头的情绪预警方法 | |
Muaremi et al. | Monitor pilgrims: prayer activity recognition using wearable sensors | |
CN113081656B (zh) | 智能按摩椅及其控制方法 | |
Mahesh et al. | Cognitive Based Attention Deficit Hyperactivity Disorder Detection with Ability Assessment Using Auto Encoder Based Hidden Markov Model | |
Chen et al. | Beat-to-beat heart rate detection based on seismocardiogram using BiLSTM network | |
Boruah et al. | Expert system to manage Parkinson disease by identifying risk factors: TD-Rules-PD | |
Mahesworo et al. | Sleep quality and daily activity association assessment from wearable device data | |
Prabhu et al. | A multi-layered LSTM for predicting physician stress during an ED shift | |
Li et al. | Recurrence Plots of Mother-Child Autonomic Nervous System Predict Mother's Stress |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220317 Address after: 100101 courtyard 16, lincui Road, Chaoyang District, Beijing Applicant after: INSTITUTE OF PSYCHOLOGY, CHINESE ACADEMY OF SCIENCES Address before: 100089 No. 606, 5th floor, building 1, No. 19, Middle West Fourth Ring Road, Haidian District, Beijing Applicant before: Beijing JingZhan Information Technology Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |