CN107239769A - 一种使用多通道信息融合的个人情感效价识别方法 - Google Patents
一种使用多通道信息融合的个人情感效价识别方法 Download PDFInfo
- Publication number
- CN107239769A CN107239769A CN201710459366.9A CN201710459366A CN107239769A CN 107239769 A CN107239769 A CN 107239769A CN 201710459366 A CN201710459366 A CN 201710459366A CN 107239769 A CN107239769 A CN 107239769A
- Authority
- CN
- China
- Prior art keywords
- potency
- emotion
- signal
- individual
- electrocardiosignal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/15—Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种使用人体心电信号(EEG),皮肤电信号(EDA),声音信号和面部视频信号进行个人情感效价识别的方法。本方法采集被测试个体的心电、皮肤电、声音和面部视频信号作为训练数据;由专业人员对个体情感效价水平进行评分作为评价数据;提取训练信号中与效价表现相关的23个典型特征,然后特征数据标准化处理;使用处理后的训练数据和评价数据训练得到支持向量机回归模型(SVR)预测识别模型。在进行情感效价预测识别时,向训练得到的模型输入信号数据,使用该模型预测识别该个体的情感效价状态水平。
Description
技术领域
本发明是一种人类情感效价识别的方法。主要涉及计算机科学和心理学的相关技术领域。
背景技术
James A. Russel在1980年提出了Arousal-Valence情感模型(如附图1),目前该模型是心理学界进行情感度量的重要模型之一。该模型主要采用唤醒度(arousal)和效价(valence)作为度量指标来衡量人类情感状态。其中, 情绪效价用以衡量正性的和负性的情感状态,表示情感激活的类型。在本方法中,我们将情感效价定义在[-1,1]数学空间,其中-1表示唤起负面情感效价最大值,0表示没有没有情感唤起,1表示唤起正面情感效价最大值。所以效价的识别是进行情感状态识别的重要一环。
情感识别是实现和谐人机交互的关键技术,其目的是赋予计算机识别用户情感的能力。来自社会和认知心理学的研究表明在相关的外界刺激下,情感能够快速地、轻易地、自动地甚至无意识地唤起。情感计算最初由美国麻省理工学院的Picard教授在1997年提出的。情感计算的目标是赋予计算机感知、理解与表达情感的能力, 从而与人更加主动、友好、声情并茂地交流。随后, 情感计算迅速引起人工智能与计算机领域专家的兴趣, 并成为近几年一个崭新的、充满希望的研究领域。情感计算的提出与迅速发展, 一方面是由于人机交互和谐性的要求, 希望计算机像人一样不但具备听、说、看、读的能力, 而且能够理解与表达喜、怒、哀、乐等情绪;另一方面也是基于强计算主义的心理, 希望把计算延伸至人的内心世界。
语音是人类情感的重要外在表现,有效体现人类的情感状态和变化情况。Tomkins指出面部活动在情感体验中扮演了重要角色。Picard认为,基于生理信号的情感识别更接近于情感的内在心理感受。Ekman的团队最先在1983年的Science上发文陈述了离散情感可区分性的证据。其中心电(ECG)和皮肤电(EDA)是反映人的交感神经兴奋变化的最有效、最敏感的生理指标,是国际上最早最广泛应用并得到普遍承认的多导心理测试指标。综合利用上述信息进行情感效价的识别是未来技术发展的重要趋势。
由于人类个体之间的生理结构和心理水平存在较大的差异,以往的研究往往试图建立普适性的情感识别模型,这必然导致识别水平的下降,使得技术缺乏实用性。因此,本技术针对不同的人类个体建立针对特定个体的情感效价识别模型,以提高识别的准确性和实用性。
发明内容
本发明的内容是提供一种使用多通道信息融合的个人情感效价识别的方法。
为了得到上述目的,采用以下技术方案:采集个体基本数据建立情感效价识别模型,该方法主要包括如下步骤。
S1:通过情感唤起实验采集被试个体在不同情感状态下的心电信号(EEG),皮肤电信号(EDA),声音信号(Audio)和面部视频信号(Video),样本数量不少于10个,每个样本时间不小于60秒(如附图2)。
S2:由3名专业人员通过观看用户面部表情,听取其语音描述,对用户效价状态进行评价,作为模型训练评价数据。
S3:计算提取对应信号的数值特征,生理信号(ECG,EDA)计算时间窗口长度为0.02秒,音频信号计算时间窗口长度为0.05秒,视频信号计算时间窗口长度为0.2秒,需要计算的23个信号特征包括:
表1 情感效价评估信号特征数据类型。
S4:对所有信号特征进行标准化处理得到模型训练数据,以便能够提高模型训练的准确性,避免模型训练过拟合。
S5:使用S4中获得的标准化训练数据和S2中获得的评价数据,训练支持向量机回归识别模型(SVR),从而获得针对该被试个体的情感效价识别模型。并将训练好的识别模型进行参数化保存。
在获得情感效价识别模型后,在需要进行情感效价预测/检测时,按照以下步骤进行情感效价检测。
S1:实时采集的心电信号(EEG),皮肤电信号(EDA),声音信号(Audio)和面部视频信号(Video)。
S2:使用采集到的实时信号,提取如表1所示的效价识别信号特征值。
S3:对特征值进行数据标准化处理。
S4:将经过标准化处理的特征值输入之前训练完成的情感效价识别模型,由该模型计算出被试个体在当前状态下的情感效价水平值。
本发明的主要特点包括。
(1)通过前期研究,在各种数据的200余个数据特征中,使用特征选择技术,确定了用于情感效价识别效果最好的23个信号特征,从而极大的降低了计算复杂度,提高了计算效率。
(2)建立的效价识别模型针对特定个人,能够有效避免由于个体差异带来的识别误差,很好的提高了识别的有效性和准确性。
(3)该方法适用于所有人类个体,能够针对每个个体的实际情况,建立具有较高识别率的独立情感效价识别模型。
附图说明
图1为Arousal-Valence情感模型示意图。
图2为情感效价信号采集示意图。
图3为情感效价预测值结果与评估值对比图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的阐述。
1. 个人情感效价预测识别模型建立方法,该方法主要实在预测之前通过预先采集个人情感效价信号,进行数据预处理,并使用采集的数据训练针对该个体的情感效价预测识别支持向量机回归模型,以提供后续实时预测识别使用。
(1-1) 训练数据采集与获取
被试前期需要根据自身回忆,在采集环境中讲述自己记忆最为深刻的经历,建议被试讲述中包括高兴,悲伤,愤怒,恐惧等典型情感状态事件。在讲述过程中使用美国Biopac公司生产的多导生理记录仪MP150。使用该仪器采集个体ECG信号和EDA信号。使用麦克风记录被试语音信号,使用摄像头记录被试个体的面部表情图像(如附图2所示)。为了确保训练模型的有效性,要求训练数据采集量不少于10分钟。
(1-2)情感效价评价数据采集
由3名经过训练的人员(心理学专业)观看被试视频,收听被试表述,对不同时刻被试情感效价进行评分,评分范围为[-1,1],评分数据保留小数点后两位,其中-1表示负面情感唤起效价最大值,0表示没有情感唤起,1表示正面情感效价唤起最大值。取3人评分平均分作为该时刻效价评价值。
(1-3)提取被试信号特征
对于采集到的心电信号(EEG),皮肤电信号(EDA),声音信号(Audio)和面部视频信号(Video)计算如表1所示的信号特征。
(1-4)对计算得到的信号特征进行数据标准化
为了避免由于特征数据量值大小差异造成的过拟合等问题,采用标准数据归一化方法对(1-3)中计算得到的特征数据进行标准化。该方法将原始数据归一化成均值为0、方差1的数据,归一化公式如下:
其中,μ和σ分别为原始数据的均值和方差。
(1-5)训练个人情感效价识别模型
使用(1-4)中计算得到的标准化特征值作为训练数据,(1-2)中的情感效价评价值作为训练标签,进行支持向量机回归模型(SVR)训练。最终得到针对该被试个人的情感效价识别模型。将所有训练好的模型参数保存,作为后续实时预测的回归计算模型。该支持向量机的损失函数度量为:
根据该损失函数,可以定义对应的目标函数为:
回归模型训练数据量要求不少于10分钟数据量。
2,进行实时情感效价预测,该方法主要通过实时采集和计算效价相关情感信号特征,使用之前建立的情感效价预测计算模型计算出个体在该时刻的情感效价数值。
(2-1)使用与(1-1)相同的设备和采样频率采集个体实时心电信号(EEG),皮肤电信号(EDA),声音信号(Audio)和面部视频信号(Video)。
(2-2)使用采集到的信号数据,计算提取如表1所示的信号特征值。
(2-3)对信号特征值进行数据标准化处理,得到标准化后的信号特征值。
(2-4)读取(1-5)中训练得到的个人情感效价识别模型,将标准化后的信号特征值作为输入,计算得到该时刻个人情感效价预测值。
在已有的实验验证中,该方法的预测效果已经达到了较好的水平(如附图3所示)。其中,实线为情感效价评估值(即人为评估值),虚线为情感效价预测值(即使用上述方法计算得到的预测值)。通过对于实验数据的分析可以发现,预测结果有效性为86.81%。同时,由于在传统的心理学评估中主要关注情感效价变化趋势和取值区间,少量的数值误差并不影响其预测值的使用。
Claims (2)
1.一种使用多通道信息融合的个体情感效价识别模型建立方法,该方法的特征在于其包括如下步骤:
S1:按照特定采样频率采集需要识别个体在多个情感状态下的心电信号,皮肤电信号,声音信号和面部视频信号作为模型训练数据;
S2:由3名专业技术人员根据个体的语音和面部表情状态对个体进行情感效价连续评价,获得对应信息的效价评价值,作为训练标签数据;
S3:使用采集到的心电信号、皮肤电信号、声音信号和面部视频信号,计算效价识别相关的23个基本信号特征数据,心电信号和皮肤电信号计算时间窗口长度为0.02秒,音频信号参数计算时间窗口长度为0.05秒,视频信号计算时间窗口长度为0.2秒,需要计算的23个信号特征包括:心率值,心电信号过零率,心电信号傅立叶变换值,心电信号一阶傅立叶变换值频率均值,心电信号标准差,心电信号峰态系数,心电信号偏度,非线性心律变化率,视频偏摆数据,视频滚动数据,皮肤电信号一阶傅立叶变换值频率均值,皮肤电活动均值,皮肤活动水平特征,皮肤传导水平X轴数值范围,非线性皮肤电活动变化率,皮肤传导水平均值,皮肤传导水平双重负向均值,皮肤传导水平特征,皮肤传导水平X轴数值范围,语音信号rasta均值,语音信号脉码调制均值,语音信号梅尔频率倒谱系数均值,语音归一化振幅商;
S4:对计算得到的23个特征进行数据标准化处理,将特征值和效价评价值标准化到-1~1的数学区间;
S5:使用上述得到的特征数据和效价评价数据进行支持向量机回归预测模型(SVR)训练,训练得到针对该个体的情感效价识别支持向量机回归预测模型。
2.使用权利1要求的个体情感效价识别模型进行情感效价预测的方法,该方法的特征在于其主要包括如下步骤:
S1:按照与预测识别模型相同的采样频率采集得到的该个体心电信号、皮肤电信号、声音信号和面部视频信号;
S2:提取出信号的对应23个特征数值;
S3:对提取得到的特征数据进行标准化处理;
S4:将特征数据输入由权力1要求方法得到的情感效价识别模型,由该模型计算出被检测个体的对应情感效价值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710459366.9A CN107239769A (zh) | 2017-06-16 | 2017-06-16 | 一种使用多通道信息融合的个人情感效价识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710459366.9A CN107239769A (zh) | 2017-06-16 | 2017-06-16 | 一种使用多通道信息融合的个人情感效价识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107239769A true CN107239769A (zh) | 2017-10-10 |
Family
ID=59987900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710459366.9A Pending CN107239769A (zh) | 2017-06-16 | 2017-06-16 | 一种使用多通道信息融合的个人情感效价识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107239769A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108364662A (zh) * | 2017-12-29 | 2018-08-03 | 中国科学院自动化研究所 | 基于成对鉴别任务的语音情感识别方法与系统 |
CN108563324A (zh) * | 2018-03-04 | 2018-09-21 | 天津大学 | 一种面向过程控制的运动想象脑-机接口设计方法 |
CN108646914A (zh) * | 2018-04-27 | 2018-10-12 | 安徽斛兵信息科技有限公司 | 一种多模态的情感数据收集方法及装置 |
CN108937968A (zh) * | 2018-06-04 | 2018-12-07 | 安徽大学 | 基于独立分量分析的情感脑电信号的导联选择方法 |
CN109670406A (zh) * | 2018-11-25 | 2019-04-23 | 华南理工大学 | 一种结合心率与面部表情面向游戏用户的非接触式情感识别方法 |
CN113017630A (zh) * | 2021-03-02 | 2021-06-25 | 贵阳像树岭科技有限公司 | 一种视觉感知情绪识别方法 |
CN113288099A (zh) * | 2021-07-08 | 2021-08-24 | 西南大学 | 基于心电信号和光电容积脉搏波的面孔吸引力识别方法 |
CN114403877A (zh) * | 2022-01-21 | 2022-04-29 | 中山大学 | 基于二维连续模型的多生理信号情绪定量评估方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440863A (zh) * | 2013-08-28 | 2013-12-11 | 华南理工大学 | 一种基于流形的语音情感识别方法 |
CN104835507A (zh) * | 2015-03-30 | 2015-08-12 | 渤海大学 | 一种串并结合的多模式情感信息融合与识别方法 |
KR101719546B1 (ko) * | 2015-10-08 | 2017-03-27 | 세종대학교산학협력단 | 뇌파 및 심전도 복합 생체신호를 이용한 실시간 감정인식 인터페이스를 위한 방법 및 그 시스템 |
CN106691475A (zh) * | 2016-12-30 | 2017-05-24 | 中国科学院深圳先进技术研究院 | 情感识别模型生成方法及装置 |
CN106803098A (zh) * | 2016-12-28 | 2017-06-06 | 南京邮电大学 | 一种基于语音、表情与姿态的三模态情感识别方法 |
-
2017
- 2017-06-16 CN CN201710459366.9A patent/CN107239769A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103440863A (zh) * | 2013-08-28 | 2013-12-11 | 华南理工大学 | 一种基于流形的语音情感识别方法 |
CN104835507A (zh) * | 2015-03-30 | 2015-08-12 | 渤海大学 | 一种串并结合的多模式情感信息融合与识别方法 |
KR101719546B1 (ko) * | 2015-10-08 | 2017-03-27 | 세종대학교산학협력단 | 뇌파 및 심전도 복합 생체신호를 이용한 실시간 감정인식 인터페이스를 위한 방법 및 그 시스템 |
CN106803098A (zh) * | 2016-12-28 | 2017-06-06 | 南京邮电大学 | 一种基于语音、表情与姿态的三模态情感识别方法 |
CN106691475A (zh) * | 2016-12-30 | 2017-05-24 | 中国科学院深圳先进技术研究院 | 情感识别模型生成方法及装置 |
Non-Patent Citations (2)
Title |
---|
白洁 等: "归一化振幅商在语音情感识别中的应用", 《计算机仿真》 * |
程静: "基本情感生理信号的非线性特征提取研究", 《中国博士学位论文全文数据库 哲学与人文科学辑》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108364662A (zh) * | 2017-12-29 | 2018-08-03 | 中国科学院自动化研究所 | 基于成对鉴别任务的语音情感识别方法与系统 |
CN108563324A (zh) * | 2018-03-04 | 2018-09-21 | 天津大学 | 一种面向过程控制的运动想象脑-机接口设计方法 |
CN108646914A (zh) * | 2018-04-27 | 2018-10-12 | 安徽斛兵信息科技有限公司 | 一种多模态的情感数据收集方法及装置 |
CN108937968A (zh) * | 2018-06-04 | 2018-12-07 | 安徽大学 | 基于独立分量分析的情感脑电信号的导联选择方法 |
CN109670406A (zh) * | 2018-11-25 | 2019-04-23 | 华南理工大学 | 一种结合心率与面部表情面向游戏用户的非接触式情感识别方法 |
CN113017630A (zh) * | 2021-03-02 | 2021-06-25 | 贵阳像树岭科技有限公司 | 一种视觉感知情绪识别方法 |
CN113288099A (zh) * | 2021-07-08 | 2021-08-24 | 西南大学 | 基于心电信号和光电容积脉搏波的面孔吸引力识别方法 |
CN114403877A (zh) * | 2022-01-21 | 2022-04-29 | 中山大学 | 基于二维连续模型的多生理信号情绪定量评估方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107239769A (zh) | 一种使用多通道信息融合的个人情感效价识别方法 | |
CN110507335B (zh) | 基于多模态信息的服刑人员心理健康状态评估方法及系统 | |
CN109273085B (zh) | 病理呼吸音库的建立方法、呼吸疾病的检测系统及处理呼吸音的方法 | |
US20140155773A1 (en) | Methods and apparatus for performing dynamic respiratory classification and tracking | |
JP2015514456A (ja) | 患者音を処理するための方法および装置 | |
Gaballah et al. | Context-aware speech stress detection in hospital workers using Bi-LSTM classifiers | |
Kumar et al. | Towards cough sound analysis using the internet of things and deep learning for pulmonary disease prediction | |
CN113197579A (zh) | 一种基于多模态信息融合的智能心理评估方法及系统 | |
CN107361767A (zh) | 一种使用脑电信号的人类情感效价分类识别方法 | |
CN107479702A (zh) | 一种使用脑电信号的人类情感优势度分类识别方法 | |
WO2023216680A9 (zh) | 一种数字生物标志物的形成系统、形成方法及基于数字生物标志物的脑健康评判系统 | |
CN111920420A (zh) | 一种基于统计学习的患者行为多模态分析与预测系统 | |
CN104367306A (zh) | 生理心理职业测评系统及实现方法 | |
CN115586834A (zh) | 一种智能心肺复苏培训系统 | |
CN113040773A (zh) | 一种数据采集处理方法 | |
CN109124619A (zh) | 一种使用多通道信息融合的个人情感唤醒度识别方法 | |
Okada et al. | Dementia scale classification based on ubiquitous daily activity and interaction sensing | |
Guarin et al. | Video-based facial movement analysis in the assessment of bulbar amyotrophic lateral sclerosis: clinical validation | |
Tiwari et al. | Stress and anxiety measurement" in-the-wild" using quality-aware multi-scale hrv features | |
WO2022100187A1 (zh) | 一种基于移动端对用户的情感进行识别与监测方法 | |
Engin et al. | Extraction of low-dimensional features for single-channel common lung sound classification | |
AU2021101097A4 (en) | A system and method for automatic playlist generation by analysing human emotions through physiological signals | |
Luo et al. | Design of embedded real-time system for snoring and OSA detection based on machine learning | |
Bhave et al. | Using plants as biosensors to measure the emotions of jazz musicians | |
Gu et al. | Wearable social sensing and its application in anxiety assesment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171010 |
|
WD01 | Invention patent application deemed withdrawn after publication |