CN109124619A - 一种使用多通道信息融合的个人情感唤醒度识别方法 - Google Patents

一种使用多通道信息融合的个人情感唤醒度识别方法 Download PDF

Info

Publication number
CN109124619A
CN109124619A CN201710456459.6A CN201710456459A CN109124619A CN 109124619 A CN109124619 A CN 109124619A CN 201710456459 A CN201710456459 A CN 201710456459A CN 109124619 A CN109124619 A CN 109124619A
Authority
CN
China
Prior art keywords
arousal
signal
emotion
individual
electrocardiosignal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710456459.6A
Other languages
English (en)
Inventor
赖祥伟
刘光远
路晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest University
Original Assignee
Southwest University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest University filed Critical Southwest University
Priority to CN201710456459.6A priority Critical patent/CN109124619A/zh
Publication of CN109124619A publication Critical patent/CN109124619A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Cardiology (AREA)
  • Mathematical Physics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种使用人体心电信号(EEG),皮肤电信号(EDA),声音信号和面部视频信号进行个人情感唤醒度识别的方法。本方法采集被测试个体的心电、皮肤电、声音和面部视频信号,从中提取22个信号特征作为训练数据;由专业人员对个体情感唤醒度水平进行评分作为评价数据;对训练数据依次进行特征提取和特征数据标准化处理;使用处理后的训练数据和评价数据训练得到支持向量机回归模型(SVR)预测识别模型。在进行情感唤醒度预测识别时,向训练得到的模型输入信号数据,使用该模型预测识别该个体的情感唤醒度状态水平。

Description

一种使用多通道信息融合的个人情感唤醒度识别方法
技术领域
本发明是一种人类情感唤醒度识别的方法。主要涉及计算机科学和心理学的相关技术领域。
背景技术
James A. Russel在1980年提出了Arousal-Valence情感模型(如附图1),目前该模型是心理学界进行情感度量的重要模型之一。该模型主要采用唤醒度(arousal)和效价(valence)作为度量指标来衡量人类情感状态。其中, “唤醒” 是指生理或心理被吵醒或是对外界刺激重新产生反应。激活脑干,自律神经系统和内分泌系统,使得机体提高心率和血压准备接受外界刺激、运动和反应。唤醒性情绪包括:悲伤、愤怒和愉悦等。情感唤醒度是人类情感被唤醒程度高低的度量,在本方法中,我们将情感唤醒度定义在[-1,1]数学空间,其中-1表示负面情感唤醒度最大值,0表示没有唤醒,1表示正面情感唤醒度最大值。所以唤醒度的识别是进行情感状态和水平识别的重要一环。
情感识别是实现和谐人机交互的关键技术,其目的是赋予计算机识别用户情感的能力。来自社会和认知心理学的研究表明在相关的外界刺激下,情感能够快速地、轻易地、自动地甚至无意识地唤起。情感计算最初由美国麻省理工学院的Picard教授在1997年提出的。情感计算的目标是赋予计算机感知、理解与表达情感的能力, 从而与人更加主动、友好、声情并茂地交流。随后, 情感计算迅速引起人工智能与计算机领域专家的兴趣, 并成为近几年一个崭新的、充满希望的研究领域。情感计算的提出与迅速发展, 一方面是由于人机交互和谐性的要求, 希望计算机像人一样不但具备听、说、看、读的能力, 而且能够理解与表达喜、怒、哀、乐等情绪;另一方面也是基于强计算主义的心理, 希望把计算延伸至人的内心世界。
情感计算提出后,基于面部表情、语音、姿势和生理信号的情感识别在得到广泛研究。语音是人类情感的重要外在表现,有效体现人类的情感状态和变化情况。Tomkins指出面部活动在情感体验中扮演了重要角色。Picard认为,基于生理信号的情感识别更接近于情感的内在心理感受。Ekman的团队最先在1983年的Science上发文陈述了离散情感可区分性的证据。其中心电(ECG)和皮肤电(EDA)是反映人的交感神经兴奋变化的最有效、最敏感的生理指标,是国际上最早最广泛应用并得到普遍承认的多导心理测试指标。综合利用上述信息进行情感唤醒度的识别是未来技术发展的重要趋势。
同时,由于人类个体之间的生理结构和心理水平存在较大的差异,以往的研究往往试图建立普适性的情感识别模型,这必然导致识别水平的下降,使得技术缺乏实用性。因此,本技术的针对不同的人类个体建立正对特定个体的情感唤醒度识别模型,以提高识别的准确性和实用性。
发明内容
本发明的内容是提供一种使用多通道信息融合的个人情感唤醒度识别的方法。
为了得到上述目的,采用以下技术方案:采集个体基本数据建立情感唤醒度识别模型,该方法主要包括如下步骤。
S1:通过前期数据采集,得到被试个体在不同情感状态下的心电信号(EEG),皮肤电信号(EDA),声音信号(Audio)和面部视频信号(Video),共10个样本,每个样本时间在180-300秒不等。
S2:由3名专业人员使用对用户唤醒度状态进行评价。
S3:计算提取对应信号的数值特征,生理信号(ECG,EDA)计算时间窗口长度为0.02秒,音频信号参数计算时间窗口长度为0.05秒,视频信号计算时间窗口长度为0.2秒,主要使用的22个特征包括:
表1 情感唤醒度评估信号特征数据类型。
S4:对所有信号特征进行标准化处理得到模型训练数据,以便能够提高模型训练的准确性,避免模型训练过拟合。
S5:使用S4中获得的标准化训练数据和S2中获得的评价数据,训练支持向量机回归识别模型(SVR),从而获得针对该被试个体的情感唤醒度识别模型。并将训练好的识别模型进行参数化保存。
在获得情感唤醒度识别模型后,在需要进行情感唤醒度预测/检测时,按照以下步骤进行情感唤醒度检测。
S1:实时采集的心电信号(EEG),皮肤电信号(EDA),声音信号(Audio)和面部视频信号(Video)。
S2:提取如表1所示的唤醒度识别特征值。
S3:对提取得到的特征值进行数据标准化处理。
S4:将计算提取获得的特征值输入情感唤醒度识别模型,由该模型计算出被试个体在当前状态下的情感唤醒度水平。
本发明的主要特点包括。
(1)通过前期研究,在各种数据的200余个数据特征中,使用特征选择技术,确定了用于情感唤醒度识别效果最好的22个信号特征,从而极大的降低了计算复杂度,提高了计算效率。
(2)建立的模型针对特定个人,能够有效避免由于个体差异带来的识别误差,很好的提高了识别的有效性和准确性。
(3)该方法适用于所有人类个体,能够针对每个个体的实际情况,建立具有较高识别率的独立情感唤醒度识别模型。
附图说明
图1为Arousal-Valence情感模型示意图。
图2为情感唤醒度信号采集示意图。
图3为情感唤醒度预测值与评估值对比图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的阐述。
1. 个人情感唤醒度预测识别模型建立方法,该方法主要实在预测之前通过预先采集个人情感唤醒度信号,进行数据预处理,并使用采集的数据训练针对该个体的情感唤醒度预测识别支持向量机回归模型,以提供后续实时预测识别使用。
(1-1) 训练数据采集与获取
被试前期需要根据自身回忆,在采集环境中讲述自己记忆最为深刻的经历,建议被试讲述中包括高兴,悲伤,愤怒,恐惧等典型情感状态事件。在讲述过程中使用美国Biopac公司提供的多导生理记录仪MP150。该仪器采集出ECG信号和EDA信号。使用麦克风记录被试语音信号,使用摄像头记录被试个体的面部表情图像(如附图2所示)。训练数据采集量不少于30分钟。
(1-2)情感唤醒度评价数据采集
由3名经过训练的人员(心理学专业)观看被试视频,收听被试表述,对不同时刻被试情感唤醒度进行评分,评分范围为[-1,1],评分数据保留小数点后两位,其中-1表示负面情感唤醒度最大值,0表示没有唤醒,1表示正面情感唤醒度最大值。取3人评分平均分作为该时刻唤醒度评价值。
(1-3)提取被试信号特征
对于采集到的心电信号(EEG),皮肤电信号(EDA),声音信号(Audio)和面部视频信号(Video)计算如表1所示的信号特征。
(1-4)对计算得到的信号特征进行数据标准化
为了避免由于特征数据量值大小差异造成的过拟合等问题,采用标准数据归一化方法对(1-3)中计算得到的特征数据进行标准化。该方法将原始数据归一化成均值为0、方差1的数据,归一化公式如下:
其中,μ和σ分别为原始数据的均值和方差。
(1-5)训练个人情感唤醒度识别模型
使用(1-4)中计算得到的标准化特征值作为训练数据,(1-2)中的情感唤醒度评价值作为评价数据,进行支持向量机回归模型(SVR)训练。最终得到针对该被试个人的情感唤醒度识别模型。将所有训练好的模型参数保存,作为后续实时预测的回归计算模型。该支持向量机的损失函数度量为:
根据该损失函数,可以定义对应的目标函数为:
回归模型训练数据量要求不少于30分钟数据量。
2,进行实时情感唤醒度预测,该方法主要通过实时采集和计算唤醒度想关情感信号特征,使用之前建立的情感唤醒度预测计算模型计算出该时刻的情感唤醒度数值。
(2-1)使用与(1-1)相同的设备采集个体实时心电信号(EEG),皮肤电信号(EDA),声音信号(Audio)和面部视频信号(Video)。
(2-2)计算提取如表1所示的信号特征。
(2-3)对信号特征进行数据标准化处理,得到标准化后的信号特征值。
(2-4)读取(1-5)中训练得到的个人情感唤醒度预测识别模型,将标准化后的信号特征值作为输入,计算得到该时刻个人情感唤醒度预测值。
在已有的实验中,该方法的预测效果已经达到了较好的水平(如附图3所示)。其中,实线为情感唤醒度评估值(即人为评估值),虚线为情感唤醒度预测值(即使用上述方法计算得到的预测值)。通过对于实验数据的分析可以发现,预测结果有效性为81.34%。同时,由于在传统的心理学评估中主要关注情感唤醒度变化趋势和取值区间,少量的数值误差并不影响其预测值的使用。

Claims (2)

1.一种使用多通道信息融合的个体情感唤醒度识别模型建立方法,该方法的特征在于其包括如下步骤:
S1:按照特定采样频率采集需要识别个体在多个情感状态下的心电信号,皮肤电信号,声音信号和面部视频信号作为模型训练数据;
S2:由3名专业技术人员根据个体的语音和面部表情状态对个体进行情感唤醒度连续评价,获得对应信息的唤醒度评价值,作为训练标签数据;
S3:使用采集到的心电信号、皮肤电信号、声音信号和面部视频信号,计算唤醒度识别相关的22个基本信号特征数据,心电信号和皮肤电信号计算时间窗口长度为0.02秒,音频信号参数计算时间窗口长度为0.05秒,视频信号计算时间窗口长度为0.2秒,需要计算的信号特征包括:心率值,心电信号过零率,心电信号一阶傅立叶变换值,心电信号一阶傅立叶变换值频率均值,心电信号标准差,心电信号峰态系数,心电信号偏度,非线性心律变化率,视频2阶动态单元值,视频滚动数据,皮肤电信号傅立叶变换频率均值,皮肤电活动均值,皮肤电活动双重负向均值,皮肤传导水平X轴数值范围,非线性皮肤电活动变化率,皮肤传导水平均值,皮肤传导水平双重负向均值,皮肤传导水平特征,皮肤传导水平X轴数值范围,语音谐波噪声率均值,语音基频均值,语音归一化振幅商;
S4:对计算得到的22个特征进行数据标准化处理,将特征值和唤醒度评价值标准化到-1~1的数学区间;
S5:使用上述得到的特征数据和唤醒度评价数据进行支持向量机回归预测模型(SVR)训练,训练得到针对该个体的情感唤醒度识别支持向量机回归预测模型。
2.使用权利1要求的个体情感唤醒度识别模型进行情感唤醒度预测时的方法,该方法的特征在于其主要包括如下步骤:
S1:按照与预测识别模型相同的采样频率采集得到的该个体心电信号、皮肤电信号、声音信号和面部视频信号;
S2:提取出信号的对应22个特征数据;
S3:对提取得到的特征数据进行标准化处理;
S4:将特征数据输入由权力1要求方法得到的情感唤醒度识别模型,由该模型计算出被检测个体的对应情感唤醒度值。
CN201710456459.6A 2017-06-16 2017-06-16 一种使用多通道信息融合的个人情感唤醒度识别方法 Pending CN109124619A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710456459.6A CN109124619A (zh) 2017-06-16 2017-06-16 一种使用多通道信息融合的个人情感唤醒度识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710456459.6A CN109124619A (zh) 2017-06-16 2017-06-16 一种使用多通道信息融合的个人情感唤醒度识别方法

Publications (1)

Publication Number Publication Date
CN109124619A true CN109124619A (zh) 2019-01-04

Family

ID=64830341

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710456459.6A Pending CN109124619A (zh) 2017-06-16 2017-06-16 一种使用多通道信息融合的个人情感唤醒度识别方法

Country Status (1)

Country Link
CN (1) CN109124619A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111413874A (zh) * 2019-01-08 2020-07-14 北京京东尚科信息技术有限公司 用于控制智能设备的方法、装置和系统
CN113349778A (zh) * 2021-06-03 2021-09-07 杭州回车电子科技有限公司 基于经颅直流电刺激的情绪分析方法、装置和电子装置
CN114403877A (zh) * 2022-01-21 2022-04-29 中山大学 基于二维连续模型的多生理信号情绪定量评估方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104434143A (zh) * 2014-11-18 2015-03-25 西南大学 一种恐惧情感的实时识别方法
US20150182130A1 (en) * 2013-12-31 2015-07-02 Aliphcom True resting heart rate
CN106580346A (zh) * 2015-10-14 2017-04-26 松下电器(美国)知识产权公司 情绪推定方法和情绪推定装置
CN106803098A (zh) * 2016-12-28 2017-06-06 南京邮电大学 一种基于语音、表情与姿态的三模态情感识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150182130A1 (en) * 2013-12-31 2015-07-02 Aliphcom True resting heart rate
CN104434143A (zh) * 2014-11-18 2015-03-25 西南大学 一种恐惧情感的实时识别方法
CN106580346A (zh) * 2015-10-14 2017-04-26 松下电器(美国)知识产权公司 情绪推定方法和情绪推定装置
CN106803098A (zh) * 2016-12-28 2017-06-06 南京邮电大学 一种基于语音、表情与姿态的三模态情感识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨照芳: "心跳间期和皮肤电信号中的情感响应模研究", 《中国博士学位论文全文数据库 哲学与人文科学辑》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111413874A (zh) * 2019-01-08 2020-07-14 北京京东尚科信息技术有限公司 用于控制智能设备的方法、装置和系统
CN111413874B (zh) * 2019-01-08 2021-02-26 北京京东尚科信息技术有限公司 用于控制智能设备的方法、装置和系统
CN113349778A (zh) * 2021-06-03 2021-09-07 杭州回车电子科技有限公司 基于经颅直流电刺激的情绪分析方法、装置和电子装置
CN114403877A (zh) * 2022-01-21 2022-04-29 中山大学 基于二维连续模型的多生理信号情绪定量评估方法

Similar Documents

Publication Publication Date Title
Bota et al. A review, current challenges, and future possibilities on emotion recognition using machine learning and physiological signals
Giannakakis et al. Review on psychological stress detection using biosignals
Schmidt et al. Introducing wesad, a multimodal dataset for wearable stress and affect detection
CN110507335B (zh) 基于多模态信息的服刑人员心理健康状态评估方法及系统
Zhai et al. Stress detection in computer users based on digital signal processing of noninvasive physiological variables
Nie et al. EEG-based emotion recognition during watching movies
CN107239769A (zh) 一种使用多通道信息融合的个人情感效价识别方法
Li et al. Emotion recognition using physiological signals
Knapp et al. Physiological signals and their use in augmenting emotion recognition for human–machine interaction
Zuo et al. Comparison of three different types of wrist pulse signals by their physical meanings and diagnosis performance
Li et al. Differences in photoplethysmography morphological features and feature time series between two opposite emotions: Happiness and sadness
CN103111006A (zh) 智能心情调整仪
CN113197579A (zh) 一种基于多模态信息融合的智能心理评估方法及系统
Jiang et al. Wearable long-term social sensing for mental wellbeing
Gaballah et al. Context-aware speech stress detection in hospital workers using Bi-LSTM classifiers
CN109124619A (zh) 一种使用多通道信息融合的个人情感唤醒度识别方法
Basu et al. Effects of emotion on physiological signals
CN107292296A (zh) 一种使用脑电信号的人类情感唤醒度分类识别方法
CN104367306A (zh) 生理心理职业测评系统及实现方法
Niemann et al. Towards a multimodal multisensory cognitive assessment framework
Li et al. Multi-modal emotion recognition based on deep learning of EEG and audio signals
Wang et al. Emotionsense: An adaptive emotion recognition system based on wearable smart devices
AU2021101097A4 (en) A system and method for automatic playlist generation by analysing human emotions through physiological signals
An et al. Mental health detection from speech signal: A convolution neural networks approach
Gu et al. Wearable social sensing and its application in anxiety assesment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190104