CN113855022A - 基于眼动生理信号的情绪评估方法及装置 - Google Patents
基于眼动生理信号的情绪评估方法及装置 Download PDFInfo
- Publication number
- CN113855022A CN113855022A CN202111179684.2A CN202111179684A CN113855022A CN 113855022 A CN113855022 A CN 113855022A CN 202111179684 A CN202111179684 A CN 202111179684A CN 113855022 A CN113855022 A CN 113855022A
- Authority
- CN
- China
- Prior art keywords
- emotion
- eye movement
- classification features
- classification
- physiological signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 97
- 230000004424 eye movement Effects 0.000 title claims abstract description 64
- 238000011156 evaluation Methods 0.000 title claims abstract description 15
- 238000000034 method Methods 0.000 claims abstract description 47
- 230000002996 emotional effect Effects 0.000 claims abstract description 27
- 230000000638 stimulation Effects 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 210000001747 pupil Anatomy 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 6
- 230000007935 neutral effect Effects 0.000 claims description 6
- 238000012353 t test Methods 0.000 claims description 5
- 238000002790 cross-validation Methods 0.000 claims description 4
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 9
- 238000012706 support-vector machine Methods 0.000 description 27
- 238000000513 principal component analysis Methods 0.000 description 7
- 230000002159 abnormal effect Effects 0.000 description 6
- 230000036651 mood Effects 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 4
- 208000027534 Emotional disease Diseases 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000007635 classification algorithm Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000000284 resting effect Effects 0.000 description 3
- 238000000692 Student's t-test Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Psychiatry (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Developmental Disabilities (AREA)
- Hospice & Palliative Care (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Educational Technology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本公开提供了一种基于眼动生理信号的情绪评估方法及装置,该方法包括:基于情绪刺激信号获取被测者的眼动生理信号数据;根据眼动生理信号数据提取分类特征;对分类特征进行预处理得到有效分类特征;将有效分类特征输入预训练的SVM模型得到评估结果。本公开实施例提供的基于眼动生理信号的情绪评估方法通过情绪刺激信号获取参试者的眼动生理信号数据,使得评估过程与情绪直接相关,通过预训练的SVM模型进一步提高了基于眼动生理信号的情绪评估的准确性。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及一种基于眼动生理信号的情绪评估方法及装置。
背景技术
近年来,随着以机器学习为核心的人工智能技术的发展与应用,给情绪检测领域带来了全新的革命。基于此,基于以机器学习技术为主的基于眼动生理信号的情绪评估方法得到了广泛的关注与研究。
现有技术中采用机器学习技术构建的基于眼动生理信号的情绪评估方法,通常依据生理信号(静息态fMRI、静息态EEG等)或是行为信息(语音、表情、文本等)来进行基于眼动生理信号的情绪评估,这些信号都是参试者在自然状态采集得到的,因此这些分类数据都不是与情感障碍直接相关,而是对情感障碍的间接测量情绪,因此通过该方法进行基于眼动生理信号的情绪评估的准确率不高。
发明内容
本公开实施例提供了一种基于眼动生理信号的情绪评估方法及装置,能够提高基于眼动生理信号的情绪评估的准确性。
为此,本公开实施例提供了如下技术方案:
第一方面,本公开实施例提供了一种基于眼动生理信号的情绪评估方法,包括:
基于情绪刺激信号获取参试者的眼动生理信号数据;
根据所述眼动生理信号数据提取分类特征;
对所述分类特征进行预处理得到有效分类特征;
将所述有效分类特征输入预训练的SVM模型得到评估结果。
可选地,所述情绪刺激信号为正性情绪视频刺激信号、负性情绪视频刺激信号或中性情绪视频刺激信号。
可选地,所述眼动生理信号数据为瞳孔直径。
可选地,根据所述眼动生理信号数据提取分类特征包括:
根据所述瞳孔直径获取初始分类特征,所述初始分类特征包括:正性情感带宽、负性情感带宽、基于正性情感带宽的信息熵、基于负性情感带宽的信息熵、基于正性情感带宽的能量、基于负性情感带宽的能量、正性瞳孔直径变化率和负性瞳孔直径变化率;
计算所述初始分类特征的统计学指标得到所述分类特征,所述统计学指标包括:最小值、下四分位数、中位数、上四分位数、最大值、平均值和标准差。
可选地,对所述分类特征进行预处理得到有效分类特征包括:
通过独立t检验从所述分类特征中选取存在显著性差异的特征,得到有效分类特征。
可选地,将所述有效分类特征输入预训练的SVM模型前还包括:
剔除所述有效分类特征中冗余的数据。
可选地,剔除所述有效分类特征中冗余的数据包括:
计算任意两个所述有效分类特征之间的相关系数;
基于所述相关系数并通过PCA消除任意两个所述有效分类特征之间的相关性;
基于所述效分类特征的方差贡献率或累计方差贡献率选择特定的有效分类特征。
可选地,相关系数为Pearson相关系数。
可选地,所述预训练的SVM模型的训练方法包括:
建立初始SVM模型;
通过5折交叉验证方法对初始SVM模型进行训练,得到预训练的SVM模型。
第二方面,本公开实施例提供了一种心理状态评估装置,包括:
获取模块,用于基于情绪刺激信号获取参试者的眼动生理信号数据;
提取模块,用于根据所述眼动生理信号数据提取分类特征;
预处理模块,用于对所述分类特征进行预处理得到有效分类特征;
评估模块,用于将所述有效分类特征输入预训练的SVM模型得到评估结果。
本公开实施例中提供的一个或多个技术方案,具有如下优点:
本公开实施例提供的基于眼动生理信号的情绪评估方法通过情绪刺激信号获取参试者的眼动生理信号数据,使得评估过程与情绪直接相关,通过预训练的SVM模型进一步提高了基于眼动生理信号的情绪评估的准确性。
附图说明
图1是根据本公开一实施方式的基于眼动生理信号的情绪评估方法的流程图;
图2是根据本公开一实施方式的预训练的SVM模型的训练方法流程图;
图3是根据本公开一实施方式的基于眼动生理信号的情绪评估装置的结构框图。
附图标记:
31:获取模块;32:提取模块;33:预处理模块;34:评估模块。
具体实施方式
为使本公开的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本公开进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本公开的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
本公开,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
在本公开的描述中,需要说明的是,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
此外,下面所描述的本公开不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
图1是根据本公开一实施方式的基于眼动生理信号的情绪评估方法的流程图。如图1所示,本公开实施例提供的基于眼动生理信号的情绪评估方法包括如下步骤:
S101:基于情绪刺激信号获取参试者的眼动生理信号数据。可选通过情绪视频材料诱发参试者的情感。
S102:根据眼动生理信号数据提取分类特征。采集得到的眼动生理信号反映了参试者的当前心境,与相关技术中的静息态高精度脑电(EEG),功能性磁共振成像(FMRI,functional magnetic resonance imaging),表情等相比,眼动情感信息可以对参试者的情感障碍进行直接测量。
S103:对分类特征进行预处理得到有效分类特征。
S104:将有效分类特征输入预训练的支持向量机(Support Vector Machine,SVM)模型得到评估结果。
本公开实施例提供的基于眼动生理信号的情绪评估方法通过情绪刺激信号获取参试者的眼动生理信号数据,使得评估过程与情绪直接相关,通过预训练的SVM模型进一步提高了基于眼动生理信号的情绪评估的准确性。情绪指数可选为抑郁指数,临床应用中,情绪指数可辅助医生进行抑郁症的诊断和治疗。医生可选将参试者的情绪指数与正常人的情绪指数取值范围进行比较,进而对参试者是否存在情绪异常进行评估和判断。
一方面,情绪识别结果在很大程度上取决于分类数据的可区分性,因此有效的数据处理方法对情绪自动检测方法具有重要的意义。
由于实验获取的眼动生理信号中往往会存在噪声与冗余信息,会降低参试者组与正常对照组间的可区分性,因此本研究对其使用统计学方法和主成分分析进行特征选择与特征提取,能够降低噪声,提高评估的准确性。
另一方面,分类算法的性能直接影响了分类的效果,常见的分类算法有决策树算法、K近邻算法、朴素贝叶斯算法、支持向量机,以及近年来大火的深度学习、深度森林等。由于本研究采集的数据是表格数据,且数据规模小,因此不适合使用深度学习方法。对于一些相对小规模的表格数据,SVM是分类算法中的佼佼者。因此本研究使用SVM对特征选择与提取后的眼动生理信号特征进行情绪识别。
情绪刺激信号可选为图片、视频或虚拟现实场景。在一些实施例中,情绪刺激信号为正性情绪视频刺激信号、负性情绪视频刺激信号或中性情绪视频刺激信号。与图片刺激材料相比,情绪视频作为诱发材料诱发时间较长,且情感效果更加稳定,因此可以更好地诱发参试者的情绪。每种情绪刺激视频时长可选为1分30秒,视频播放前有10秒的静息态,每名参试者完成信号采集的总时长为5分钟。
眼动生理信号数据为瞳孔直径。根据眼动生理信号数据提取分类特征包括:
根据瞳孔直径获取初始分类特征,初始分类特征包括:正性情感带宽、负性情感带宽、基于正性情感带宽的信息熵、基于负性情感带宽的信息熵、基于正性情感带宽的能量、基于负性情感带宽的能量、正性瞳孔直径变化率和负性瞳孔直径变化率。虽然瞳孔大小受外界情绪刺激的影响,但是每个人的瞳孔大小自身就有差异,而且还受光线、心理负荷等影响。因此,使用个体瞳孔大小无法单纯地表征情绪的影响。本公开实施例使用情感带宽表征不同情绪诱发的个体对于情感信息体验能力的大小。
正性情感带宽的计算方法是:基于正性情绪视频刺激信号获得的瞳孔直径的均值减去基于中性情绪视频刺激信号获得的瞳孔直径的均值。正性情感带宽表示个体加工和体验快乐情绪的能力,正性情感带宽越大表示个体加工和体验正性信息的能力越强。
负性情感带宽的计算方法是:基于负性情绪视频刺激信号获得的瞳孔直径的均值减去基于中性情绪视频刺激信号获得的瞳孔直径的均值;负性情感带宽表示个体加工和体验负性情绪的能力,负性情感带宽越大表示个体加工和体验负性信息的能力越强。
以基于中性情绪视频刺激信号获得的瞳孔直径的均值为基线,计算基于正性情绪视频刺激信号获得的瞳孔直径的变化率作为正性瞳孔直径变化率。
以基于中性情绪视频刺激信号获得的瞳孔直径的均值为基线,计算基于负性情绪视频刺激信号获得的瞳孔直径的变化率作为负性瞳孔直径变化率。
本公开实施例提供的基于眼动生理信号的情绪评估方法使用情感带宽特征作为初始分类特征,并在此基础上提取了最值、中位数、均值等与数据分布直接相关的统计指标,进一步提高了组间差异,有利于提高评估的准确性。
计算初始分类特征的统计学指标得到分类特征,统计学指标包括:最小值、下四分位数、中位数、上四分位数、最大值、平均值和标准差。分类特征如下表所示:
表1
对分类特征进行预处理得到有效分类特征包括:
通过独立t检验从分类特征中选取存在显著性差异的特征,得到有效分类特征。独立t检验可以分析组间(参试者组与健康对照组)是否存在显著性差异,从而能够选择出有效分类特征。
如表1所示,分类特征中,仅有4个特征的组间存在显著性差异,即正性情感带宽的信息熵对应的中位数(F1),负性情感带宽的信息熵对应的上四分位数(F2)和均值(F3),以及正性情感带宽的能量对应的中位数(F4)。使用F1、F2、F3、F4作为有效分类特征。
将有效分类特征输入预训练的SVM模型前还包括:剔除有效分类特征中冗余的数据。
在一些实施例中,剔除有效分类特征中冗余的数据包括:
计算任意两个有效分类特征之间的相关系数。相关系数可选为使用Pearson相关系数。
计算任意两个有效分类特征之间的相关系数包括:
式中,X为一个有效分类特征,Y为另一个有效分类特征,ρX,Y为X和Y之间的相关系数。当相关系数ρX,Y趋于-1或1时,X和Y间的线性关系增强;当相关系数ρX,Y等于0时,X和Y之间不存在线性相关关系;当|ρX,Y|≥0.6时,X和Y之间存在强相关性,反之,则两者存在弱相关性或不相关。
基于相关系数并通过PCA(Principal Component Analysis)进行特征映射和重构来剔除冗余信息,消除任意两个有效分类特征之间的相关性。PCA处理后,有效分类特征之间的Pearson相关系数ρX,Y降为0,任意两个有效分类特征均不相关。
基于有效分类特征的方差贡献率或累计方差贡献率选择特定的有效分类特征。可选将累计方差贡献率超过设定值的有效分类特征作为新的有效分类特征。
本公开实施例提供的基于眼动生理信号的情绪评估方法使用独立t检验和PCA主成分分析进行特征选择与提取来剔除无效的分类特征与冗余信息,进一步提高了分类数据的可区分性,有助于提高评估的准确性。
图2是根据本公开一实施方式的预训练的SVM模型的训练方法流程图。如图2所示,预训练的SVM模型的训练方法包括:
建立初始SVM模型。通过5折交叉验证方法对初始SVM模型进行训练,得到预训练的SVM模型。SVM模型为带RBF核函数的SVM分类模型。
训练时,参试者的个数为82,情绪异常参试者与正常人各42人。随机选择情绪异常参试者12人和正常人12人对应的有效分类特征作为测试集,剩余60人对应的有效分类特征作为训练集。
模型的训练过程使用5折交叉验证,即将训练集随机地分为5个互不相交的大小相同的子集,其中的4个子集作为训练集,剩余的1个作为验证集,依次循环训练5个模型,并统计测试在5个模型上分类结果的均值与标准差。
实验时,将参试者组作为正类,正常人对照组作为负类,从正确率、特异性、敏感度、查准率和F1分数五个方面进行结果分析。其中,正确率反映了模型对情绪异常参试者与正常人的区分能力,敏感度反映了情绪异常参试者被正确分类的比例,特异性反映了正常人被正确分类的比例,查准率为真实的情绪异常参试者与模型预测的情绪异常参试者的比例,F1分数为平衡敏感度与查准率的分类指标。
下表是SVM、随机森林、KNN、KELM和深度森林的分类效果比较。
表2
从上表可以看出,带RBF核函数的SVM分类模型的基于眼动生理信号的情绪评估结果的精确度更高,分类正确率、特异性、敏感度、精确度和F1分数都超过90%,上述基于眼动生理信号的情绪评估方法的评估效果较好,具有较高的临床参考价值。
图3是根据本公开一实施方式的基于眼动生理信号的情绪评估装置的结构框图。如图3所示,本公开实施例还提供了一种基于眼动生理信号的情绪评估装置,包括:
获取模块31,用于基于情绪刺激信号获取参试者的眼动生理信号数据;
提取模块32,用于根据眼动生理信号数据提取分类特征;
预处理模块33,用于对分类特征进行预处理得到有效分类特征;
评估模块34,用于将有效分类特征输入预训练的SVM模型得到评估结果。
本公开实施例提供的基于眼动生理信号的情绪评估装置通过情绪刺激信号获取参试者的眼动生理信号数据,使得评估过程与情绪直接相关,通过预训练的SVM模型进一步提高了基于眼动生理信号的情绪评估的准确性。
应当理解的是,本公开的上述具体实施方式仅仅用于示例性说明或解释本公开的原理,而不构成对本公开的限制。因此,在不偏离本公开的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。此外,本公开所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
Claims (10)
1.一种基于眼动生理信号的情绪评估方法,其特征在于,包括:
基于情绪刺激信号获取参试者的眼动生理信号数据;
根据所述眼动生理信号数据提取分类特征;
对所述分类特征进行预处理得到有效分类特征;
将所述有效分类特征输入预训练的SVM模型得到评估结果。
2.根据权利要求1所述的基于眼动生理信号的情绪评估方法,其中,所述情绪刺激信号为正性情绪视频刺激信号、负性情绪视频刺激信号或中性情绪视频刺激信号。
3.根据权利要求1所述的基于眼动生理信号的情绪评估方法,其中,所述眼动生理信号数据为瞳孔直径。
4.根据权利要求3所述的基于眼动生理信号的情绪评估方法,其中,根据所述眼动生理信号数据提取分类特征包括:
根据所述瞳孔直径获取初始分类特征,所述初始分类特征包括:正性情感带宽、负性情感带宽、基于正性情感带宽的信息熵、基于负性情感带宽的信息熵、基于正性情感带宽的能量、基于负性情感带宽的能量、正性瞳孔直径变化率和负性瞳孔直径变化率;
计算所述初始分类特征的统计学指标得到所述分类特征,所述统计学指标包括:最小值、下四分位数、中位数、上四分位数、最大值、平均值和标准差。
5.根据权利要求4所述的基于眼动生理信号的情绪评估方法,其中,对所述分类特征进行预处理得到有效分类特征包括:
通过独立t检验从所述分类特征中选取存在显著性差异的特征,得到有效分类特征。
6.根据权利要求1所述的基于眼动生理信号的情绪评估方法,其中,将所述有效分类特征输入预训练的SVM模型前还包括:
剔除所述有效分类特征中冗余的数据。
7.根据权利要求6所述的基于眼动生理信号的情绪评估方法,其中,剔除所述有效分类特征中冗余的数据包括:
计算任意两个所述有效分类特征之间的相关系数;
基于所述相关系数并通过PCA消除任意两个所述有效分类特征之间的相关性;
基于所述效分类特征的方差贡献率或累计方差贡献率选择特定的有效分类特征。
8.根据权利要求7所述的基于眼动生理信号的情绪评估方法,其中,所述相关系数为Pearson相关系数。
9.根据权利要求1所述的基于眼动生理信号的情绪评估方法,其中,所述预训练的SVM模型的训练方法包括:
建立初始SVM模型;
通过5折交叉验证方法对初始SVM模型进行训练,得到预训练的SVM模型。
10.一种基于眼动生理信号的情绪评估装置,其特征在于,包括:
获取模块,用于基于情绪刺激信号获取参试者的眼动生理信号数据;
提取模块,用于根据所述眼动生理信号数据提取分类特征;
预处理模块,用于对所述分类特征进行预处理得到有效分类特征;
评估模块,用于将所述有效分类特征输入预训练的SVM模型得到评估结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111179684.2A CN113855022A (zh) | 2021-10-11 | 2021-10-11 | 基于眼动生理信号的情绪评估方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111179684.2A CN113855022A (zh) | 2021-10-11 | 2021-10-11 | 基于眼动生理信号的情绪评估方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113855022A true CN113855022A (zh) | 2021-12-31 |
Family
ID=79002428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111179684.2A Pending CN113855022A (zh) | 2021-10-11 | 2021-10-11 | 基于眼动生理信号的情绪评估方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113855022A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116485262A (zh) * | 2022-04-26 | 2023-07-25 | 深圳依时货拉拉科技有限公司 | 定价策略的评估方法、电子设备以及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070066916A1 (en) * | 2005-09-16 | 2007-03-22 | Imotions Emotion Technology Aps | System and method for determining human emotion by analyzing eye properties |
KR101601895B1 (ko) * | 2014-08-29 | 2016-03-22 | 연세대학교 원주산학협력단 | 산소포화도와 광용적맥파를 이용하여 수면 상태와 중증 정도를 반영한 수면 무호흡-저호흡의 자동 평가 장치 및 그 방법 |
US20170100032A1 (en) * | 2015-10-09 | 2017-04-13 | Senseye, Inc. | Emotional intelligence engine via the eye |
CN107610099A (zh) * | 2017-08-18 | 2018-01-19 | 中山大学 | 一种基于瞳孔信息的情感精神状态检测系统及方法 |
US20180125406A1 (en) * | 2016-11-08 | 2018-05-10 | International Business Machines Corporation | Mental state estimation using relationship of pupil dynamics between eyes |
US20180189947A1 (en) * | 2015-06-22 | 2018-07-05 | Sunnybrook Research Institute | Systems and methods for prediction of tumor response to chemotherapy using pre-treatment quantitative ultrasound parameters |
US20200170560A1 (en) * | 2015-10-09 | 2020-06-04 | Senseye, Inc. | Cognitive and emotional intelligence engine via the eye |
CN111743553A (zh) * | 2020-07-06 | 2020-10-09 | 山东中科先进技术研究院有限公司 | 一种基于眼动数据的情感特征提取方法及系统 |
CN112464774A (zh) * | 2020-11-20 | 2021-03-09 | 桂林理工大学 | 一种基于眼动测量的视频学习中的情感识别方法 |
CN112545513A (zh) * | 2020-12-04 | 2021-03-26 | 长春理工大学 | 一种基于音乐诱发脑电的抑郁症识别方法 |
CN112584892A (zh) * | 2018-06-20 | 2021-03-30 | 内宇宙股份有限公司 | 治疗情绪障碍的系统和方法 |
-
2021
- 2021-10-11 CN CN202111179684.2A patent/CN113855022A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070066916A1 (en) * | 2005-09-16 | 2007-03-22 | Imotions Emotion Technology Aps | System and method for determining human emotion by analyzing eye properties |
KR101601895B1 (ko) * | 2014-08-29 | 2016-03-22 | 연세대학교 원주산학협력단 | 산소포화도와 광용적맥파를 이용하여 수면 상태와 중증 정도를 반영한 수면 무호흡-저호흡의 자동 평가 장치 및 그 방법 |
US20180189947A1 (en) * | 2015-06-22 | 2018-07-05 | Sunnybrook Research Institute | Systems and methods for prediction of tumor response to chemotherapy using pre-treatment quantitative ultrasound parameters |
US20170100032A1 (en) * | 2015-10-09 | 2017-04-13 | Senseye, Inc. | Emotional intelligence engine via the eye |
US20200170560A1 (en) * | 2015-10-09 | 2020-06-04 | Senseye, Inc. | Cognitive and emotional intelligence engine via the eye |
US20180125406A1 (en) * | 2016-11-08 | 2018-05-10 | International Business Machines Corporation | Mental state estimation using relationship of pupil dynamics between eyes |
CN107610099A (zh) * | 2017-08-18 | 2018-01-19 | 中山大学 | 一种基于瞳孔信息的情感精神状态检测系统及方法 |
CN112584892A (zh) * | 2018-06-20 | 2021-03-30 | 内宇宙股份有限公司 | 治疗情绪障碍的系统和方法 |
CN111743553A (zh) * | 2020-07-06 | 2020-10-09 | 山东中科先进技术研究院有限公司 | 一种基于眼动数据的情感特征提取方法及系统 |
CN112464774A (zh) * | 2020-11-20 | 2021-03-09 | 桂林理工大学 | 一种基于眼动测量的视频学习中的情感识别方法 |
CN112545513A (zh) * | 2020-12-04 | 2021-03-26 | 长春理工大学 | 一种基于音乐诱发脑电的抑郁症识别方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116485262A (zh) * | 2022-04-26 | 2023-07-25 | 深圳依时货拉拉科技有限公司 | 定价策略的评估方法、电子设备以及存储介质 |
CN116485262B (zh) * | 2022-04-26 | 2024-04-12 | 深圳依时货拉拉科技有限公司 | 定价策略的评估方法、电子设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhu et al. | Detecting emotional reactions to videos of depression | |
CN112259237B (zh) | 基于多情感刺激和多级分类模型的抑郁评估系统 | |
Pollreisz et al. | A simple algorithm for emotion recognition, using physiological signals of a smart watch | |
WO2020013302A1 (ja) | 精神・神経系疾患の推定システム、推定プログラムおよび推定方法 | |
KR100750662B1 (ko) | 심전도를 이용한 생체인식 시스템 및 방법 | |
Murray et al. | The neural mechanism underlying recollection is sensitive to the quality of episodic memory: Event related potentials reveal a some-or-none threshold | |
WO2015111331A1 (ja) | 認知機能評価装置、方法、システム及びプログラム | |
Makowski et al. | DeepEyedentificationLive: Oculomotoric biometric identification and presentation-attack detection using deep neural networks | |
WO2015158100A1 (zh) | 情感带宽测定及其情感损伤判别方法 | |
CN111887867A (zh) | 基于表情识别与心理学测试生成性格的分析方法及系统 | |
CN107348962B (zh) | 一种基于脑机接口技术的人格特质测量方法及设备 | |
Darwish et al. | Biometric identification using the dynamic features of the eyes | |
US20190147277A1 (en) | Biometric method and device for identifying a person through an electrocardiogram (ecg) waveform | |
CN113855022A (zh) | 基于眼动生理信号的情绪评估方法及装置 | |
Benba et al. | Using RASTA-PLP for discriminating between different neurological diseases | |
Nathan et al. | Utilizing deep learning on limited mobile speech recordings for detection of obstructive pulmonary disease | |
KR102706365B1 (ko) | 치매 진단 시스템 | |
CN116484290A (zh) | 一种基于Stacking集成的抑郁症识别模型构建方法 | |
CN113855021B (zh) | 抑郁倾向评估方法及装置 | |
CN115497621A (zh) | 一种老年人认知状况测评系统 | |
McCuaig et al. | Detecting learner frustration: towards mainstream use cases | |
Imah et al. | A Comparative Analysis of Machine Learning Methods for Joint Attention Classification in Autism Spectrum Disorder Using Electroencephalography Brain Computer Interface. | |
Guleva et al. | Personality traits classification from EEG signals using EEGNet | |
Taha et al. | Detection of post-traumatic stress disorder using learned time-frequency representations from pupillometry | |
Gonzalez-Moreira et al. | Prosodic speech analysis to identify mild cognitive impairment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211231 |