CN110135244B - 一种基于脑-机协同智能的表情识别方法 - Google Patents

一种基于脑-机协同智能的表情识别方法 Download PDF

Info

Publication number
CN110135244B
CN110135244B CN201910261637.9A CN201910261637A CN110135244B CN 110135244 B CN110135244 B CN 110135244B CN 201910261637 A CN201910261637 A CN 201910261637A CN 110135244 B CN110135244 B CN 110135244B
Authority
CN
China
Prior art keywords
electroencephalogram
expression
layer
image
brain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910261637.9A
Other languages
English (en)
Other versions
CN110135244A (zh
Inventor
孔万增
隆燕芳
凌文芬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201910261637.9A priority Critical patent/CN110135244B/zh
Publication of CN110135244A publication Critical patent/CN110135244A/zh
Application granted granted Critical
Publication of CN110135244B publication Critical patent/CN110135244B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于脑‑机协同智能的表情识别方法。本发明主要采用两层卷积神经网络提取人脸表情的图像视觉特征,以及多个门控循环单元提取观看表情时诱发的脑电情感特征,并通过随机森林回归模型建立两种特征之间的映射关系,最后采用K‑近邻分类器对回归模型得到的预测脑电情感特征进行表情的分类。本发明包括数据采集、数据预处理、图像视觉特征提取、脑电情感特征提取、特征映射和表情分类。表情分类结果表明:采用预测的脑电情感特征得到了较好的分类结果。与传统的图像视觉方法相比,基于脑‑机协同智能的表情识别,是一种很有前景的情感计算方法。

Description

一种基于脑-机协同智能的表情识别方法
技术领域
本发明属于情感计算领域中的表情识别领域,具体涉及一种基于脑-机协同智能的表情识别方法。
背景技术
一般来说,我们使用面部表情,身体姿势和声音音调来推断某人的情绪状态(如喜悦,悲伤和愤怒等)。就承载情感意义而言,面部表情是日常交流中主要的信息来源,它也是人机交互系统(HCIS)中的关键组成部分,如何有效地进行表情识别已经成为一个重要课题。
目前,面部表情识别(FER)方法主要从人类视觉角度出发,利用计算机技术从面部图像中提取相关特征来区分不同的表情,根据特征是人工设计还是神经网络生成可以分为两大类。
第一类是传统的表情识别方法。该类方法首先检测出人脸,然后通过提取几何特征、统计特征、频率域特征和运动特征等表情特征,最后采用支持向量机(SVM),K-近邻(KNN)和Adaboost算法等对提取的特征进行分类,从而完成表情的识别。但这些特征易受外界因素(主要是光照、角度、复杂背景等)干扰,丢失一些重要的识别和分类信息,导致结果的精确性不高。
第二类是基于深度学习技术的表情识别方法。近年来,深度学习技术取得了突破性进展且在计算机视觉领域得到广泛应用。深度学习模型能对数据进行有效的特征提取,这是许多传统的机器学习模型所达不到的。因此,将深度学习引入到表情识别,可以使计算机深度理解人脸表情图像的表达意义。目前,大部分学者利用卷积神经网络实现表情识别。Liu等人提出了构建一个深度网络AUDN,它利用面部动作编码系统(FACS)的面部动作单元AU为特征,用卷积神经网络与多层受限制玻尔兹曼机进行特征提取,最后用支持向量机(SVM)做表情分类器。Mollahosseini等人提出了一个更复杂的神经网络模型,由两个卷积层组成,每个卷积层后面连接一个最大池,然后是四个Inception层,该模型在多个标准人脸数据集上取得了可观的效果。
通常,增加隐含层的层数可以增强网络的学习能力,使得学习到的特征更加贴近物体本身。但是,多层网络训练时间会增加,训练难度也会随之加大。同时,对训练样本的规模和多样性的要求也会变高,否则模型过拟合也会导致识别结果不理想。
事实上,人类对表情的识别几乎不需要训练,而且可以做到在有限的样本集上获得可靠的识别结果。研究表明,基于视听觉刺激诱发的生理信号(脑电信号、肌电信号、血压、心率和呼吸等)与情感语义存在隐含关系。其中,脑电信号中包含了大量的情感信息,这些信息在大脑皮层的不同区域随着情绪的变化而变化,具有高级的情感表达和良好的可分性。据此,本发明创新地提出了基于脑-机协同智能的表情识别方法,通过表情诱发的脑电信号与计算机技术捕捉到的视觉信息来实现表情的分类。它的意义在于利用人类的真实情感来提高机器在情感学习上的有效性,从而实现更人性化的情感计算。
发明内容
本发明针对现有技术的不足,提供了一种基于脑-机协同智能的表情识别方法。该方法是利用两层卷积神经网络(Two-layer Convolutional Neural Network,TCNN)提取表情的图像视觉特征,以及多个门控循环单元(Gated Recurrent Units,GRUs)提取脑电情感特征,采用随机森林回归模型建立图像视觉特征与脑电情感特征之间的映射关系,并通过K-近邻分类器对得到的预测脑电特征进行分类,从而完成表情的自动识别。
本发明所采用的技术方案:
1.获取数据:
采用多通道脑电采集设备采集原始脑电信号,获取每张表情图像诱发的脑电信号,共获取到N段原始脑电信号。
2.数据预处理:
脑电数据:对各段原始脑电信号均进行数据预处理,包括去伪迹和带通滤波,目的是减少伪迹的干扰,提高信噪比,从而提高特征提取的有效性。去伪迹和带通滤波属于本领域技术人员所熟知的常规技术,故不作详解。
图像数据:对上述原始表情图像调整大小,并对其像素值进行归一化处理(0-1之间),方便计算。
3.脑电情感特征提取:
对预处理后的脑电信号采用多个门控循环单元(GRUs)模型提取脑电情感特征。每个GRU单元结构中包含了两个门,t时刻的更新门zt和重置门rt,给定t时刻的脑电输入et和该时刻隐藏层的状态ht,满足以下等式:
rt=σ(Wr·[ht-1,et])
zt=σ(Wz·[ht-1,et])
Figure BDA0002015476390000031
Figure BDA0002015476390000032
其中σ是激活函数,[]表示向量连接,*是矩阵元素乘法,Wr,Wz和Wh分别是重置门权重矩阵、更新门权重矩阵和隐藏层的状态权重矩阵。更新门zt用于控制前一时间的状态信息进入当前状态的程度。更新门zt的值越大,在时间t-1引入的状态信息越多。重置门rt用于控制在时间t-1忽略状态信息的程度,并且重置门rt的值越小,前一时刻的信息被忽略得越多。该GRUs模型包含两层堆叠的GRU单元,第一层是由多对多模式的256个神经元节点组成,第二层是多对一模式的128个神经元节点组成,后连接一个soft-max层。将第二层GRU的最后一个单元隐藏节点状态输出作为脑电情感特征Y。
4.图像视觉特征提取:
预处理后原始表情的图像视觉特征通过两层卷积神经网络模型(TCNN)来提取,该神经网络模型包含两层卷积、两层最大池化,一个全连接层和最后的soft-max层。其中全连接层包含了256个神经元节点,并将该层的输出作为提取的图像视觉特征X。
5.特征映射:
针对步骤3提取的特征Y和步骤4提取的特征X,采用随机森林回归模型建立了两者之间的映射关系,将Y设为回归目标,回归方程记作Y=RF(X)。随机森林是一种集成算法,它是由多棵决策树组成,输入向量在多个决策树上运行。能够降低模型的方差,与单棵决策树相比,随机森林通常具有更好的泛化性能。它对数据集中的异常值不敏感,不需要过多的参数调优。
对于回归方程Y=RF(X)拟合的程度评估,采用决定系数R2(又名拟合优度)。在多元回归分析中,其表达式如下:
Figure BDA0002015476390000033
其中,yi表示真实的脑电情感特征值,
Figure BDA0002015476390000034
表示根据回归方程Y=RF(X)预测的脑电情感特征值,y表示真实脑电情感特征的均值,SST为真实脑电特征的总平方和,SSE为真实脑电特征与预测脑电特征的残差平方和;i表示脑电特征中第i维特征值,一共有d维。对图像视觉特征对脑电情感特征的拟合优度R2越大,预测的脑电情感特征越接近真实的脑电情感特征,分类结果的精确度越高。
6.表情分类:
在步骤5训练好的回归模型Y=RF(X)上,对于任意的图像视觉特征xi得到对应的预测脑电情感特征
Figure BDA0002015476390000041
采用K-近邻分类器在步骤3提取的真实脑电特征Y中找到与预测脑电特征
Figure BDA0002015476390000042
距离最近的表情类别属性,即为xi对应的真实表情类别属性。
本发明的有益效果是:在样本不充分情况下,避免了深度复杂神经网络模型在小样本下过拟合问题。同时,利用人脑对表情感知的特殊能力(即表情诱发产生的脑电信号)来弥补浅层神经网络模型学习低层图像视觉特征的有效性,从而提高表情识别的精确性。与单独的图像特征识别相比,避免了传统特征的构造以及深度复杂神经网络建模与训练的过程。基于脑-机协同智能的方法更为方便和精确,是一种很有前景的情感计算方法。
附图说明
图1为具体实施流程图;
图2为脑电通道图。
具体实施方式
以下结合附图对本发明作进一步说明。
如图1所示,本发明的具体实施步骤如下:
步骤S1:采用多通道脑电采集设备采集所需的脑电信号,共采集6名被观看870张包含7种情绪(生气,恶心、恐惧、高兴、中性、悲伤和惊讶)的表情图片。
原始表情图像均来自于中国化面孔情绪图片系统(CFAPS),系统中共评定筛选出7种类型的中国化面孔情绪图片870张,其中,愤怒74张,厌恶47张,恐惧64张,悲伤95张,惊讶150张,平静222张,高兴248张。
本实施例使用ESI NeuroScan脑电采集系统,62个通道的电极帽来获取脑电数据,电极帽采用国际10-20系统电极放置法,采样频率为1000Hz。图2为脑电通道图。
步骤S2:对采集的脑电数据进行预处理。具体过程包括:
1)去伪迹:移除明显的伪迹或因身体移动产生的噪声;
2)带通滤波:创建带通滤波器,从脑电数据中提取1~75Hz频段的脑电成分。
步骤S3:利用多个门控循环单元(Gated Recurrent Units,GRUs)模型提取脑电情感特征:
1)本实施例中,通道数C=62,每张表情图像对应的脑电样本数S=500,每段脑电短序列ei的维度为62×500;
2)一个样本就是一个短序列,将短序列ei输入到GRUs模型中,其超参数学习率lr=0.001,优化器为rmsprop批次大小batch_size=32,迭代次数epochs=50;
3)将GRUs模型的第二层最后一个隐藏节点的状态输出作为提取的脑电情感特征向量yi,维度为128;
4)同理可得其余样本的情感特征向量,得到总样本矩阵Y,维度为870×128。
步骤S4:利用两层卷积神经网络模型(CNN-2)提取表情图像视觉特征:
1)本实施例中,每张图像原始大小为260×300像素,重置后的图像大小为32×32像素,并对图像的像素值进行归一化处理(0-1之间),方便计算。
2)将上述预处理后的图像输入到卷积神经网络模型中,其超参数学习率lr=0.01,优化器为sgd,批次大小batch_size=32,迭代次数epochs=100;
3)一个样本就是一张图片,该模型的全连接层输出作为提取的视觉特征,维度为256。
4)同理可得其余样本的视觉特征向量,得到总样本矩阵X,维度为870×256。
步骤S5:采用随机森林建立脑电情感特征与图像视觉特征之间的映射关系:
针对特征Y和特征X,采用随机森林回归模型建立了两者之间的映射关系,将Y设为回归目标,回归方程记作Y=RF(X)。对于回归方程拟合的程度评估,采用决定系数R2(又名拟合优度)。本实施例得到的R2值均为非负,即脑电情感特征Y的部分变化可以由自变量图像视觉特征X来解释。同时,对于任意的视觉特征xi可以得到预测的类脑电情感特征
Figure BDA0002015476390000052
步骤S6:采用K-近邻分类器对预测的脑电情感特征向量
Figure BDA0002015476390000051
进行分类:
K-近邻是一种常用的分类算法,该方法的基本思路是:如果一个待分类样本在特征空间中的K个最相似(即特征空间中K近邻)的样本中的大多数属于某一个类别,则该样本也属于这个类别。在本实例中K=1时,效果最佳。
本实施例从每个被试(共6名被试)的总样本特征中随机选取783个已知类别的特征向量作为训练样本,剩下的87个特征向量作为分类的测试样本。
最后将分类结果与这些特征向量的实际类别进行比较,得到该表情识别方法的分类准确率,识别准确率为78%。

Claims (4)

1.一种基于脑-机协同智能的表情识别方法,其特征在于该方法包括以下步骤:
步骤1.获取数据:
采用多通道脑电采集设备采集原始脑电信号,获取每张表情图像诱发的脑电信号,共获取到N段原始脑电信号;
步骤2.数据预处理
步骤3.脑电情感特征提取:
对步骤2预处理后的脑电信号采用多个门控循环单元模型提取脑电情感特征;
步骤4.图像视觉特征提取:
预处理后原始表情图像的图像视觉特征X通过两层卷积神经网络模型来提取;
步骤5.特征映射:
针对步骤3提取的特征Y和步骤4提取的特征X,采用随机森林回归模型建立了两者之间的映射关系,将Y设为回归目标,回归方程记作Y=RF(X);
对于回归方程Y=RF(X)拟合的程度评估,采用决定系数R2;在多元回归分析中,其表达式如下:
Figure FDA0002691685650000011
其中,yi表示真实的脑电情感特征值,
Figure FDA0002691685650000012
表示根据回归方程Y=RF(X)预测的脑电情感特征值,
Figure FDA0002691685650000015
表示真实脑电情感特征的均值,SST为真实脑电特征的总平方和,SSE为真实脑电特征与预测脑电特征的残差平方和;i表示脑电特征中第i维特征值,一共有d维;
步骤6.表情分类:
在步骤5训练好的回归模型Y=RF(X)上,对于任意的图像视觉特征xi得到对应的预测脑电情感特征
Figure FDA0002691685650000013
采用K-近邻分类器在步骤3提取的真实脑电特征Y中找到与预测脑电特征
Figure FDA0002691685650000014
距离最近的表情类别属性,即为xi对应的真实表情类别属性。
2.如权利要求1所述的一种基于脑-机协同智能的表情识别方法,其特征在于步骤2具体包括如下:
脑电数据:对各段原始脑电信号均进行数据预处理,包括去伪迹和带通滤波;
表情图像数据:对上述原始表情图像调整大小,并对其像素值进行归一化处理。
3.如权利要求1所述的一种基于脑-机协同智能的表情识别方法,其特征在于步骤3具体是每个门控循环单元结构中包含了两个门,t时刻的更新门zt和重置门rt,给定t时刻的脑电输入et和该时刻隐藏层的状态ht,满足以下等式:
rt=σ(Wr·[ht-1,et])
zt=σ(Wz·[ht-1,et])
Figure FDA0002691685650000021
Figure FDA0002691685650000022
其中σ是激活函数,[]表示向量连接,*是矩阵元素乘法,Wr,Wz和Wh分别是重置门权重矩阵、更新门权重矩阵和隐藏层的状态权重矩阵;更新门zt用于控制前一时间的状态信息进入当前状态的程度;重置门rt用于控制在时间t-1忽略状态信息的程度;
该多个门控循环单元模型包含两层堆叠的门控循环单元,第一层是由多对多模式的256个神经元节点组成,第二层是多对一模式的128个神经元节点组成,后连接一个soft-max层;将第二层门控循环单元的最后一个单元隐藏节点状态输出作为脑电情感特征Y。
4.如权利要求1所述的一种基于脑-机协同智能的表情识别方法,其特征在于步骤4具体是神经网络模型包含两层卷积、两层最大池化,一个全连接层和最后的soft-max层;其中全连接层包含了256个神经元节点,并将该层的输出作为提取的图像视觉特征X。
CN201910261637.9A 2019-04-02 2019-04-02 一种基于脑-机协同智能的表情识别方法 Active CN110135244B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910261637.9A CN110135244B (zh) 2019-04-02 2019-04-02 一种基于脑-机协同智能的表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910261637.9A CN110135244B (zh) 2019-04-02 2019-04-02 一种基于脑-机协同智能的表情识别方法

Publications (2)

Publication Number Publication Date
CN110135244A CN110135244A (zh) 2019-08-16
CN110135244B true CN110135244B (zh) 2020-11-17

Family

ID=67569022

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910261637.9A Active CN110135244B (zh) 2019-04-02 2019-04-02 一种基于脑-机协同智能的表情识别方法

Country Status (1)

Country Link
CN (1) CN110135244B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111528834B (zh) * 2020-03-25 2021-09-24 西安电子科技大学 一种实时sar图像目标检测系统及方法
CN113177482A (zh) * 2021-04-30 2021-07-27 中国科学技术大学 一种基于最小类别混淆的跨个体脑电信号分类方法
US11559232B1 (en) * 2022-02-27 2023-01-24 King Abdulaziz University GRU based real-time mental stress assessment
CN115063653B (zh) * 2022-07-27 2023-05-23 东南大学 基于图像脑敏感数据的建成环境主导色测度方法和系统
CN116491960B (zh) * 2023-06-28 2023-09-19 南昌大学第一附属医院 脑瞬态监测设备、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105956546A (zh) * 2016-04-28 2016-09-21 杭州电子科技大学 一种基于脑电信号的情绪识别方法
CN106951844A (zh) * 2017-03-10 2017-07-14 中国矿业大学 一种基于深度极速学习机的脑电信号分类方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7395292B2 (en) * 2003-10-08 2008-07-01 Johnson Mark W Method for displaying spectral trends in complex signals
JP6952713B2 (ja) * 2016-01-19 2021-10-20 マジック リープ, インコーポレイテッドMagic Leap,Inc. 反射を利用する拡張現実システムおよび方法
CN109325410B (zh) * 2018-08-16 2021-10-19 广东工业大学 一种基于卷积神经网络的脑电信号eeg特征提取方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105956546A (zh) * 2016-04-28 2016-09-21 杭州电子科技大学 一种基于脑电信号的情绪识别方法
CN106951844A (zh) * 2017-03-10 2017-07-14 中国矿业大学 一种基于深度极速学习机的脑电信号分类方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于EEG信号的情绪分类研究;吴乃文;《中国优秀硕士学位论文全文数据库 信息科技辑》;20140115;正文第3-5章 *
陆文娟.基于脑电信号的情感识别研究.《中国优秀硕士学位论文全文数据库 医药卫生科技辑》.2018,正文第4-5章. *

Also Published As

Publication number Publication date
CN110135244A (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
CN110135244B (zh) 一种基于脑-机协同智能的表情识别方法
CN109389059B (zh) 一种基于cnn-lstm网络的p300检测方法
CN111329474B (zh) 基于深度学习的脑电身份识别方法、系统及信息更新方法
CN113693613B (zh) 脑电信号分类方法、装置、计算机设备及存储介质
CN114052735B (zh) 一种基于深度领域自适应的脑电情绪识别方法及系统
CN111134666A (zh) 一种多通道脑电数据的情绪识别方法及电子装置
CN112766355B (zh) 一种标签噪声下的脑电信号情绪识别方法
CN106529504B (zh) 一种复合时空特征的双模态视频情感识别方法
CN111339847A (zh) 一种基于图卷积神经网络的人脸情绪识别方法
CN109670406B (zh) 一种结合心率与面部表情面向游戏用户的非接触式情感识别方法
CN106909938A (zh) 基于深度学习网络的视角无关性行为识别方法
CN111832431A (zh) 一种基于cnn的情绪脑电分类方法
CN115238731A (zh) 基于卷积递归神经网络与多头自注意力的情感识别方法
CN113243924A (zh) 基于脑电信号通道注意力卷积神经网络的身份识别方法
CN111753683A (zh) 一种基于多专家卷积神经网络的人体姿态识别方法
CN114564990A (zh) 一种基于多通道反馈胶囊网络的脑电信号分类方法
CN110210399A (zh) 一种基于不确定性量化概率卷积神经网络的人脸识别方法
CN106682653A (zh) 一种基于knlda的rbf神经网络人脸识别方法
Liu Human face expression recognition based on deep learning-deep convolutional neural network
CN114781441A (zh) Eeg运动想象分类方法及多空间卷积神经网络模型
CN114676720A (zh) 基于图神经网络的心理状态识别方法及系统
Angusamy et al. Human Emotion Detection using Machine Learning Techniques
CN110555401B (zh) 一种基于表情识别的自适应情感表达系统及方法
Kim et al. A study on user recognition using 2D ECG image based on ensemble networks for intelligent vehicles
Ling et al. Facial emotion recognition based on brain and machine collaborative intelligence

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant