CN116098621A - 一种基于注意力机制的情绪面孔及生理反应识别方法 - Google Patents

一种基于注意力机制的情绪面孔及生理反应识别方法 Download PDF

Info

Publication number
CN116098621A
CN116098621A CN202310113595.0A CN202310113595A CN116098621A CN 116098621 A CN116098621 A CN 116098621A CN 202310113595 A CN202310113595 A CN 202310113595A CN 116098621 A CN116098621 A CN 116098621A
Authority
CN
China
Prior art keywords
child
data
features
electroencephalogram
eye movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310113595.0A
Other languages
English (en)
Inventor
廖梦怡
赵红利
王静静
王小鹤
李延方
马臻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pingdingshan University
Original Assignee
Pingdingshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pingdingshan University filed Critical Pingdingshan University
Priority to CN202310113595.0A priority Critical patent/CN116098621A/zh
Publication of CN116098621A publication Critical patent/CN116098621A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/06Children, e.g. for attention deficit diagnosis

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychiatry (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Psychology (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physiology (AREA)
  • Developmental Disabilities (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Databases & Information Systems (AREA)
  • Child & Adolescent Psychology (AREA)
  • Primary Health Care (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computing Systems (AREA)

Abstract

本发明公开了一种基于注意力机制的情绪面孔及生理反应识别方法,该方法包括以下步骤:采集测试儿童的面部表情数据、眼动数据及脑电数据,并检测该儿童的脑电采集设备是否正确佩戴;基于上下文感知特征提取技术对儿童面部表情数据、眼动数据及脑电数据进行提取,并获得面部表情上下文特征、眼动上下文特征及脑电上下文特征;对面部表情特征、眼动特征及脑电特征进行交互特征融合,得到融合特征;使用门控卷积机制对融合特征进行冗余信息过滤,得到过滤后特征;根据过滤后特征并使用分类器完成自闭症儿童识别任务。通过多源数据融合实现自闭症儿童智能化识别精准度的提升;减少患者家庭、社会的经济负担;提升医生诊断效率和诊断结果的精度。

Description

一种基于注意力机制的情绪面孔及生理反应识别方法
技术领域
本发明涉及自闭症识别领域,具体来说,涉及一种基于注意力机制的情绪面孔及生理反应识别方法。
背景技术
自闭症是一种发病于儿童早期的广泛性神经发育障碍,其特征为社交障碍、语言和非语言交流障碍、兴趣狭隘、重复和刻板行为。目前自闭症的病因尚不清楚,在医学领域也没有可以治愈的特效药。自闭症患者大多存在社会适应不良或终生障碍,生活不能自理,成为社会和家庭的巨大经济和精神负担。
自闭症的早期发现,早期干预和早期治疗,可以显著改善预后。有临床对照研究表明,儿童神经的可塑性随着年龄增加而退化,在行为问题尚不突出的发病初期对儿童进行干预治疗,能够很大程度上改善自闭症儿童的语言能力、认知能力以及行为习惯。因此,自闭症的早期识别工作意义重大,越来越多的研究人员、医务工作者、特殊教育康复机构开始进入自闭症早期识别技术的研究。
例如情绪唤醒理论从生理视角和神经心理视角解释了自闭症患者情绪识别和理解方面存在障碍,可以作为自闭症儿童智能化识别的研究基础。情绪唤醒理论认为,当个体感知到他人的表情或情绪时,大脑对应的情感脑区会被激活,从而产生情绪唤醒,产生与他人同形的情绪理解、情绪共享和感染。研究发现,自闭症个体存在面部表情认知障碍、情绪理解障碍和情绪唤醒障碍,导致其社会功能受损,而这一特质被研究人员用来进行自闭症儿童识别。然而现有自闭症的研究大多基于行为数据,而自闭症儿童非典型性脑发育出现的时间要早于非典型行为出现的时间,如果单纯根据行为特征进行识别,则会错过早期干预的关键时期。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对相关技术中的问题,本发明提出一种基于注意力机制的情绪面孔及生理反应识别方法,以克服现有相关技术所存在的上述技术问题。
为此,本发明采用的具体技术方案如下:
一种基于注意力机制的情绪面孔及生理反应识别方法,该方法包括以下步骤:
S1、利用预先配置的摄像机、眼动采集设备及脑电采集设备对测试儿童的面部表情数据、眼动数据及脑电数据进行采集,并检测该儿童的脑电采集设备是否正确佩戴;
S2、基于上下文感知特征提取技术对儿童面部表情数据、眼动数据及脑电数据进行提取,并获得面部表情上下文特征、眼动上下文特征及脑电上下文特征;
S3、对面部表情特征、眼动特征及脑电特征进行交互特征融合,得到融合特征;
S4、使用门控卷积机制对融合特征进行冗余信息过滤,得到过滤后特征;
S5、根据过滤后特征并使用分类器完成自闭症儿童识别任务。
进一步的,所述利用预先配置的摄像机、眼动采集设备及脑电采集设备对测试儿童的面部表情数据、眼动数据及脑电数据进行采集包括以下步骤:
在儿童面前配置摄像机及眼动采集设备,且为儿童佩戴脑电采集设备;
在预先建立的面部表情数据库中选取若干表情图片,且表情图片的表情强度由低到高依次呈现,同时每张图片呈现10秒。
进一步的,所述检测该儿童的脑电采集设备是否正确佩戴包括以下步骤:
通过预先配置的摄像机实时采集儿童正面图像,作为检测使用;
将采集的儿童正面图像输入训练好的人体关键点检测网络Openpose中,并检测得到儿童各个关键点的位置;
将采集的儿童正面图像输入训练好的人体框检测模型及脑电采集设备检测模型YOLO3中,并检测得到儿童身体框及脑电采集设备的位置;
检测得到儿童的头部关键点位置,定位出儿童头部所在区域的中心点,且以儿童身体框中较短边作为边长形成矩形区域,并将该矩形区域作为儿童头部所在区域;
根据检测得到的脑电采集设备的位置及儿童头部所在区域确定儿童是否正确佩戴脑电采集设备;
若佩戴正确,则儿童继续进行数据采集,若佩戴不正确,则提示工作人员帮助儿童正确佩戴脑电采集设备。
进一步的,所述检测得到儿童的头部关键点位置,定位出儿童头部所在区域的中心点包括以下步骤:
将儿童正面图像的大小转换为40*40*3,并输入至DCNN中的人脸关键精确定位网络结构中,且输入层的大小为n;
通过儿童的人脸关键点预测值和真实值的欧式距离与儿童人脸大小的比值确定检测误差;
其中,儿童人脸关键点中眼睛定位的计算公式为:
Figure BDA0004077753870000031
式中,lx和ly分别表示坐标空间内儿童眼睛边框矩形顶角对应的位置信息;
xi和xj分别为第i个和第j个关键点的横坐标;
ym和yn分别为第m个和第n个关键点的纵坐标;
儿童人脸关键点中嘴巴定位的计算公式为:
Figure BDA0004077753870000032
式中,xk为第k个关键点的横坐标;
yi和yj分别为第i个和第j个关键点的纵坐标;
根据眼睛和嘴巴位置的中心点作为儿童头部所在区域的中心点。
进一步的,所述根据检测得到的脑电采集设备的位置及儿童头部所在区域确定儿童是否正确佩戴脑电采集设备包括以下步骤:
训练脑电采集设备的分类器;
在儿童头部所在区域通过分类器确定是否正确佩戴脑电采集设备;
其中,所述分类器采用卷积和全连接网络架构,且包含两个卷积层、一个池化层及两个全连接层。
进一步的,所述训练脑电采集设备的分类器时,获取脑电采集设备训练数据。
进一步的,所述获取脑电采集设备训练数据时,通过网络获取脑电采集设备和儿童相关的开源图片,且在真实环境中通过固定位置的摄像头采集训练图片,并利用YOLOV3提取环境区域作为儿童人体标签;
按儿童头部所在区域是否佩戴脑电采集设备作为正训练样本及负训练样本,保存。
进一步的,所述基于上下文感知特征提取技术对儿童面部表情数据、眼动数据及脑电数据进行提取,并获得面部表情上下文特征、眼动上下文特征及脑电上下文特征包括以下步骤:
按照每秒30帧的频率提取儿童面部表情数据、眼动数据及脑电数据,且得到面部表情数据、眼动数据及脑电数据相同长度的特征序列;
使用卷积神经网络对卷积核窗口内的特征进行压缩,并通过最大池化层和一个全连接层得到面部表情数据、眼动数据及脑电数据的特征表示;
将各个特征序列输入各数据源独立的子任务级LSTM,学习上下文信息,得到面部表情数据、眼动数据及脑电数据的上下文特征。
进一步的,所述对面部表情特征、眼动特征及脑电特征进行交互特征融合,得到融合特征包括以下步骤:
将面部表情特征、眼动特征及脑电特征进行两两组合,并在两个组合中设置一个主输入和一个辅助输入;
将主输入和辅助输入投影到同一个共享向量空间中,并将主输入和辅助输入在全连接层进行拼接,得到融合特征。
进一步的,所述使用门控卷积机制对融合特征进行冗余信息过滤,得到过滤后特征包括以下步骤:
使用一维卷积核对获取局部特征,且每个内核对应一个特征检测器,并通过特征检测器提取特定模式的活动局部特征;
每个卷积核对中包含两个内核,第一个内核进行转换信息,完成信息表示,另一个内核对应一个门控,用于控制第一个内核的结果流向最终表示的比例;
设定两个内核的权值为Ga和Gb,且利用tanh激活函数处理Ga对应的卷积核,将其接受域的r列映射为特征a,同时利用sigmoid激活函数处理Gb对应的卷积核,将其r列映射为特征b;
a与b的乘积表示过滤后特征。
本发明的有益效果为:
(1)本发明的一种基于注意力机制的情绪面孔及生理反应识别方法,通过多源数据融合实现自闭症儿童智能化识别精准度的提升。减少患者家庭、社会的经济负担:开展自闭症儿童智能化识别,及早发现及早治疗,有助于改善患儿病情严重程度,减轻个人、家庭及社会的负担。本发明提出的自闭症儿童智能化识别方法使用低成本的仪器设备采集儿童的各种行为、认知数据,较之传统的量表和医生主观判断的识别方法,更简单、便捷、客观、高效,能有效提升诊断效率,极大程度上减少医生工作的时间成本,进而减轻个人、家庭及社会的经济负担。
(2)提升医生诊断效率和诊断结果的精度:目前我国自闭症患者超过1000万,其中儿童患者超过200万,并以每年20万的速度增长,需要大量的医务工作人员,而我国目前医疗卫生资源相对紧张,传统的量表和医生主观判断的筛查方法费时、费力、主观误差较大,因此,迫切需要一种新的、高效率、高精度的识别方法。本发明提出的智能化识别方法,较之传统方法识别效率高,识别精度高。
(3)本发明在对儿童的面部表情数据、眼动数据及脑电数据进行采集时,能够实时的检测儿童的脑电采集设备是否正确佩戴,防止由于儿童的配合使用,导致脑电数据采集的不准确,同时由于采用精确的儿童头部所在区域的确认方法,使得儿童是否正确佩戴脑电采集设备的检测准确度大大提高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的一种基于注意力机制的情绪面孔及生理反应识别方法的流程图。
具体实施方式
为进一步说明各实施例,本发明提供有附图,这些附图为本发明揭露内容的一部分,其主要用以说明实施例,并可配合说明书的相关描述来解释实施例的运作原理,配合参考这些内容,本领域普通技术人员应能理解其他可能的实施方式以及本发明的优点,图中的组件并未按比例绘制,而类似的组件符号通常用来表示类似的组件。
根据本发明的实施例,提供了一种基于注意力机制的情绪面孔及生理反应识别方法。
现结合附图和具体实施方式对本发明进一步说明,如图1所示,根据本发明实施例的基于注意力机制的情绪面孔及生理反应识别方法,该方法包括以下步骤:
S1、利用预先配置的摄像机、眼动采集设备及脑电采集设备对测试儿童的面部表情数据、眼动数据及脑电数据进行采集,并检测该儿童的脑电采集设备是否正确佩戴;
在一个实施例中,所述利用预先配置的摄像机、眼动采集设备及脑电采集设备对测试儿童的面部表情数据、眼动数据及脑电数据进行采集包括以下步骤:
在儿童面前配置摄像机及眼动采集设备,且为儿童佩戴脑电采集设备;
在预先建立的面部表情数据库中选取若干表情图片,且表情图片的表情强度由低到高依次呈现,同时每张图片呈现10秒。
在一个实施例中,所述检测该儿童的脑电采集设备是否正确佩戴包括以下步骤:
通过预先配置的摄像机实时采集儿童正面图像,作为检测使用;
将采集的儿童正面图像输入训练好的人体关键点检测网络Openpose中,并检测得到儿童各个关键点的位置;
将采集的儿童正面图像输入训练好的人体框检测模型及脑电采集设备检测模型YOLO3中,并检测得到儿童身体框及脑电采集设备的位置;
检测得到儿童的头部关键点位置,定位出儿童头部所在区域的中心点,且以儿童身体框中较短边作为边长形成矩形区域,并将该矩形区域作为儿童头部所在区域;
根据检测得到的脑电采集设备的位置及儿童头部所在区域确定儿童是否正确佩戴脑电采集设备;
若佩戴正确,则儿童继续进行数据采集,若佩戴不正确,则提示工作人员帮助儿童正确佩戴脑电采集设备。
在一个实施例中,所述检测得到儿童的头部关键点位置,定位出儿童头部所在区域的中心点包括以下步骤:
将儿童正面图像的大小转换为40*40*3,并输入至DCNN中的人脸关键精确定位网络结构中,且输入层的大小为n;
通过儿童的人脸关键点预测值和真实值的欧式距离与儿童人脸大小的比值确定检测误差;
检测误差的计算公式为:
Figure BDA0004077753870000071
式中,xi和yi分别为第i个关键点的横坐标和纵坐标;
Figure BDA0004077753870000072
Figure BDA0004077753870000073
分别为第i个关键点的横坐标和纵坐标的预测值;
其中,儿童人脸关键点中眼睛定位的计算公式为:
Figure BDA0004077753870000074
式中,lx和ly分别表示坐标空间内儿童眼睛边框矩形顶角对应的位置信息;
xi和xj分别为第i个和第j个关键点的横坐标;
ym和yn分别为第m个和第n个关键点的纵坐标;
儿童人脸关键点中嘴巴定位的计算公式为:
Figure BDA0004077753870000081
式中,xk为第k个关键点的横坐标;
yi和yj分别为第i个和第j个关键点的纵坐标;
根据眼睛和嘴巴位置的中心点作为儿童头部所在区域的中心点。
在一个实施例中,所述根据检测得到的脑电采集设备的位置及儿童头部所在区域确定儿童是否正确佩戴脑电采集设备包括以下步骤:
训练脑电采集设备的分类器;
在儿童头部所在区域通过分类器确定是否正确佩戴脑电采集设备;
其中,所述分类器采用卷积和全连接网络架构,且包含两个卷积层、一个池化层及两个全连接层。
在一个实施例中,所述训练脑电采集设备的分类器时,获取脑电采集设备训练数据;
在一个实施例中,所述获取脑电采集设备训练数据时,通过网络获取脑电采集设备和儿童相关的开源图片,且在真实环境中通过固定位置的摄像头采集训练图片,并利用YOLOV3提取环境区域作为儿童人体标签;
按儿童头部所在区域是否佩戴脑电采集设备作为正训练样本及负训练样本,保存。
在训练时对正训练样本及负训练样本进行数据增强,包括水平翻转、放大、缩小、旋转等。
S2、基于上下文感知特征提取技术对儿童面部表情数据、眼动数据及脑电数据进行提取,并获得面部表情上下文特征、眼动上下文特征及脑电上下文特征;
在一个实施例中,所述基于上下文感知特征提取技术对儿童面部表情数据、眼动数据及脑电数据进行提取,并获得面部表情上下文特征、眼动上下文特征及脑电上下文特征包括以下步骤:
按照每秒30帧的频率提取儿童面部表情数据、眼动数据及脑电数据,且得到面部表情数据、眼动数据及脑电数据相同长度的特征序列;例如,使用OGAMA软件提取眼动数据基础特征,使用EmotivPRO提取脑电数据基础特征,使用预训练的表情识别模型的中间层输出作为面部表情特征;经过上述特征提取和处理后,在三种数据源上得到了相同长度的特征序列,作为后续模型的输入。例如某个被试的面部表情视频片段包含10个子任务,一个子任务包含10秒的视频帧。各数据源特征序列可以表示为:
Figure BDA0004077753870000091
Figure BDA0004077753870000092
式中,m∈{e,f,k},e,f,k分别对应眼动、面部表情、脑电三种数据源;
Figure BDA0004077753870000093
表示儿童在完成第l个子任务时多源数据的特征矩阵,N为子任务时长;
Figure BDA0004077753870000094
表示子任务第1秒在m数据源上的特征向量,其维度大小为dm。将某个被试L个子任务的特征矩阵按顺序排列,得到该被试在进行情绪识别任务时的特征张量Dm
使用卷积神经网络对卷积核窗口内的特征进行压缩,并通过最大池化层和一个全连接层得到面部表情数据、眼动数据及脑电数据的特征表示,其形式化定义如下:
Figure BDA0004077753870000095
Figure BDA0004077753870000096
Figure BDA0004077753870000097
sv=tanh(WcCv+bc)
式中,
Figure BDA0004077753870000098
表示卷积运算,卷积核窗口大小h,
Figure BDA0004077753870000099
为数据特征序列中的第i列至第i+h-1列,Wcov为卷积核参数。式
Figure BDA00040777538700000910
使用最大池化对一个卷积核扫描得到的特征进行压缩,得到该卷积核的最终结果。
将nc个卷积核生成的特征进行拼接后经过一个全连接层,得到该数据在子任务上的向量表示sv
在获得了各数据源的子任务特征表示后,将各个特征序列输入各数据源独立的子任务级LSTM,学习上下文信息,得到面部表情数据、眼动数据及脑电数据的上下文特征。具体定义如下:
Figure BDA0004077753870000101
Figure BDA0004077753870000102
式中,Hm表示该层LSMT每个时间步的隐层输出构成的序列,包含了单源数据内部上下文信息,供后续进行多源特征融合。
S3、对面部表情特征、眼动特征及脑电特征进行交互特征融合,得到融合特征;
在一个实施例中,所述对面部表情特征、眼动特征及脑电特征进行交互特征融合,得到融合特征包括以下步骤:
将面部表情特征、眼动特征及脑电特征进行两两组合,并在两个组合中设置一个主输入和一个辅助输入,将两种输入特征融合来生成输出目标;
Figure BDA0004077753870000103
为主输入,
Figure BDA0004077753870000104
为辅助输入;
将主输入和辅助输入投影到同一个共享向量空间中:
Figure BDA0004077753870000105
Figure BDA0004077753870000106
式中,
Figure BDA0004077753870000107
是训练参数,dv表示共享向量空间的维数。特征融合模块中使用Eemb和Gemb来计算注意力矩阵
Figure BDA0004077753870000108
Mij表示主输入的第i个内容与辅助输入的第j个内容之间的相关性,注意力矩阵M表示如下:
Figure BDA0004077753870000109
为衡量每个辅助输入对主输入的重要性,使用softmax函数量化M,表示如下:
Figure BDA0004077753870000111
那么,基于注意力机制的辅助输入J表示为:
J=G·MT
将主输入和辅助输入在全连接层进行拼接,得到融合特征U={U1,U2,…,Un};
U=tanh(Pu[Ei:Ji]+Cu)。S4、使用门控卷积机制对融合特征进行冗余信息过滤,得到过滤后特征;
交互式特征融合充分利用多源数据间的相关信息,但同时也给融合向量带来了较多冗余信息。本发明拟使用门控卷积机制进行冗余信息过滤,提取融合向量中最具识别能力的特征,最终提升自闭症儿童的识别精度;
在一个实施例中,所述使用门控卷积机制对融合特征进行冗余信息过滤,得到过滤后特征包括以下步骤:
使用一维卷积核对获取局部特征,且每个内核对应一个特征检测器,并通过特征检测器提取特定模式的活动局部特征;
每个卷积核对中包含两个内核,第一个内核进行转换信息,完成信息表示,另一个内核对应一个门控,用于控制第一个内核的结果流向最终表示的比例;
设定两个内核的权值为Ga和Gb,且利用tanh激活函数处理Ga对应的卷积核,将其接受域的r列映射为特征a,同时利用sigmoid激活函数处理Gb对应的卷积核,将其r列映射为特征b;
a与b的乘积表示过滤后特征。
过滤器在整个子任务中活动,能够得到一个新的特征序列e={e1,e2,…,ek-r+1}:
ai=tanh(qi:i+r-1*Ga+ba)
bi=sigmoid(qi:i+r-1*Gb+bb)
ei=ai×bi
其中
Figure BDA0004077753870000112
代表卷积核对的偏差,*为卷积操作,则生成的新特征可以形成矩阵
Figure BDA0004077753870000113
最后使用一个极大池化层,得到向量z,其大小等于过滤器对的数量nk,向量z表示如下:
Figure BDA0004077753870000121
通过上述的特定特征提取,过滤掉了无效的冗余信息,将新特征输入到最终的输出层。
S5、根据过滤后特征并使用分类器完成自闭症儿童识别任务。
本发明达到如下指标:
(1)在实验的基础上,使用基于上下文感知的单源数据进行自闭症儿童识别,在各单数据源上识别结果的正确率、召回率和F1值与当前主流方法相比预期分别提升3-5个百分点。
(2)使用细粒度注意力机制进行多源数据交互式融合,并进行融合向量中冗余信息过滤后,识别结果在正确率、召回率和F1值上预期能达到93%以上。
(3)注意力机制驱动下融合多源数据的自闭症儿童智能化识别研究成果,首先在某三甲医院心理门诊及儿童保健科进行示范应用,开展疑似自闭症儿童的辅助诊断,降低传统问卷和量表诊断的人力成本(预期至少降低60%的人力成本)。
(4)在示范应用的基础上,拟通过科技成果转化的方式促进自闭症儿童智能化识别的社会化推广,健全和完善儿童自闭症康复体系,完善我省儿童保健服务体系,产生重大经济和社会效益。
综上所述,本发明的一种基于注意力机制的情绪面孔及生理反应识别方法,通过多源数据融合实现自闭症儿童智能化识别精准度的提升。减少患者家庭、社会的经济负担:开展自闭症儿童智能化识别,及早发现及早治疗,有助于改善患儿病情严重程度,减轻个人、家庭及社会的负担。本发明提出的自闭症儿童智能化识别方法使用低成本的仪器设备采集儿童的各种行为、认知数据,较之传统的量表和医生主观判断的识别方法,更简单、便捷、客观、高效,能有效提升诊断效率,极大程度上减少医生工作的时间成本,进而减轻个人、家庭及社会的经济负担。提升医生诊断效率和诊断结果的精度:目前我国自闭症患者超过1000万,其中儿童患者超过200万,并以每年20万的速度增长,需要大量的医务工作人员,而我国目前医疗卫生资源相对紧张,传统的量表和医生主观判断的筛查方法费时、费力、主观误差较大,因此,迫切需要一种新的、高效率、高精度的识别方法。本发明提出的智能化识别方法,较之传统方法识别效率高,识别精度高。本发明在对儿童的面部表情数据、眼动数据及脑电数据进行采集时,能够实时的检测儿童的脑电采集设备是否正确佩戴,防止由于儿童的配合使用,导致脑电数据采集的不准确,同时由于采用精确的儿童头部所在区域的确认方法,使得儿童是否正确佩戴脑电采集设备的检测准确度大大提高。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于注意力机制的情绪面孔及生理反应识别方法,其特征在于,该方法包括以下步骤:
S1、利用预先配置的摄像机、眼动采集设备及脑电采集设备对测试儿童的面部表情数据、眼动数据及脑电数据进行采集,并检测该儿童的脑电采集设备是否正确佩戴;
S2、基于上下文感知特征提取技术对儿童面部表情数据、眼动数据及脑电数据进行提取,并获得面部表情上下文特征、眼动上下文特征及脑电上下文特征;
S3、对面部表情特征、眼动特征及脑电特征进行交互特征融合,得到融合特征;
S4、使用门控卷积机制对融合特征进行冗余信息过滤,得到过滤后特征;
S5、根据过滤后特征并使用分类器完成自闭症儿童识别任务。
2.根据权利要求1所述的一种基于注意力机制的情绪面孔及生理反应识别方法,其特征在于,所述利用预先配置的摄像机、眼动采集设备及脑电采集设备对测试儿童的面部表情数据、眼动数据及脑电数据进行采集包括以下步骤:
在儿童面前配置摄像机及眼动采集设备,且为儿童佩戴脑电采集设备;
在预先建立的面部表情数据库中选取若干表情图片,且表情图片的表情强度由低到高依次呈现,同时每张图片呈现10秒。
3.根据权利要求1所述的一种基于注意力机制的情绪面孔及生理反应识别方法,其特征在于,所述检测该儿童的脑电采集设备是否正确佩戴包括以下步骤:
通过预先配置的摄像机实时采集儿童正面图像,作为检测使用;
将采集的儿童正面图像输入训练好的人体关键点检测网络Openpose中,并检测得到儿童各个关键点的位置;
将采集的儿童正面图像输入训练好的人体框检测模型及脑电采集设备检测模型YOLO3中,并检测得到儿童身体框及脑电采集设备的位置;
检测得到儿童的头部关键点位置,定位出儿童头部所在区域的中心点,且以儿童身体框中较短边作为边长形成矩形区域,并将该矩形区域作为儿童头部所在区域;
根据检测得到的脑电采集设备的位置及儿童头部所在区域确定儿童是否正确佩戴脑电采集设备;
若佩戴正确,则儿童继续进行数据采集,若佩戴不正确,则提示工作人员帮助儿童正确佩戴脑电采集设备。
4.根据权利要求3所述的一种基于注意力机制的情绪面孔及生理反应识别方法,其特征在于,所述检测得到儿童的头部关键点位置,定位出儿童头部所在区域的中心点包括以下步骤:
将儿童正面图像的大小转换为40*40*3,并输入至DCNN中的人脸关键精确定位网络结构中,且输入层的大小为n;
通过儿童的人脸关键点预测值和真实值的欧式距离与儿童人脸大小的比值确定检测误差;
其中,儿童人脸关键点中眼睛定位的计算公式为:
Figure FDA0004077753860000021
式中,lx和ly分别表示坐标空间内儿童眼睛边框矩形顶角对应的位置信息;
xi和xj分别为第i个和第j个关键点的横坐标;
ym和yn分别为第m个和第n个关键点的纵坐标;
儿童人脸关键点中嘴巴定位的计算公式为:
Figure FDA0004077753860000022
式中,xk为第k个关键点的横坐标;
yi和yj分别为第i个和第j个关键点的纵坐标;
根据眼睛和嘴巴位置的中心点作为儿童头部所在区域的中心点。
5.根据权利要求3所述的一种基于注意力机制的情绪面孔及生理反应识别方法,其特征在于,所述根据检测得到的脑电采集设备的位置及儿童头部所在区域确定儿童是否正确佩戴脑电采集设备包括以下步骤:
训练脑电采集设备的分类器;
在儿童头部所在区域通过分类器确定是否正确佩戴脑电采集设备;
其中,所述分类器采用卷积和全连接网络架构,且包含两个卷积层、一个池化层及两个全连接层。
6.根据权利要求5所述的一种基于注意力机制的情绪面孔及生理反应识别方法,其特征在于,所述训练脑电采集设备的分类器时,获取脑电采集设备训练数据。
7.根据权利要求6所述的一种基于注意力机制的情绪面孔及生理反应识别方法,其特征在于,所述获取脑电采集设备训练数据时,通过网络获取脑电采集设备和儿童相关的开源图片,且在真实环境中通过固定位置的摄像头采集训练图片,并利用YOLOV3提取环境区域作为儿童人体标签;
按儿童头部所在区域是否佩戴脑电采集设备作为正训练样本及负训练样本,保存。
8.根据权利要求1所述的一种基于注意力机制的情绪面孔及生理反应识别方法,其特征在于,所述基于上下文感知特征提取技术对儿童面部表情数据、眼动数据及脑电数据进行提取,并获得面部表情上下文特征、眼动上下文特征及脑电上下文特征包括以下步骤:
按照每秒30帧的频率提取儿童面部表情数据、眼动数据及脑电数据,且得到面部表情数据、眼动数据及脑电数据相同长度的特征序列;
使用卷积神经网络对卷积核窗口内的特征进行压缩,并通过最大池化层和一个全连接层得到面部表情数据、眼动数据及脑电数据的特征表示;
将各个特征序列输入各数据源独立的子任务级LSTM,学习上下文信息,得到面部表情数据、眼动数据及脑电数据的上下文特征。
9.根据权利要求8所述的一种基于注意力机制的情绪面孔及生理反应识别方法,其特征在于,所述对面部表情特征、眼动特征及脑电特征进行交互特征融合,得到融合特征包括以下步骤:
将面部表情特征、眼动特征及脑电特征进行两两组合,并在两个组合中设置一个主输入和一个辅助输入;
将主输入和辅助输入投影到同一个共享向量空间中,并将主输入和辅助输入在全连接层进行拼接,得到融合特征。
10.根据权利要求9所述的一种基于注意力机制的情绪面孔及生理反应识别方法,其特征在于,所述使用门控卷积机制对融合特征进行冗余信息过滤,得到过滤后特征包括以下步骤:
使用一维卷积核对获取局部特征,且每个内核对应一个特征检测器,并通过特征检测器提取特定模式的活动局部特征;
每个卷积核对中包含两个内核,第一个内核进行转换信息,完成信息表示,另一个内核对应一个门控,用于控制第一个内核的结果流向最终表示的比例;
设定两个内核的权值为Ga和Gb,且利用tanh激活函数处理Ga对应的卷积核,将其接受域的r列映射为特征a,同时利用sigmoid激活函数处理Gb对应的卷积核,将其r列映射为特征b;
a与b的乘积表示过滤后特征。
CN202310113595.0A 2023-02-14 2023-02-14 一种基于注意力机制的情绪面孔及生理反应识别方法 Pending CN116098621A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310113595.0A CN116098621A (zh) 2023-02-14 2023-02-14 一种基于注意力机制的情绪面孔及生理反应识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310113595.0A CN116098621A (zh) 2023-02-14 2023-02-14 一种基于注意力机制的情绪面孔及生理反应识别方法

Publications (1)

Publication Number Publication Date
CN116098621A true CN116098621A (zh) 2023-05-12

Family

ID=86255904

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310113595.0A Pending CN116098621A (zh) 2023-02-14 2023-02-14 一种基于注意力机制的情绪面孔及生理反应识别方法

Country Status (1)

Country Link
CN (1) CN116098621A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117153403A (zh) * 2023-09-13 2023-12-01 安徽爱学堂教育科技有限公司 基于微表情与身体指标的心理健康评价方法
CN117942079A (zh) * 2024-03-27 2024-04-30 山东大学 一种基于多维感知与融合的情绪智力分类方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170251985A1 (en) * 2016-02-12 2017-09-07 Newton Howard Detection Of Disease Conditions And Comorbidities
CN111012367A (zh) * 2019-12-27 2020-04-17 华中师范大学 一种精神疾病的智能识别系统
US20210004589A1 (en) * 2018-12-18 2021-01-07 Slyce Acquisition Inc. Scene and user-input context aided visual search
CN113239805A (zh) * 2021-05-14 2021-08-10 长春工业大学 基于mtcnn的口罩佩戴识别方法
CN115100428A (zh) * 2022-07-01 2022-09-23 天津大学 一种利用上下文感知的目标检测方法
CN115349860A (zh) * 2022-07-13 2022-11-18 华南理工大学 一种多模态情绪识别方法、系统、设备及介质
CN115497139A (zh) * 2022-09-28 2022-12-20 西南科技大学 一种融合注意力机制的口罩遮挡人脸检测与识别方法
CN115659259A (zh) * 2022-12-27 2023-01-31 华南理工大学 基于层次化多维空间的脑电情感识别方法、介质及设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170251985A1 (en) * 2016-02-12 2017-09-07 Newton Howard Detection Of Disease Conditions And Comorbidities
US20210004589A1 (en) * 2018-12-18 2021-01-07 Slyce Acquisition Inc. Scene and user-input context aided visual search
CN111012367A (zh) * 2019-12-27 2020-04-17 华中师范大学 一种精神疾病的智能识别系统
CN113239805A (zh) * 2021-05-14 2021-08-10 长春工业大学 基于mtcnn的口罩佩戴识别方法
CN115100428A (zh) * 2022-07-01 2022-09-23 天津大学 一种利用上下文感知的目标检测方法
CN115349860A (zh) * 2022-07-13 2022-11-18 华南理工大学 一种多模态情绪识别方法、系统、设备及介质
CN115497139A (zh) * 2022-09-28 2022-12-20 西南科技大学 一种融合注意力机制的口罩遮挡人脸检测与识别方法
CN115659259A (zh) * 2022-12-27 2023-01-31 华南理工大学 基于层次化多维空间的脑电情感识别方法、介质及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
廖梦怡等: "融合多模态数据的自闭症谱系障碍儿童智能化识别及其有效性", 科学通报, vol. 66, no. 20, 31 December 2021 (2021-12-31), pages 2618 - 2628 *
许琬鹦: "基于基于生理信号分析的自闭症谱系障碍与典型生理发展儿童情绪认知差异性研究", 中国优秀硕士论文期刊网, 31 January 2021 (2021-01-31) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117153403A (zh) * 2023-09-13 2023-12-01 安徽爱学堂教育科技有限公司 基于微表情与身体指标的心理健康评价方法
CN117942079A (zh) * 2024-03-27 2024-04-30 山东大学 一种基于多维感知与融合的情绪智力分类方法及系统

Similar Documents

Publication Publication Date Title
CN116098621A (zh) 一种基于注意力机制的情绪面孔及生理反应识别方法
CN111225612A (zh) 基于机器学习的神经障碍识别和监测系统
CN111528859A (zh) 基于多模态深度学习技术的儿童adhd筛查评估系统
Zhang et al. Detecting negative emotional stress based on facial expression in real time
Tang et al. Automatic identification of high-risk autism spectrum disorder: a feasibility study using video and audio data under the still-face paradigm
CN110674773A (zh) 一种痴呆症的识别系统、装置及存储介质
CN111524580A (zh) 一种基于神经网络的病毒筛查与防疫系统及方法
CN111920420A (zh) 一种基于统计学习的患者行为多模态分析与预测系统
WO2021109855A1 (zh) 一种基于深度学习的孤独症辅助评估系统和方法
Rad et al. Stereotypical motor movement detection in dynamic feature space
CN211862821U (zh) 一种基于深度学习的孤独症辅助评估系统
CN115101191A (zh) 一种帕金森疾病诊断系统
Mane et al. StressNet: Hybrid model of LSTM and CNN for stress detection from electroencephalogram signal (EEG)
Skaramagkas et al. Multi-modal Deep Learning Diagnosis of Parkinson’s Disease-A Systematic Review
Wu et al. Tic detection in tourette syndrome patients based on unsupervised visual feature learning
Zhao et al. Research and development of autism diagnosis information system based on deep convolution neural network and facial expression data
Bhan et al. Diagnosing Parkinson’s disease in Early Stages using Image Enhancement, ROI Extraction and Deep Learning Algorithms
Eisenhauer et al. Context-based facilitation in visual word recognition: Evidence for visual and lexical but not pre-lexical contributions
Zhao et al. A multimodal data driven rehabilitation strategy auxiliary feedback method: A case study
Boppana et al. Deep Learning Approach for an early stage detection of Neurodevelopmental Disorders
CN114974254A (zh) 一种基于多模态人工智能技术的儿童抑郁情绪识别方法
Yu et al. Depression and severity detection based on body kinematic features: using kinect recorded skeleton data of simple action
Sridurga et al. Detecting Autism Spectrum Syndrome using VGG19 and Xception Networks
CN111870253A (zh) 基于视觉和语音融合技术的抽动障碍症病情监测方法及其系统
Narala et al. Prediction of Autism Spectrum Disorder Using Efficient Net

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination