CN111680620B - 基于d-s证据理论的人机交互意图识别方法 - Google Patents

基于d-s证据理论的人机交互意图识别方法 Download PDF

Info

Publication number
CN111680620B
CN111680620B CN202010506184.4A CN202010506184A CN111680620B CN 111680620 B CN111680620 B CN 111680620B CN 202010506184 A CN202010506184 A CN 202010506184A CN 111680620 B CN111680620 B CN 111680620B
Authority
CN
China
Prior art keywords
electroencephalogram
classification
human
signal
computer interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010506184.4A
Other languages
English (en)
Other versions
CN111680620A (zh
Inventor
王崴
赵敏睿
瞿珏
高鹏
王庆力
葛家昂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Air Force Engineering University of PLA
Original Assignee
Air Force Engineering University of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Air Force Engineering University of PLA filed Critical Air Force Engineering University of PLA
Priority to CN202010506184.4A priority Critical patent/CN111680620B/zh
Publication of CN111680620A publication Critical patent/CN111680620A/zh
Application granted granted Critical
Publication of CN111680620B publication Critical patent/CN111680620B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

本发明公开了基于D‑S证据理论的人机交互意图识别方法,包括以下步骤:步骤S1,采集用户脑电和眼动信号,并进行特征提取;步骤S2,采用模式识别算法对生理信号特征进行分类识别;步骤S3,对分类器分类算法进行决策级融合得到最终结果。本发明通过针对传统人机交互意图识别准确率相对较低,不同生理信息不能进行有效融合的问题,设计了基于D‑S证据理论的脑电眼动信息融合人机交互意图识别方法,能够识别用户的人机交互意图,通过采集用户的脑电和眼动信号,对脑电和眼动信号分别进行特征提取和分类,具有准确率高,泛化能力强的特点,为人机交互界面自适应设计奠定基础。

Description

基于D-S证据理论的人机交互意图识别方法
技术领域
本发明涉及人机交互技术领域,具体来说,涉及基于D-S证据理论的人机交互意图识别方法。
背景技术
人机交互、人机互动(英文:Human–Computer Interaction或Human–MachineInteraction,简称HCI或HMI),是一门研究系统与用户之间的交互关系的学问。系统可以是各种各样的机器,也可以是计算机化的系统和软件。人机交互界面通常是指用户可见的部分。用户通过人机交互界面与系统交流,并进行操作。小如收音机的播放按键,大至飞机上的仪表板,或发电厂的控制室。人机交互界面的设计要包含用户对系统的理解(即心智模型),那是为了系统的可用性或者用户友好性。
近年来,很多学者尝试将多生理信息进行融合,以期提高人机交互识别准确率。目前有融合脑电和眼动信号对意图进行识别,发现融合脑电和眼动信号识别准确率比依靠单一生理信号准确率高5%左右。融合眼动、脑电和手势特征对6自由度机械臂进行操控,结果显示,可用性量表(SUS)分数高于平均水平。谢平等人融合脑电、心电和肌电信号对驾驶疲劳进行评估,结果表明多生理特征融合识别准确率明显高于单独生理信号识别率;融合脑电信号与肌电信号对动作模式进行识别,结果表明,脑肌电融合信号识别正确率为98%高于单纯依靠脑电特征识别准确率75%。这说明多生理信号融合可提高对人认知和交互意图的识别准确率,但上述研究未涉及人机交互意图识别。
因此,我们提出基于D-S证据理论的人机交互意图识别方法,可在用户进行人机交互时进行意图识别。
发明内容
针对相关技术中的问题,本发明提出基于D-S证据理论的人机交互意图识别方法,通过采集用户的脑电和眼动信号,对脑电和眼动信号分别进行特征提取和分类,然后采用D-S证据理论对脑电和眼动信号分类结果进行融合,基于D-S证据理论的脑电眼动信息融合人机交互意图识别方法具有准确率高,泛化能力强的特点,为人机交互界面自适应设计奠定基础,以克服现有相关技术所存在的上述技术问题。
本发明的技术方案是这样实现的:
基于D-S证据理论的人机交互意图识别方法,包括以下步骤:
步骤S1,采集用户脑电和眼动信号,并进行特征提取;
步骤S2,采用模式识别算法对生理信号特征进行分类识别;
步骤S3,对分类器分类算法进行决策级融合得到最终结果;
其中包括以下步骤:
A1,A2,…,Ak为k种认知意图,通过n类生理信号进行了分类,则识别框架为:
Θ={A1,A2,…,Ak},
每一种生理信号特征的识别算法对各类型意图可信度分配函数为:
mi(A1,A2,…,Ak,Θ)=(piqi1,piqi2,…,piqk,1―pi),
其中mi为第i种生理特征识别算法可信度分配函数,i=1,2…n,
pi为第i种生理特征识别算法正确率,qij为第i种生理特征识别判定样本为第j 种认知意图的可信度,j=1,2…k,对于识别框架Θ中任意认知意图Aj,采用多生理特征分类结果的Dempster决策规则为:
Figure BDA0002526612160000021
具体的:
Figure BDA0002526612160000022
Figure BDA0002526612160000023
其中,算法正确率pi通常可用训练集样本正确率,认知意图的可信度qij根据算法的输出计算确定:
Figure BDA0002526612160000024
其中j,h为认知意图序号:k为认知意图类型的数量,Fi(Aj,Ah)根据认知意图j和h的分类面做出的判断结果:
Fi(Aj,Ah)∈{+1,―1}。
进一步的,步骤S1包括:
脑电信号特征提取;
眼动信号特征提取,其中;
所述脑电信号特征提取,包括:
基于小波变换的脑电信号特征提取;
于共空域模式的脑电信号特征提取。
进一步的,所述基于小波变换的脑电信号特征提取,包括:
采样频率为128Hz的脑电信号s(t)进行3层离散小波变换,s(t)的离散小波变换定义:
Figure BDA0002526612160000031
其中:
Figure BDA0002526612160000032
是离散小波基函数;j为频率分辨率,k为时间平移量;
其,对s(t)进行分解,可得:
Figure BDA0002526612160000033
其中,Al为低频分量,Dj为不同频率下的细节分量,各子带对应近似系数c Al,小波系数cDj,单一尺度下小波能量Ei定义为该尺度下小波系数平方和,因此,总小波能量的定义为:
Figure 100002_DEST_PATH_GDA0002586195110000044
相对小波能量
Figure 100002_DEST_PATH_GDA0002586195110000045
小波熵(We)可表示为:
Figure BDA0002526612160000035
进一步的,所述于共空域模式的脑电信号特征提取,包括:
CSP通过对原始信号进行空间投影,找到最佳投影方向,满足第一类信号在某方向方差最大,第二类信号方差最小,得到两类差别最大的投影方向;
设E为去除直流成分处理后的脑电信号矩阵,维数为N×T,其中N为脑电数据通道数目,T为每个通道的采样点数,则脑电数据的协方差矩阵为:
Figure BDA0002526612160000036
式中ET为E的转置矩阵,trace(EET)为矩阵EET的迹。各类脑电信号的平均协方差为Ci,i∈{1,2},因此,平均协方差矩阵之和为:
Cc=C1+C2
对Cc采用特征值分解,有:
Figure BDA0002526612160000037
式中,Uc为Cc的特征向量矩阵,λc为Cc的特征值矩阵,构造白化矩阵
Figure BDA0002526612160000041
Figure BDA0002526612160000042
对Cc进行白化,有:
I=PCcPT
其中I为单位矩阵,对C1、C2进行变换,有:
Si=PCiPT,i∈{1,2},
其中S1、S2有相同的特征向量,且对应的特征值和为1,换言之,在S1最大特征值的方向上,S2特征值取得最小;反之,在在S1最小特征值的方向上, S2特征值达到最大;
S1=Bλ1BT
则有
Figure BDA0002526612160000043
投影矩阵W为,
W=BTP,
其中,W为N×N阶矩阵,原始信号E通过投影,得到新信号:
Z=WE,
选取经过W的前m行和后m行投影后产生的m对新信号进行如下变化,得最终特征值:
Figure BDA0002526612160000044
其中var(Zj)为Zj的方差。
进一步的,眼动信号特征提取包括采集注视点X坐标(FX)、注视点Y 坐标(FY)、瞳孔直径(PD)、注视时间(FT)和眼跳幅度(SA)生理特征。
进一步的,步骤S2包括SVM分类,包括:
预先设样本集为:D={(x1,y1),…,(xl,yl)}x∈Rn y∈{+1,―1},
其中n为样本维数,l为样本数目,则分类平面为n维超平面,可表示为:
<w,x>+b=0w∈Rn b∈R;
则分类间隔为2/‖w‖,显然,‖w‖取最小值时,分类间隔达到最大,
其最大分类间隔可转化为:
min‖w‖2/2s.t.yi(w·xi+b)―1≥0,i=1,2,…,l,
当问题线性可分时,解向量w*即支持向量,支持向量机的分类功能由支持向量决定,支持向量机即描述最优分类超平面的决策函数,可表示为:
f(x)=sgn(<w*,x>+b);
当问题线性不可分时,通常采用将样本非线性变换投影到高维空间的方法,使样本在这个高维特征空间可分,此时决策函数为:
Figure BDA0002526612160000051
其中K(x,xi)为核函数,αi为拉式乘子。
本发明的有益效果:
本发明通过针对传统人机交互意图识别准确率相对较低,不同生理信息不能进行有效融合的问题,设计了基于D-S证据理论的脑电眼动信息融合人机交互意图识别方法,能够识别用户的人机交互意图,通过采集用户的脑电和眼动信号,对脑电和眼动信号分别进行特征提取和分类,然后采用D-S证据理论对脑电和眼动信号分类结果进行融合,基于D-S证据理论的脑电眼动信息融合人机交互意图识别方法具有准确率高,泛化能力强的特点,为人机交互界面自适应设计奠定基础。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的基于D-S证据理论的人机交互意图识别方法的原理示意图;
图2是根据本发明实施例的基于D-S证据理论的人机交互意图识别方法的电极位置图;
图3是根据本发明实施例的基于D-S证据理论的人机交互意图识别方法的运动想象实验界面图;
图4是根据本发明实施例的基于D-S证据理论的人机交互意图识别方法的运动想象实验范式示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
根据本发明的实施例,提供了基于D-S证据理论的人机交互意图识别方法。
如图1-4所示,根据本发明实施例的基于D-S证据理论的人机交互意图识别方法,包括以下步骤:
步骤S1,采集用户脑电和眼动信号,并进行特征提取;
步骤S2,采用模式识别算法对生理信号特征进行分类识别;
步骤S3,对分类器分类算法进行决策级融合得到最终结果;
其中包括以下步骤:
A1,A2,…,Ak为k种认知意图,通过n类生理信号进行了分类,则识别框架为:
Θ={A1,A2,…,Ak},
每一种生理信号特征的识别算法对各类型意图可信度分配函数为:
mi(A1,A2,…,Ak,Θ)=(piqi1,piqi2,…,piqk,1―pi),
其中mi为第i种生理特征识别算法可信度分配函数,i=1,2…n, pi为第i种生理特征识别算法正确率,qij为第i种生理特征识别判定样本为第j 种认知意图的可信度,j=1,2…k,对于识别框架Θ中任意认知意图Aj,采用多生理特征分类结果的Dempster决策规则为:
Figure BDA0002526612160000061
具体的:
Figure BDA0002526612160000062
Figure BDA0002526612160000063
其中,算法正确率pi通常可用训练集样本正确率,认知意图的可信度qij根据算法的输出计算确定:
Figure BDA0002526612160000071
其中j,h为认知意图序号:k为认知意图类型的数量,Fi(Aj,Ah)根据认知意图j和h的分类面做出的判断结果:
Fi(Aj,Ah)∈{+1,―1}。
另外,对于基于小波变换(WT)的脑电信号特征提取来说,具体的:
脑机接口(Brain-computer interface,BCI)是脑电信号的应用形式,可在人脑与外部设备建立通信关系,进而通过大脑控制外部设备。BCI已经应用在医学、神经生物学和心理学等领域。运动想象(Motor Imagery,MI)脑电图(Electroencephalogram,EEG)具有灵活、非侵入性、环境要求低和分辨率高的特点,因此MI是BCI广泛应用的形式之一。运动想象过程中EEG信号的频带功率会随MI任务的内容变化,这被称为事件相关的同步化和去同步化 (ERD/ERS)。运动想象的ERS/ERD特征主要出现在α波、β波和γ波三个波段,因此这三个频段的脑电波被广泛应用于运动想象评估。
采样频率为128Hz的脑电信号s(t)进行3层离散小波变换,s(t)的离散小波变换定义:
Figure BDA0002526612160000072
其中:
Figure BDA0002526612160000073
是离散小波基函数;j为频率分辨率,k为时间平移量。
其,对s(t)进行分解,可得:
Figure BDA0002526612160000074
其中,Al为低频分量,Dj为不同频率下的细节分量,具体频带范围如表1 所示:
Figure BDA0002526612160000075
表1各子带信号对应频率范围
另外,各子带对应近似系数cAl,小波系数cDj,单一尺度下小波能量Ei定义为该尺度下小波系数平方和,因此,总小波能量的定义为:
Figure DEST_PATH_GDA0002586195110000091
相对小波能量
Figure DEST_PATH_GDA0002586195110000092
由信息熵理论可知,小波熵(We)可表示为:
Figure BDA0002526612160000082
小波熵可反映原信号在不同空间分布的有序程度,因此可用于定量描述原信号在时域上的能量分布特征。
而基于共空域(CSP)模式的脑电信号特征提取,具体的:
CSP通过对原始信号进行空间投影,找到最佳投影方向,满足第一类信号在某方向方差最大,第二类信号方差最小,得到两类差别最大的投影方向。
设E为去除直流成分处理后的脑电信号矩阵,维数为N×T,其中N为脑电数据通道数目,T为每个通道的采样点数。则脑电数据的协方差矩阵为:
Figure BDA0002526612160000083
式中ET为E的转置矩阵,trace(EET)为矩阵EET的迹。各类脑电信号的平均协方差为Ci,i∈{1,2},因此,平均协方差矩阵之和为:
Cc=C1+C2
对Cc采用特征值分解,有:
Figure BDA0002526612160000086
式中,Uc为Cc的特征向量矩阵,λc为Cc的特征值矩阵,构造白化矩阵
Figure BDA0002526612160000084
Figure BDA0002526612160000085
对Cc进行白化,有,
I=PCcPT
其中I为单位矩阵,对C1、C2进行变换,有
Si=PCiPT,i∈{1,2},
其中S1、S2有相同的特征向量,且对应的特征值和为1,换言之,在S1最大特征值的方向上,S2特征值取得最小;反之,在在S1最小特征值的方向上, S2特征值达到最大。
S1=Bλ1BT
则有
Figure BDA0002526612160000091
投影矩阵W为
W=BTP,
其中,W为N×N阶矩阵,原始信号E通过投影,得到新信号
Z=WE,
选取经过W的前m行和后m行投影后产生的m对新信号进行如下变化,得最终特征值:
Figure BDA0002526612160000092
其中var(Zj)为Zj的方差。
对任意四类信号中每两类都采用CSP进行处理,可得6个投影矩阵W,对每个矩阵W前后各选取4个最佳方向,共8个最佳方向,可得6×8=48维特征向量。然后采用Fisher判别法进行降维,可将48维特征向量降为3维特征向量。最后,采用贝叶斯分类器,根据先验概率思想对降维后的特征进行分类:
Figure BDA0002526612160000093
其中,P(yi)为标签第i类数据的先验概率,P(yi|f)为特征为f的样本属于第i类的后验概率,P(f|yi)为第i类样本产生特征f的似然比。分类结果为后验概率最大的i。
另外,对于眼动信号特征提取来说,采集了注视点X坐标(FX)、注视点Y 坐标(FY)、瞳孔直径(PD)、注视时间(FT)和眼跳幅度(SA)五个生理特征。
其注视点X坐标(FX)和注视点Y坐标(FY)表征用户在进行人机交互时的注视点X方向和Y方向的坐标,可以反映用户的在屏幕上的注视点位置。瞳孔直径(PD)可作为反映用户实时认知负荷的指标之一,当认知负荷增大时,瞳孔直径增大;反之,瞳孔直径减小,因此该指标可反映用户认知状态。注视时间(FT)可反映用户对视觉信息处理的难易程度,当用户面对复杂信息时,处理时间会加长,因此该指标可反映用户的认知状态。眼跳幅度(SA) 通常反映为注视点之间跳动幅度,可反映用户对视觉信息的难易程度,当用户对视觉信息进行粗加工时,眼跳幅度较大;反之,当用户对视觉信息进行精加工时,则眼跳幅度较小,因此可以反应用户的认知状态。
另外,对于SVM分类算法来书,具体的,为一种基于统计学习理论的机器学习分类算法,与普通寻优算法追求经验风险最小不同,SVM算法通过追求结构化风险最小提高了算法的泛化能力,最小化经验风险和置信范围,较好的解决了小样本条件下模式识别算法中的过学习、模型选择、维数灾难和非线性问题。该算法的基本思想是找到使两类之间分类间隔最大的最优分类平面。
预先设样本集为:D={(x1,y1),…,(xl,yl)}x∈Rn y∈{+1,―1},
其中n为样本维数,l为样本数目,则分类平面为m维超平面,可表示为:
<w,x>+b=0 w∈Rn b∈R;
则分类间隔为2/‖w‖,显然,‖w‖取最小值时,分类间隔达到最大。因此,求最大分类间隔可转化为求如下的约束优化问题:
min‖w‖2/2s.t.yi(w·xi+b)―1≥0,i=1,2,…,l,
当问题线性可分时,解向量w*即支持向量,支持向量机的分类功能由支持向量决定。支持向量机即描述最优分类超平面的决策函数,可表示为:
f(x)=sgn(<w*,x>+b);
当问题线性不可分时,通常采用将样本非线性变换投影到高维空间的方法,使样本在这个高维特征空间可分,此时决策函数为:
Figure BDA0002526612160000101
其中K(x,xi)为核函数,αi为拉式乘子。
另外,具体的,D-S证据理论:
D-S证据理论为一种不精确推理方法,可用于处理不确定信息,且需要的条件比贝叶斯概率论更弱。该理论不但能处理由不精确先验知识产生的不确定性,而且可以处理由不知道产生的不确定性。
设Θ为识别框架,m为区间[0,1]上的可信度分配函数,也称Mass函数,表示证据支持事件A发生的程度。
Figure BDA0002526612160000102
且满足:
Figure BDA0002526612160000103
对于
Figure BDA0002526612160000104
由Dempster合成规则,Θ上任意两个Mass函数,m1、 m2的合成方法为:
Figure BDA0002526612160000111
Figure BDA0002526612160000119
对于
Figure BDA0002526612160000112
由Dempster合成规则,Θ上任意有限个Mass函数m1,m2,…,mn的合成方法为:
Figure BDA0002526612160000113
Figure BDA0002526612160000114
另外,决策级融合的人机交互意图识别,具体的:
决策级融合的流程,首先对采集到的生理信号进行预处理和特征提取,得到对应生理信号的特征向量,然后对脑电和眼动信号特征向量分别采用分类器进行分类,最后将各分类器分类结果采用D-S证据理论进行融合,得到决策层融合结果,具体的:
假设A1,A2,…,Ak为k种认知意图,通过n类生理信号进行了分类,则识别框架为:
Θ={A1,A2,…,Ak},
每一种生理信号特征的识别算法对各类型意图可信度分配函数为:
mi(A1,A2,…,Ak,Θ)=(piqi1,piqi2,…,piqk,1―pi),
其中mi——第i种生理特征识别算法可信度分配函数,i=1,2…n, pi——第i种生理特征识别算法正确率,qij——第i种生理特征识别判定样本为第j种认知意图的可信度,j=1,2…k,对于识别框架Θ中任意认知意图Aj,采用多生理特征分类结果的Dempster决策规则为:
Figure BDA0002526612160000115
具体的:
Figure BDA0002526612160000116
Figure BDA0002526612160000117
其中,算法正确率pi通常可用训练集样本正确率,认知意图的可信度qij根据算法的输出计算确定:
Figure BDA0002526612160000118
其中j,h——认知意图序号:k为认知意图类型的数量,Fi(Aj,Ah)根据认知意图j和h的分类面做出的判断结果,Fi(Aj,Ah)∈{+1,―1};
采用D-S决策级融合交互意图判别方法不仅可以输出未知样本的类别还可以输出样本属于每一类的概率。D-S证据理论中可信度分配赋值问题通过机器学习算法训练得到的总体分类正确率得到了有效直观地解决。
具体的,实施例中,招募男性用户22人(其中2人因数据采集率低于50%不能作为有效受试者),年龄范围18~22岁(M=22.3,SD=1.8)。在实验前每位用户都熟悉了实验流程和注意事项并签署了知情同意书。
如图2-图4所示,实验中保持窗帘关闭,每次实验只允许实验用户和操作人员进入并关闭其他电子设备,以消除光线变化和其他电磁信号的干扰。实验设备包括DELL计算机、RED5型眼动试验仪和Neuroscan 32导脑电仪。眼动信号采样频率为50Hz;显示器分辨率为1280×1024像素,屏幕亮度为 300cd/m2;被试用户与屏幕距离大约60cm,被试用户双眼与屏幕中心大致处于同一高度。Neuroscan 32导脑电仪电极分布采用国际标准10-20,选取左侧乳突为参考电极,中前额叶为接地电极,此外采集垂直和水平两个通道眼电信号,采样频率为250Hz,进行50Hz陷波和0.05~10Hz在线带通滤波,并确保电极阻抗小于5kΩ,采集信号后对肌电和眼电伪迹进行剔除。
本文采用经典运动想象实验范式,操作想象开始前屏幕呈现“放松”字样,持续2s,被试用户放松心情准备开始;随后屏幕呈现“准备”字样,持续1s,提示用户准备开始操作想象;接下来,屏幕呈现操作界面,用户操作包括“向左移动”“向右移动”和“发射导弹”,需要进行用户操作想象时图标会转变为黄色,用户根据提示的不同进行不同的操作想象。每次操作想象总时间为9s。
具体的,采集了注视点X坐标(FX)、注视点Y坐标(FY)、瞳孔直径(PD)、注视时间(FT)和眼跳幅度(SA)5项眼动参数,将FX与FY合成一类特征,作为注视点位置特征。将提取到的被试用户4类眼动特征作为算法分类依据,将20名受试对象的眼动数据进行预处理和特征提取后60%作为训练集,40%作为测试集,用SVM算法进行操作想象分类,分类准确率如表所示。从表中可以看出,眼动指标数目越多,识别准确率越高,且注视点位置特征对准确率影响更大。这说明注视点位置特征可较好反应用户的意图,但由于实验中注视点不稳定,因此需要结合其他眼动特征提高识别可靠性。本文选取的5项眼动特征对认知意图实验的准确率可达87.42%,说明眼动指标的选取是有效的。
为了探究不同机器学习方法和数据预处理方法对人机交互意图识别的影响,本文选取SVM、WT+SVM、CSP+SVM、CSP+Fisher四种方法对20名受试者脑电数据集进行识别,60%作为训练集,40%作为测试集,最终得到每名受试者识别准确率,可见对于不同受试者,算法识别的准确率与标准差略有不同。
CSP+SVM算法识别准确率显著高于另外三种算法(P<0.5),且这种方法的标准差最小,说明该算法的敏感性低,泛化能力强,适合对脑电数据进行处理。从识别准确率看,同样采用SVM算法的条件下,采用WT方法平均识别准确率71.36%,采用CSP方法平均识别准确率为76.81%,均高于不采用特征提取方法的平均准确率67.71%。同样采用CSP特征提取方法的情况下,采用 SVM算法的平均识别准确率为76.81%,采用Fisher方法的平均识别率为72.70%。说明对于CSP特征提取方法,SVM算法的识别准确率略高于Fisher 算法。
本文对于脑电数据采用CSP+SVM方法进行预处理后对SVM算法进行训练,对于眼动数据进行特征提取,选取注视点位置(FX&FY)、瞳孔直径(PD)、注视时间(FT)和眼跳幅度(SA)4类眼动特征采用SVM算法进行训练,采用交叉对比法确定SVM算法参数。
由D-S理论,本实验中三种认知意图构成一个识别框架Θ={左移,右移,发射导弹},采用表中20名受试者样本平均值作为识别准确率,则有 {p_1,p_2}={0.8"74",0.7"70"},眼动和脑电识别方法由不知道而产生的不确定性{m_1(Θ),m_2(Θ)}={0.126,0.230}。将与训练样本对应的测试样本分别采用 SVM算法单独分类和基于D-S理论的决策级融合分类。
实验结果表明,测试样本识别率较训练样本有所下降,但降幅不大,眼动数据准确率下降0.99%,脑电数据识别准确率下降0.72%,这表明SVM算法具有较强的泛化能力。比较眼动与脑电数据识别准确率,发现眼动数据识别准确率为86.44%高于脑电数据识别准确率76.29%,说明眼动数据对人机交互意图识别准确率高于脑电数据。基于D-S证据理论对数据进行决策级融合后识别准确率最高可达96.03%,平均识别准确率可达92.34%,高于眼动和脑电数 据识别准确率,且数据识别准确率方差仅为1.82,表明基于D-S理论的数据 融合方法对样本敏感性低,泛化能力强,验证了D-S理论在多生理信息的意 图识别方面有优势,从图中也可看出基于D-S证据理论的决策级融合方法具 有准确率高,对样本敏感性低,泛化能力强的特点。
综上所述,借助于本发明的上述技术方案,通过针对传统人机交互意图识别准确率相对较低,不同生理信息不能进行有效融合的问题,设计了基于D-S 证据理论的脑电眼动信息融合人机交互意图识别方法,能够识别用户的人机交互意图。通过采集用户的脑电和眼动信号,对脑电和眼动信号分别进行特征提取和分类,然后采用D-S证据理论对脑电和眼动信号分类结果进行融合,基于D-S证据理论的脑电眼动信息融合人机交互意图识别方法具有准确率高,泛化能力强的特点,为下一步人机交互界面自适应设计奠定基础。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.基于D-S证据理论的人机交互意图识别方法,其特征在于,包括以下步骤:
步骤S1,采集用户脑电和眼动信号,并进行特征提取;
步骤S2,采用模式识别算法对生理信号特征进行分类识别;
步骤S3,对分类器分类算法进行决策级融合得到最终结果;
其中包括以下步骤:
A1,A2,…,Ak为k种认知意图,通过n类生理信号进行了分类,则识别框架为:
Θ={A1,A2,…,Ak},
每一种生理信号特征的识别算法对各类型意图可信度分配函数为:
mi(A1,A2,…,Ak,Θ)=(piqi1,piqi2,…,piqk,1-pi),
其中mi为第i种生理特征识别算法可信度分配函数,i=1,2…n,pi为第i种生理特征识别算法正确率,qij为第i种生理特征识别判定样本为第j种认知意图的可信度,j=1,2…k,对于识别框架Θ中任意认知意图Aj,采用多生理特征分类结果的Dempster决策规则为:
Figure FDA0002526612150000011
具体的:
Figure FDA0002526612150000012
Figure FDA0002526612150000013
其中,算法正确率pi通常可用训练集样本正确率,认知意图的可信度qij根据算法的输出计算确定:
Figure FDA0002526612150000014
其中j,h为认知意图序号:k为认知意图类型的数量,Fi(Aj,Ah)根据认知意图j和h的分类面做出的判断结果:
Fi(Aj,Ah)∈{+1,-1}。
2.根据权利要求1所述的基于D-S证据理论的人机交互意图识别方法,其特征在于,步骤S1包括:
脑电信号特征提取;
眼动信号特征提取,其中;
所述脑电信号特征提取,包括:
基于小波变换的脑电信号特征提取;
于共空域模式的脑电信号特征提取。
3.根据权利要求2所述的基于D-S证据理论的人机交互意图识别方法,其特征在于,所述基于小波变换的脑电信号特征提取,包括:
采样频率为128Hz的脑电信号s(t)进行3层离散小波变换,s(t)的离散小波变换定义:
Figure FDA0002526612150000021
其中:
Figure FDA0002526612150000022
是离散小波基函数;j为频率分辨率,k为时间平移重;
其,对s(t)进行分解,可得:
Figure FDA0002526612150000023
其中,Al为低频分量,Dj为不同频率下的细节分量,各子带对应近似系数cAl,小波系数cDj,单一尺度下小波能量Ei定义为该尺度下小波系数平方和,因此,总小波能量的定义为:
Figure DEST_PATH_GDA0002586195110000044
相对小波能量
Figure DEST_PATH_GDA0002586195110000045
小波熵(We)可表示为:
Figure DEST_PATH_GDA0002586195110000046
4.根据权利要求2所述的基于D-S证据理论的人机交互意图识别方法,其特征在于,所述于共空域模式的脑电信号特征提取,包括:
CSP通过对原始信号进行空间投影,找到最佳投影方向,满足第一类信号在某方向方差最大,第二类信号方差最小,得到两类差别最大的投影方向;
设E为去除直流成分处理后的脑电信号矩阵,维数为N×T,其中N为脑电数据通道数目,T为每个通道的采样点数,则脑电数据的协方差矩阵为:
Figure FDA0002526612150000026
式中ET为E的转置矩阵,trace(EET)为矩阵EET的迹。各类脑电信号的平均协方差为Ci,i∈{1,2},因此,平均协方差矩阵之和为:
Cc=C1+C2
对Cc采用特征值分解,有:
Figure FDA0002526612150000027
式中,Uc为Cc的特征向量矩阵,λc为Cc的特征值矩阵,构造白化矩阵
Figure FDA0002526612150000028
Figure FDA0002526612150000031
对Cc进行白化,有:
I=PCcPT
其中I为单位矩阵,对C1、C2进行变换,有:
Si=PCiPT,i∈{1,2},
其中S1、S2有相同的特征向量,且对应的特征值和为1,换言之,在S1最大特征值的方向上,S2特征值取得最小;反之,在在S1最小特征值的方向上,S2特征值达到最大;
S1=Bλ1BT
则有
Figure FDA0002526612150000032
投影矩阵W为,
W=BTP,
其中,W为N×N阶矩阵,原始信号E通过投影,得到新信号:
Z=WE,
选取经过W的前m行和后m行投影后产生的m对新信号进行如下变化,得最终特征值:
Figure FDA0002526612150000033
其中var(Zj)为Zj的方差。
5.根据权利要求4所述的基于D-S证据理论的人机交互意图识别方法,其特征在于,眼动信号特征提取包括采集注视点X坐标(FX)、注视点Y坐标(FY)、瞳孔直径(PD)、注视时间(FT)和眼跳幅度(SA)生理特征。
6.根据权利要求1所述的基于D-S证据理论的人机交互意图识别方法,其特征在于,步骤S2包括SVM分类,包括:
预先设样本集为:D={(x1,y1),…,(xl,yl)}x∈Rn y∈{+1,-1},
其中n为样本维数,l为样本数目,则分类平面为n维超平面,可表示为:
<w,x>+b=0 w∈Rn b∈R;
则分类间隔为2/||w||,显然,||w||取最小值时,分类间隔达到最大,
其最大分类间隔可转化为:
min||w||2/2s.t.yi(w·xi+b)-1≥0,i=1,2,…,l,
当问题线性可分时,解向量w*即支持向量,支持向量机的分类功能由支持向量决定,支持向量机即描述最优分类超平面的决策函数,可表示为:
f(x)=sgn(<w*,x>+b);
当问题线性不可分时,通常采用将样本非线性变换投影到高维空间的方法,使样本在这个高维特征空间可分,此时决策函数为:
Figure FDA0002526612150000041
其中K(x,xi)为核函数,αi为拉式乘子。
CN202010506184.4A 2020-06-05 2020-06-05 基于d-s证据理论的人机交互意图识别方法 Active CN111680620B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010506184.4A CN111680620B (zh) 2020-06-05 2020-06-05 基于d-s证据理论的人机交互意图识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010506184.4A CN111680620B (zh) 2020-06-05 2020-06-05 基于d-s证据理论的人机交互意图识别方法

Publications (2)

Publication Number Publication Date
CN111680620A CN111680620A (zh) 2020-09-18
CN111680620B true CN111680620B (zh) 2022-09-30

Family

ID=72434998

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010506184.4A Active CN111680620B (zh) 2020-06-05 2020-06-05 基于d-s证据理论的人机交互意图识别方法

Country Status (1)

Country Link
CN (1) CN111680620B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230380740A1 (en) * 2020-10-07 2023-11-30 Agency For Science, Technology And Research Sensor-based training intervention
CN112257663B (zh) * 2020-11-12 2024-03-12 北京机电工程研究所 一种基于贝叶斯网络的设计意图识别方法及系统
CN112613534B (zh) * 2020-12-07 2023-04-07 北京理工大学 一种多模态信息处理及交互系统
CN112861726B (zh) * 2021-02-09 2024-07-12 北京工业大学 基于规则意图表决器的d-s证据理论多模态融合人机交互方法
CN112861798B (zh) * 2021-03-12 2023-07-21 中国科学院计算技术研究所 基于生理信号的分类识别方法、介质及电子设备
CN113069125A (zh) * 2021-03-18 2021-07-06 上海趣立信息科技有限公司 基于脑电波和眼动追踪的头戴设备控制系统、方法及介质
CN113298006B (zh) * 2021-06-04 2024-01-19 西北工业大学 基于脑机融合认知与决策的异常目标检测新方法
CN115870966B (zh) * 2021-09-28 2024-07-09 中国科学院沈阳自动化研究所 一种基于d-s证据合成理论的速度协调方法
CN114081504B (zh) * 2021-11-23 2024-03-01 青岛理工大学 一种基于脑电信号的驾驶意图识别方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108960299A (zh) * 2018-06-15 2018-12-07 东华大学 一种多类运动想象脑电信号的识别方法
CN111214227A (zh) * 2020-01-21 2020-06-02 中国人民解放军空军工程大学 一种人机交互中用户操作意图和认知状态的识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108960299A (zh) * 2018-06-15 2018-12-07 东华大学 一种多类运动想象脑电信号的识别方法
CN111214227A (zh) * 2020-01-21 2020-06-02 中国人民解放军空军工程大学 一种人机交互中用户操作意图和认知状态的识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于多类运动想象任务的EEG信号分类研究;马满振等;《计算机测量与控制》;20171025(第10期);全文 *

Also Published As

Publication number Publication date
CN111680620A (zh) 2020-09-18

Similar Documents

Publication Publication Date Title
CN111680620B (zh) 基于d-s证据理论的人机交互意图识别方法
US12053308B2 (en) Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions
Lotte Signal processing approaches to minimize or suppress calibration time in oscillatory activity-based brain–computer interfaces
Zhang et al. Sparse Bayesian classification of EEG for brain–computer interface
CN112990074B (zh) 基于vr的多场景自主式控制的混合脑机接口在线系统
CN111265212A (zh) 一种运动想象脑电信号分类方法及闭环训练测试交互系统
Kawanabe et al. Robust common spatial filters with a maxmin approach
Zhao et al. Research on human-computer interaction intention recognition based on EEG and eye movement
Matran-Fernandez et al. Brain–computer interfaces for detection and localization of targets in aerial images
Pawar et al. Feature extraction methods for electroencephalography based brain-computer interface: a review
US11717163B2 (en) Wearable device, signal processing method and device
Lv et al. Design and implementation of an eye gesture perception system based on electrooculography
Tabar et al. Brain computer interfaces for silent speech
Buvaneswari et al. A review of EEG based human facial expression recognition systems in cognitive sciences
CN111046369A (zh) 基于双脑脑机接口系统的在线身份认证方法
CN115509355A (zh) 一种整合视觉下的mi-bci交互控制系统及方法
Hamedi et al. Imagined speech decoding from EEG: The winner of 3rd Iranian BCI competition (iBCIC2020)
Tufvesson et al. Automatic control of reactive brain computer interfaces
Zhang et al. Robust EOG-based saccade recognition using multi-channel blind source deconvolution
Herbst et al. Inception Based Deep Learning: Biometric Identification Using Electroencephalography (EEG)
Mussabayeva et al. Event-Related Spectrogram Representation of EEG for CNN-Based P300 Speller
Liu et al. An improved SVM-based real-time P300 speller for brain-computer interface
Kalunga et al. Using Riemannian geometry for SSVEP-based brain computer interface
Candra Emotion recognition using facial expression and electroencephalography features with support vector machine classifier
Ashari et al. EEG subspace analysis and classification using principal angles for brain-computer interfaces

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant