CN107422841B - 一种基于非接触式情绪识别的人机交互方法 - Google Patents

一种基于非接触式情绪识别的人机交互方法 Download PDF

Info

Publication number
CN107422841B
CN107422841B CN201710122967.0A CN201710122967A CN107422841B CN 107422841 B CN107422841 B CN 107422841B CN 201710122967 A CN201710122967 A CN 201710122967A CN 107422841 B CN107422841 B CN 107422841B
Authority
CN
China
Prior art keywords
virtual
emotion
motion track
physiological signal
reference motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710122967.0A
Other languages
English (en)
Other versions
CN107422841A (zh
Inventor
王清波
陈丽娜
虞成
徐月花
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NINGBO AOLI MEDICAL INSTRUMENT Co.,Ltd.
Original Assignee
Hangzhou First Peoples Hospital
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou First Peoples Hospital filed Critical Hangzhou First Peoples Hospital
Priority to CN201710122967.0A priority Critical patent/CN107422841B/zh
Publication of CN107422841A publication Critical patent/CN107422841A/zh
Application granted granted Critical
Publication of CN107422841B publication Critical patent/CN107422841B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Developmental Disabilities (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Educational Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Social Psychology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于非接触式情绪识别的人机交互方法,包括:步骤1,利用非接触式检测装置获取用户的生理信号特征和非生理信号特征,并依据生理信号特征和非生理信号特征识别用户的情绪状态;步骤2,在单个虚拟场景进行时,虚拟环境构建系统依据用户的情绪状态调整力反馈器的反馈力大小;在单个虚拟场景完成时,依据肢体实时运动轨迹与参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。本发明以用户的情绪状态作为单个虚拟场景中力反馈大小调整的依据,促进虚拟场景构建系统进行学习以适应用户的需求,单个虚拟场景完成后,依据实时运动参考轨迹和参考运动轨迹的差异,定量评价康复训练的效果。

Description

一种基于非接触式情绪识别的人机交互方法
技术领域
本发明涉及虚拟现实应用技术领域,具体涉及一种基于非接触式情绪识别的人机交互方法。
背景技术
脑卒中(stroke),又称中风或脑血管意外(cerebrovascular accident,CVA),属于脑血管类疾病,是指由于脑部供血受阻而迅速发展的脑功能缺失。在美国和欧洲是导致成人残疾的首因,在世界范围内脑卒中是造成死亡的第二大原因。随着世界人口逐步老龄化,在未来的20年,脑卒中疾病造成的社会负担将会极大地增加,这种情况在发展中国家将会变得尤其严重。
针对脑卒中患者的运动障碍,目前的主要治疗方法包括:由医生护士进行临床医学处理、由物理治疗师指导恢复肢体运动功能的康复训练等,其中康复训练是运动障碍后遗症的主要治疗方法。
虚拟现实是利用计算机仿真系统创建的虚拟环境,虚拟环境将多源信息融合,产生可与用户交互的三维动态视景,使用户沉浸在虚拟环境中。近年来国际上出现了一系列将虚拟现实(virtual reality,VR)技术引入康复研究领域的尝试,将虚拟现实技术应用于脑卒中、脑外伤、帕金森等病人的上下肢运动功能恢复,及空间和认知能力的训练。
例如,Adamovich等利用数据手套、位置追踪器等设备研制虚拟康复系统,设计了击球、弹钢琴等场景。Broeren等利用力反馈装置,创建了包括识别乐谱和翻日历等日常生活康复场景在内的康复训练系统。Broeren等利用机器人和数据手套,通过迷宫等场景进行虚拟康复。Kayyali等利用位置追踪器和数据手套,设计了击球、插板等游戏场景进行虚拟康复训练。Badia等人根据摄像机和数据手套设计了虚拟击球等虚拟康复场景。清华大学提出了虚拟康复工程的概念,为了训练下肢运动功能,设计并研制了骑自行车的虚拟健身系统。
基于虚拟现实的康复系统通过动态调整技术,来适应患者和治疗者的需求变化。例如,VirtualRehab系统包含了9个用于治疗残疾障碍的康复游戏和训练集合,治疗师根据患者的参与反馈,手动调整训练场景。Kizony等人提供了一套虚拟康复系统,能够自适应调整目标类型、速度、位置以及方向,以促进患者康复训练进程。
用户与虚拟环境之间的反馈是双向的,一方面患者依据虚拟现实的反馈主动改变行为,另一方面,虚拟现实也根据患者的能力和状态,动态调节虚拟现实的反馈。
情绪是对一系列主观认知经验的通称,是基于多种感觉、思想和行为综合产生的心理和生理状态,既包括人对外界或自身刺激的心理反应,也包括伴随这种心理反应的生理反应。通过检测患者的情绪,并以此作为虚拟场景构建的依据,是一种非常重要的反馈机制。
情感计算作为精准医疗的重要技术手段,促进了虚拟环境控制方式的个性化,使人机交互更为友好和自然,常见的情绪识别方法依据信息来源的不同主要分为两大类:基于生理信号的识别和基于非生理信号的识别。基于生理信号的识别是指,通过测量心率、皮肤阻抗、呼吸等生理信号来识别对应的情绪状态,或者通过磁共振、脑电波等检测中枢神经反应来识别对应的情绪状态。基于非生理信号的识别,主要包括:对面部表情的识别和语音语调的识别。
现有技术中,将虚拟现实引入康复治疗领域的技术手段存在以下问题:
1、基于情绪调整虚拟现实场景时,由于表情是情绪的最直接反应,因此,多采用表情作为情绪的表达,利用表情调整虚拟现实场景时,一方面对于不能表达表情的病人,无法适用;另一方面,表情的特性选择较为主观,不能准确反应用户的状态。
2、基于生理信号调整虚拟现实场景时,虽然生理信号识别的测量具备客观性和精确性,但一方面生理信号属于间接反应,不能及时准确地反应用户的状态;另一方面传统的生理信号测量装置需要用户佩戴相应的装置,影响虚拟环境的浸入式体验。
3、现有的虚拟现实与用户之间的反馈多为单向,例如,用户基于虚拟现实场景的反馈自主进行场景变换,或者通过人的精神状态控制虚拟现实场景的改变。
发明内容
本发明提供了一种基于非接触式情绪识别的人机交互方法,所述人机交互方法的反馈分为两个层次,在单个虚拟场景进行过程中,依据情绪状态调整力反馈的大小,在单个虚拟场景完成时,依据实际运动轨迹和参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
一种基于非接触式情绪识别的人机交互方法,所述人机交互方法实施在用户与虚拟环境构建系统之间,所述虚拟环境构建系统配置有力反馈器、非接触式检测装置以及运动检测装置,所述虚拟环境构建系统中预设有若干虚拟场景,针对各虚拟场景,预设对应的参考运动轨迹,用户接触力反馈器,并在各虚拟场景中依据参考运动轨迹进行肢体运动,所述人机交互方法包括:
步骤1,利用非接触式检测装置获取用户的生理信号特征和非生理信号特征,并依据生理信号特征和非生理信号特征识别用户的情绪状态;
步骤2,在单个虚拟场景进行时,虚拟环境构建系统依据用户的情绪状态调整力反馈器的反馈力大小;
在单个虚拟场景完成时,依据肢体实时运动轨迹与参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
本发明提供的人机交互方法主要用于中风患者的康复训练,不同的虚拟场景包括打球场景,弹琴场景,翻日历场景,走迷宫场景,骑车场景等等,依据中风患者的实际需要进行设计。
在各场景中,设置初始参考运动轨迹,在每次交互结束时,对参考运动轨迹进行调整,以适应患者的康复过程。所述参考运动轨迹可以采用图像或者实物进行展示,例如,在屏幕上展示参考运动轨迹,或者,采用某一标志物的实际移动来展示参考运动轨迹,患者依据参考运动轨迹移动手指、上肢、下肢等肢体,利用运动检测装置检测患者相应肢体的运动轨迹,并与参考运动轨迹进行比较。
所述运动检测装置可以采用各种形式,为了实现更好的沉浸感,优选采用非接触形式,即可以在肢体上做标记,通过检测标记的运动来反应肢体的运动。
本发明采用非接触方式采集生理信号以及非生理信号,有利于改善虚拟现实的沉浸式体验,对于面部表情不易表达的患者,采用本发明的方法仍然可以得到较好的训练效果。
肢体在运动时与力反馈器直接接触,在肢体运动过程中,力反馈器向肢体施加作用力以阻止肢体的运动,在单个虚拟场景中,以患者的情绪状态作为调整力反馈器反馈力大小依据,使患者具有更好的使用体验。
在单个虚拟场景训练完成后,依据肢体实时运动轨迹与参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
作为优选,所述生理信号特征包括心率特征和呼吸特征,所述非生理信号特征包括表情特征。
作为优选,所述非接触式检测装置包括视频采集装置和雷达。所述心率特征和表情特征从视频信号中提取,所述呼吸特征从雷达信号中提取。
进一步优选,利用欧拉影像放大算法从视频信息中提取心率特征。
作为优选,依据生理信号特征和非生理信号特征识别用户的情绪状态,具体包括以下步骤:
a、基于生理信号特征建立第一情绪模型,基于非生理信号特征建立第二情绪模型;
b、识别的生理信号特征依据第一情绪模型生成第一情绪状态概率分布,识别的非生理信号特征依据第二情绪模型生成第二情绪状态概率分布;
c、依据第一情绪模型和第二情绪模型生成综合情绪模型,将第一情绪状态概率分布和第二情绪状态概率分布输入综合情绪模型,得到情绪状态概率分布,输出概率最大值对应的情绪状态作为识别结果。
建立第一情绪模型、第一情绪模型、以及综合情绪模型时,均采用人工神经网络。所述第一情绪模型和第一情绪模型为弱分类模型,所述综合情绪模型为强分类模型。
作为优选,在某一虚拟场景中,若情绪识别的结果为愉悦,则力反馈值增加
Figure BDA0001237577580000051
Figure BDA0001237577580000059
的取值为:
Figure BDA0001237577580000052
式中,f1为原力反馈值,β为综合情绪模型输出的概率最大值,α1为常数;
若情绪识别的结果为厌烦,则力反馈值减小
Figure BDA0001237577580000053
Figure BDA00012375775800000510
的取值为:
Figure BDA0001237577580000054
式中,f2为原力反馈值,β为综合情绪模型输出的概率最大值,α2为常数。
作为优选,在虚拟目标物跟踪场景中,预设目标物的参考运动轨迹,若参考运动轨迹为最大幅度为A0,频率为f0的正弦曲线,实际运动轨迹的幅度为Ak,1≤k≤n,n为虚拟场景的持续时间,k为时刻,在预定时间段内,若实际运动轨迹与参考运动轨迹的幅度差异累计大于K1=A0×f0×γ1,其中γ1为常数,则调整参考运动轨迹为最大幅度
Figure BDA0001237577580000055
频率f1的正弦曲线,式中,
Figure BDA0001237577580000056
μ1为实际运动轨迹的幅度均值,f1为实际运动轨迹的功率谱密度最大值;
在虚拟握拳跟踪场景中,参考运动轨迹为虚拟手的关节角度固定变化且最大幅度为A2的锯齿波曲线,实际运动轨迹的幅度为Bk,1≤k≤n,n为虚拟场景的持续时间,k为时刻,在预定时间段内,若实际运动轨迹与参考运动轨迹的幅度差异累计大于K2=A2×f2×γ2,γ2为常数,则调整虚拟手关节角度变化的参考运动轨迹为最大幅度
Figure BDA0001237577580000057
频率f3的锯齿波曲线,式中,
Figure BDA0001237577580000058
μ2为实际运动轨迹的幅度均值,f3为实际运动轨迹的功率谱密度最大值。
本发明基于非接触式情绪识别的人机交互方法,以用户的情绪状态作为单个虚拟场景中力反馈大小调整的依据,促进虚拟场景构建系统进行学习以适应用户的需求,单个虚拟场景完成后,依据实时运动参考轨迹和参考运动轨迹的差异,定量评价康复训练的效果。
附图说明
图1为本发明基于非接触式情绪识别的人机交互方法的流程图;
图2为利用欧拉影像放大算法从视频信息中提取心率特征的流程图;
图3为提取表情特征时的眼、鼻、口位置示意图;
图4为情绪识别的流程图;
图5为康复训练过程示意图;
图6为实际运动轨迹与参考运动轨迹的示意图;
图7为角度传感器的安装位置示意图;
图8为依据情绪状态调整单个虚拟场景中,力反馈大小的示意图。
具体实施方式
下面结合附图,对本发明基于非接触式情绪识别的人机交互方法做详细描述。
如图1所示,一种基于非接触式情绪识别的人机交互方法,人机交互方法实施在用户与虚拟环境构建系统之间,虚拟环境构建系统配置有力反馈器、非接触式检测装置以及运动检测装置,虚拟环境构建系统中预设有若干虚拟场景,在各虚拟场景中,预设对应的参考运动轨迹,用户接触力反馈器,并在各虚拟场景中依据参考运动轨迹进行肢体运动。
人机交互方法包括:
步骤1,利用非接触式检测装置获取用户的心率特征、呼吸特征、以及表情特征,并依据心率特征、呼吸特征、以及表情特征识别用户的情绪状态。
利用视频拍摄装置获取用户的视频信息,利用雷达检测用户的胸腹部运动,从视频信息中获取心率特征和表情特征,从雷达检测结果中获得呼吸特征。
如图2所示,利用欧拉影像放大算法从视频信息中提取心率特征,具体操作如下:
首先,检测视频信息中的人脸区域;
检测人脸区域可以采用现有的算法,例如,计算机视觉开源库OpenCV中的Adaboost人脸检测算法,对于检测到的每张人脸,返回一个包含人脸区域的矩形区域。
当视频时间持续一段时间后,例如持续20s,对窗口内的视频进行欧拉影像放大,欧拉影像放大包括:空间滤波(将视频序列进行金字塔多分辨率分解)、时域滤波(对每个尺度的图像进行时域带通滤波,得到感兴趣的若干频带)、放大滤波结果(对每个频带的信号用泰勒级数进行差分逼近)、合成图像(合成经过放大后的图像)。
将欧拉影像放大处理后每一帧图像的RGB通道分开,分别计算感兴趣区域内像素的平均值,得到三段原始的心率信号P1(t),P2(t),P3(t)。对每段原始的心率信号进行归一化处理,得到:
Figure BDA0001237577580000071
其中μii分别为心率信号的均值和标准差,i的取值为1,2,3。
对每段原始的心率信号进行归一化处理后,需要对窗口内的信号进行带通滤波处理,以消除低频呼吸信号和高频噪声对心率检测结果的影响。考虑到正常人的心率范围为[45,180],因此,设置带通滤波器的上下截止频率分别为0.75Hz和3Hz。
对经归一化和带通滤波处理后的三段原始心率信号序列进行快速傅里叶变换,分别得到三段原始心率信号序列的功率谱密度,分别计算功率谱密度最大值Max1、Max2和Max3,均值Mean1、Mean2和Mean3,计算比例
Figure BDA0001237577580000072
选取ξ1,ξ2,ξ3中值最大的通道信号,以其功率谱密度最大值对应的频率作为心率。
利用雷达检测胸腹运动,由于呼吸运动能量较高,通过对雷达信号进行傅里叶变化,提取呼吸特征。
雷达采用超宽带(UWB)脉冲雷达,雷达发射的电磁波经过介质(自由空间或障碍物)传播后到达人体,电磁波脉冲经人体散射产生回波,回波信号经过介质(自由空间或障碍物)传播后被雷达接收。人体反射回波的时延、幅度、相位、频率等会受到人体运动的影响而产生变化,通过检测这些变化达到探测人体运动的目的。
t时刻雷达回波的延时td(t)=2×d(t)/c,其中d(t)为胸腹与雷达之间的距离,c为光速。不同时刻的延时依据时间顺序排列,得到延时时间序列td(tk),利用带通线性相位有限脉冲响应(FIR)滤波器对延时时间序列进行滤波。所采用的带通滤波器的通带应与呼吸信号的频率范围保持一致,考虑呼吸频率范围为15~30次/分,因此,通带频率范围为[0.25,0.5]。
得到滤波信号后,计算功率谱密度,以呼吸信号频率范围内的最大功率谱密度对应的频率作为呼吸频率。对延时时间序列滤波后,进行归一化处理,并计算波峰波谷,波峰波谷的差值即为呼吸深度。
根据一段时间内的心率、呼吸频率、呼吸深度,分别计算得到心率均值、心率标准差、心率方差、呼吸频率均值、呼吸频率标准差、呼吸频率方差、呼吸深度均值、呼吸深度标准差、呼吸深度方差,这九个特征值作为生理信号特征,进行后续的情绪识别。
从视频图像中提取表情特征的方法,具体如下:
首先,利用OpenCV库检测面部位置,通过模板匹配的方法获取眼、口位置,左眼、右眼、口等每个部位有4个特征点,加上鼻有2个特征点,共计14个特征点。
如图3所示,左眼和右眼对称,左眼特征点坐标为:LU(LUx,LUy),LD(LDx,LDy),LL(LLx,LLy),LR(LRx,LRy),右眼特征点坐标为:RU(RUx,RUy),RD(RDx,RDy),RL(RLx,RLy),RR(RRx,RRy)。
嘴部特征点坐标为:MU(MUx,MUy),MD(MDx,MDy),ML(MLx,MLy),MR(MRx,MRy),鼻部特征点坐标为:NL(NLx,NLy),NR(NRx,NRy)。
根据14个特征点的位置,选出11组特征值作为表征表情变化的特征向量,如表1所示。
表1
Figure BDA0001237577580000081
Figure BDA0001237577580000091
表1中,各特征值的计算方法,具体如下:
d1=||MDy-MLy|+|MDy-MRy|-|MLy-MUy|+|MRy-MUy||;
d2=|MDy-MUy|;
d3=|MRx-MLx|;
d4=d2/d3;
d5=d2-d3;
d6=|RRx-RLx|/|RDy-RUy|;
d7=||RRx-RLx|-|RDy-RUy||;
d8=|LRx-LLx|/|LDy-LUy|;
d9=||LRx-LLx|-|LDy-LUy||;
d10=|NRx-NLx|;
d11=|LDy-NLy|。
将d1-d11的特征值作为非生理信号特征,进行后续的情绪识别。
通过集成学习方法构建情绪模型,将得到的生理信号特征以及非生理信号特征输入情绪模型中,得到情绪识别结果。
利用集成学习方法构建情绪模型基于两个分类模型:H={H1,H2}。H1为基于非生理信号特征的情绪模型,H2为基于生理信号特征的情绪模型。H为两个情绪模型的集合。
U1={xj,yj},(j=1,.....,m)表示基于生理信号特征的数据集,其中,
Figure BDA0001237577580000092
是n维生理信号特征空间X的一个样本,m为特征空间X的样本数量,yj∈Ω={1,...,C}是x的情绪类别标签,Ω为情绪集合,C为情绪类别的编号。
U2={zk,yk},(k=1,.....,l)表示基于非生理信号特征的数据集,其中,
Figure BDA0001237577580000101
是p维非生理信号特征空间Z的一个样本,l为特征空间Z的样本数量yk∈Ω={1,...,C}是z的情绪类别标签。根据生理信号特征以及非生理信号特征的数量,n=9,p=11。
如图4所示,基于两个分类假设,分别利用人工神经网络以及数据集U1、U2建立对应的情绪模型{φ12}。ηt H1(yq)、ηt H2(yq)为两个情绪模型的情绪类别标签概率输出。
结合基于非生理信号特征的情绪模型以及基于生理信号特征的情绪模型,利用人工神经网络建立综合情绪模型,以数据集{(ηt H1(yq),ηt H2(yq)),yt}作为输入进行训练,其中,yq∈Ω={1,...,C}为情绪类别标签,yt为诱发记录的情绪状态,t为时间标记。
进行情绪识别时,将非生理信号特征依据对应的情绪模型生成情绪状态概率分布ηt H1(yq)、将生理信号特征依据对应的情绪模型生成情绪状态概率分布ηt H2(yq),其中,yq∈Ω={1,...,C}属于情绪类别标签。综合情绪模型根据ηt H1(yq)、ηt H2(yq),输出t时刻的情绪状态概率分布ηt(yq),按照最大值输出情绪状态St
情绪诱发实验为:在实验室内配置电脑和摄像头,测试者坐在距离电脑70cm处,并面向电脑,利用电脑播放情绪诱发视频素材,利用摄像头采集测试者的视频图像。情绪诱发视频素材用于唤起测试者不同情感,如愉悦、厌烦、平静等。
步骤2,在单个虚拟场景进行时,虚拟环境构建系统依据用户的情绪状态调整力反馈器的反馈力大小;
在单个虚拟场景完成时,依据肢体实时运动轨迹与参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
如图5所示,本发明调整虚拟场景包括两个层次,针对单个虚拟场景,根据用户的情绪状态调整力反馈器输出的作用力大小,在单个虚拟场景完成时,通过计算力反馈器实时运动轨迹和参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
虚拟场景包括:虚拟目标物跟踪场景和虚拟握拳跟踪场景。
如图6所示,在虚拟场景中,小球作为目标物被跟踪,小球按照运动参考轨迹设定的频率和幅度进行运动,参考运动轨迹如图6中的实线所示。用户将手或身体的其他部位作用于力反馈器上,并跟随小球运动,捕获用户的手部或其他部位的实际运动轨迹,如图6中的虚线所示。在虚拟场景结束后,计算实际运动轨迹和参考运动轨迹的差异,并依据差异调整下一次交互时虚拟场景中小球的运动频率和/或幅度。
小球的参考运动轨迹为最大幅度为A0,频率为f0的正弦曲线,实际运动轨迹的幅度为Ak,1≤k≤n,n为虚拟场景的持续时间,k为时刻,在预定时间段内,若实际运动轨迹与参考运动轨迹的幅度差异累计大于K1=A0×f0×γ1,其中γ1为常数,则调整参考运动轨迹为最大幅度
Figure BDA0001237577580000111
频率f1的正弦曲线,式中,
Figure BDA0001237577580000112
μ1为实际运动轨迹的幅度均值,f1为实际运动轨迹的功率谱密度最大值。
参考运动轨迹的正弦曲线设定在合理的承受范围内,力反馈与实际运动轨迹捕获可以通过Phantom Omni的力反馈和位置检测实现。
如在虚拟握拳跟踪场景中,虚拟手进行握拳动作,虚拟手的参考运动轨迹为指关节角度固定变化的锯齿波曲线,用户跟随虚拟手的握拳动作进行握拳动作,实际运动轨迹为关节角度的变化。
如图7所示,将弯曲传感器佩戴在手上,力反馈与实际运动轨迹捕获可以通过Phantom Omni的力反馈检测实现,关节角度检测通过弯曲传感器FlexSensor实现。
在虚拟握拳跟踪场景中,参考运动轨迹为虚拟手的关节角度固定变化且最大幅度为A2的锯齿波曲线,实际运动轨迹的幅度为Bk,1≤k≤n,n为虚拟场景的持续时间,k为时刻,在预定时间段内,若实际运动轨迹与参考运动轨迹的幅度差异累计大于K2=A2×f2×γ2,γ2为常数,则调整虚拟手关节角度变化的参考运动轨迹为最大幅度
Figure BDA0001237577580000113
频率f3的锯齿波曲线,式中,
Figure BDA0001237577580000114
μ2为实际运动轨迹的幅度均值,f3为实际运动轨迹的功率谱密度最大值。
如图8所示,在单个虚拟场景中,识别得到愉悦、平静、厌烦三种情绪状态,根据三种不同的情绪状态,对力反馈器的反馈力进行调整。
在检测到愉悦状态一定时间后,力反馈值增加
Figure BDA0001237577580000121
Figure BDA0001237577580000125
的取值为:
Figure BDA0001237577580000122
式中,f1为原力反馈值,β为综合情绪模型输出的概率最大值,α1为常数;
在检测到厌烦状态时,力反馈值减少
Figure BDA0001237577580000123
Figure BDA0001237577580000126
的取值为:
Figure BDA0001237577580000124
式中,f2为原力反馈值,,β为综合情绪模型输出的概率最大值,α2为常数。α1和α1的大小根据需要进行设定。
平静状态时,力反馈强度不变。通过情绪状态的实时反馈,提高人机交互的舒适性。

Claims (7)

1.一种基于非接触式情绪识别的人机交互方法,其特征在于,所述人机交互方法实施在用户与虚拟环境构建系统之间,所述虚拟环境构建系统配置有力反馈器、非接触式检测装置以及运动检测装置,所述虚拟环境构建系统中预设有若干虚拟场景,针对各虚拟场景,预设对应的参考运动轨迹,用户接触力反馈器,并在各虚拟场景中依据参考运动轨迹进行肢体运动,所述人机交互方法包括:
步骤1,利用非接触式检测装置获取用户的生理信号特征和非生理信号特征,并依据生理信号特征和非生理信号特征识别用户的情绪状态;
所述依据生理信号特征和非生理信号特征识别用户的情绪状态,具体包括以下步骤:
a、基于生理信号特征建立第一情绪模型,基于非生理信号特征建立第二情绪模型;
b、识别的生理信号特征依据第一情绪模型生成第一情绪状态概率分布,识别的非生理信号特征依据第二情绪模型生成第二情绪状态概率分布;
c、依据第一情绪模型和第二情绪模型生成综合情绪模型,将第一情绪状态概率分布和第二情绪状态概率分布输入综合情绪模型,得到情绪状态概率分布,输出概率最大值β对应的情绪状态作为识别结果;
步骤2,在单个虚拟场景进行时,虚拟环境构建系统依据用户的情绪状态调整力反馈器的反馈力大小;
在单个虚拟场景完成时,依据肢体实时运动轨迹与参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
2.如权利要求1所述的基于非接触式情绪识别的人机交互方法,所述生理信号特征包括心率特征和呼吸特征,所述非生理信号特征包括表情特征。
3.如权利要求1所述的基于非接触式情绪识别的人机交互方法,其特征在于,所述非接触式检测装置包括视频采集装置和雷达。
4.如权利要求2所述的基于非接触式情绪识别的人机交互方法,其特征在于,所述心率特征和表情特征从视频信号中提取,所述呼吸特征从雷达信号中提取。
5.如权利要求4所述的基于非接触式情绪识别的人机交互方法,其特征在于,利用欧拉影像放大算法从视频信息中提取心率特征。
6.如权利要求1所述的基于非接触式情绪识别的人机交互方法,其特征在于,在某一虚拟场景中,若情绪识别的结果为愉悦,则力反馈值增加
Figure FDA0002227598990000024
Figure FDA0002227598990000028
的取值为:
Figure FDA0002227598990000025
式中,f1为原力反馈值,β为综合情绪模型输出的概率最大值,α1为常数;
若情绪识别的结果为厌烦,则力反馈值减小
Figure FDA0002227598990000027
Figure FDA0002227598990000029
的取值为:
Figure FDA0002227598990000026
式中,f2为原力反馈值,β为综合情绪模型输出的概率最大值,α2为常数。
7.如权利要求1所述的基于非接触式情绪识别的人机交互方法,其特征在于,所述虚拟场景包括:虚拟目标物跟踪场景和虚拟握拳跟踪场景:
在虚拟目标物跟踪场景中,预设目标物的参考运动轨迹,若参考运动轨迹为最大幅度为A0,频率为f0的正弦曲线,实际运动轨迹的幅度为Ak,1≤k≤n,n为虚拟场景的持续时间,k为时刻,在预定时间段内,若实际运动轨迹与参考运动轨迹的幅度差异累计大于K1=A0×f0×γ1,其中γ1为常数,则调整参考运动轨迹为最大幅度
Figure FDA0002227598990000021
频率f1的正弦曲线,式中,
Figure FDA0002227598990000022
μ1为实际运动轨迹的幅度均值,f1为实际运动轨迹的功率谱密度最大值;
在虚拟握拳跟踪场景中,参考运动轨迹为虚拟手的关节角度固定变化且最大幅度为A2的锯齿波曲线,实际运动轨迹的幅度为Bk,1≤k≤n,n为虚拟场景的持续时间,k为时刻,在预定时间段内,若实际运动轨迹与参考运动轨迹的幅度差异累计大于K2=A2×f2×γ2,γ2为常数,则调整虚拟手关节角度变化的参考运动轨迹为最大幅度
Figure FDA0002227598990000023
频率f3的锯齿波曲线,式中,
Figure FDA0002227598990000031
μ2为实际运动轨迹的幅度均值,f3为实际运动轨迹的功率谱密度最大值。
CN201710122967.0A 2017-03-03 2017-03-03 一种基于非接触式情绪识别的人机交互方法 Active CN107422841B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710122967.0A CN107422841B (zh) 2017-03-03 2017-03-03 一种基于非接触式情绪识别的人机交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710122967.0A CN107422841B (zh) 2017-03-03 2017-03-03 一种基于非接触式情绪识别的人机交互方法

Publications (2)

Publication Number Publication Date
CN107422841A CN107422841A (zh) 2017-12-01
CN107422841B true CN107422841B (zh) 2020-03-20

Family

ID=60423169

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710122967.0A Active CN107422841B (zh) 2017-03-03 2017-03-03 一种基于非接触式情绪识别的人机交互方法

Country Status (1)

Country Link
CN (1) CN107422841B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10310073B1 (en) * 2018-02-07 2019-06-04 Infineon Technologies Ag System and method for determining engagement level of a human being using a millimeter-wave radar sensor
CN108721048B (zh) * 2018-05-02 2020-12-22 南京邮电大学 计算机可读存储介质和终端
CN108805088B (zh) * 2018-06-14 2021-05-28 南京云思创智信息科技有限公司 基于多模态情绪识别系统的生理信号分析子系统
CN108937973A (zh) * 2018-06-15 2018-12-07 四川文理学院 一种机器人诊断人体愤怒情绪方法及装置
CN110279406B (zh) * 2019-05-06 2022-07-15 苏宁金融服务(上海)有限公司 一种基于摄像头的无接触式的脉率测量方法及装置
CN113853161A (zh) * 2019-05-16 2021-12-28 托尼有限责任公司 用于识别和测量情感状态的系统和方法
CN110558933A (zh) * 2019-07-26 2019-12-13 深圳市元征科技股份有限公司 一种信息提示方法及可穿戴设备
CN110738155A (zh) * 2019-10-08 2020-01-31 杭州市第一人民医院 人脸识别方法、装置、计算机设备和存储介质
CN111259787B (zh) * 2020-01-15 2022-09-06 杭州市第一人民医院 开锁方法、装置、计算机设备和存储介质
CN112315471A (zh) * 2020-10-22 2021-02-05 垒途智能教科技术研究院江苏有限公司 基于智能迷宫的大脑训练评价系统及其评价方法
CN112597967B (zh) * 2021-01-05 2024-06-11 沈阳工业大学 沉浸式虚拟环境、多模态生理信号的情绪识别方法及装置
CN113190114B (zh) * 2021-04-14 2022-05-20 三峡大学 具有触觉模拟和情绪感知的虚拟场景体验系统和方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11133096B2 (en) * 2011-08-08 2021-09-28 Smith & Nephew, Inc. Method for non-invasive motion tracking to augment patient administered physical rehabilitation
CN202515671U (zh) * 2012-03-14 2012-11-07 周炎 一种非接触式心理扫描分析装置
CN104287747A (zh) * 2014-10-24 2015-01-21 南京邮电大学 基于情绪感知的运动康复机器人交互控制方法
CN106264568B (zh) * 2016-07-28 2019-10-18 深圳科思创动实业有限公司 非接触式情绪检测方法和装置

Also Published As

Publication number Publication date
CN107422841A (zh) 2017-12-01

Similar Documents

Publication Publication Date Title
CN107422841B (zh) 一种基于非接触式情绪识别的人机交互方法
Jiang et al. A snapshot research and implementation of multimodal information fusion for data-driven emotion recognition
Pan et al. A hierarchical hand gesture recognition framework for sports referee training-based EMG and accelerometer sensors
US10521014B2 (en) Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location in at least one of a virtual and augmented reality system
Krishna et al. An efficient mixture model approach in brain-machine interface systems for extracting the psychological status of mentally impaired persons using EEG signals
Li et al. An EEG-based BCI system for 2-D cursor control by combining Mu/Beta rhythm and P300 potential
Yuen et al. Classification of human emotions from EEG signals using statistical features and neural network
Xu et al. Emotion recognition from gait analyses: Current research and future directions
Du et al. Non-contact emotion recognition combining heart rate and facial expression for interactive gaming environments
Chen et al. Eyebrow emotional expression recognition using surface EMG signals
Chang et al. Physiological emotion analysis using support vector regression
CN109219393A (zh) 用于神经康复的系统和方法
Yang et al. Physiological-based emotion detection and recognition in a video game context
Yoon et al. Emotion recognition of serious game players using a simple brain computer interface
Abushakra et al. Augmenting breath regulation using a mobile driven virtual reality therapy framework
Shin et al. Korean sign language recognition using EMG and IMU sensors based on group-dependent NN models
Tran et al. Stethoscope-sensed speech and breath-sounds for person identification with sparse training data
Huang et al. Design of a hybrid brain-computer interface and virtual reality system for post-stroke rehabilitation
Talkar et al. Detection of Subclinical Mild Traumatic Brain Injury (mTBI) Through Speech and Gait.
Jeong et al. 2020 International brain–computer interface competition: A review
Dash et al. Towards a Speaker Independent Speech-BCI Using Speaker Adaptation.
CN110639169A (zh) 基于游戏和肌电信号的cpm下肢康复训练方法及系统
Wiem et al. Emotion sensing from physiological signals using three defined areas in arousal-valence model
CN109126045A (zh) 智能化运动分析和训练系统
Cruz et al. Facial Expression Recognition based on EOG toward Emotion Detection for Human-Robot Interaction.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210831

Address after: 315048 room 2112-2122, No. 27, building 12, Lane 29, Guanghua Road, high tech Zone, Ningbo, Zhejiang

Patentee after: NINGBO AOLI MEDICAL INSTRUMENT Co.,Ltd.

Address before: No. 261, Wun gauze Road, Hangzhou, Zhejiang, Zhejiang

Patentee before: HANGZHOU FIRST PEOPLE'S Hospital