CN107422841A - 一种基于非接触式情绪识别的人机交互方法 - Google Patents
一种基于非接触式情绪识别的人机交互方法 Download PDFInfo
- Publication number
- CN107422841A CN107422841A CN201710122967.0A CN201710122967A CN107422841A CN 107422841 A CN107422841 A CN 107422841A CN 201710122967 A CN201710122967 A CN 201710122967A CN 107422841 A CN107422841 A CN 107422841A
- Authority
- CN
- China
- Prior art keywords
- virtual
- movement locus
- physiological signal
- man
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Developmental Disabilities (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Educational Technology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Social Psychology (AREA)
- Animal Behavior & Ethology (AREA)
- Child & Adolescent Psychology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于非接触式情绪识别的人机交互方法,包括:步骤1,利用非接触式检测装置获取用户的生理信号特征和非生理信号特征,并依据生理信号特征和非生理信号特征识别用户的情绪状态;步骤2,在单个虚拟场景进行时,虚拟环境构建系统依据用户的情绪状态调整力反馈器的反馈力大小;在单个虚拟场景完成时,依据肢体实时运动轨迹与参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。本发明以用户的情绪状态作为单个虚拟场景中力反馈大小调整的依据,促进虚拟场景构建系统进行学习以适应用户的需求,单个虚拟场景完成后,依据实时运动参考轨迹和参考运动轨迹的差异,定量评价康复训练的效果。
Description
技术领域
本发明涉及虚拟现实应用技术领域,具体涉及一种基于非接触式情绪识别的人机交互方法。
背景技术
脑卒中(stroke),又称中风或脑血管意外(cerebrovascular accident,CVA),属于脑血管类疾病,是指由于脑部供血受阻而迅速发展的脑功能缺失。在美国和欧洲是导致成人残疾的首因,在世界范围内脑卒中是造成死亡的第二大原因。随着世界人口逐步老龄化,在未来的20年,脑卒中疾病造成的社会负担将会极大地增加,这种情况在发展中国家将会变得尤其严重。
针对脑卒中患者的运动障碍,目前的主要治疗方法包括:由医生护士进行临床医学处理、由物理治疗师指导恢复肢体运动功能的康复训练等,其中康复训练是运动障碍后遗症的主要治疗方法。
虚拟现实是利用计算机仿真系统创建的虚拟环境,虚拟环境将多源信息融合,产生可与用户交互的三维动态视景,使用户沉浸在虚拟环境中。近年来国际上出现了一系列将虚拟现实(virtual reality,VR)技术引入康复研究领域的尝试,将虚拟现实技术应用于脑卒中、脑外伤、帕金森等病人的上下肢运动功能恢复,及空间和认知能力的训练。
例如,Adamovich等利用数据手套、位置追踪器等设备研制虚拟康复系统,设计了击球、弹钢琴等场景。Broeren等利用力反馈装置,创建了包括识别乐谱和翻日历等日常生活康复场景在内的康复训练系统。Broeren等利用机器人和数据手套,通过迷宫等场景进行虚拟康复。Kayyali等利用位置追踪器和数据手套,设计了击球、插板等游戏场景进行虚拟康复训练。Badia等人根据摄像机和数据手套设计了虚拟击球等虚拟康复场景。清华大学提出了虚拟康复工程的概念,为了训练下肢运动功能,设计并研制了骑自行车的虚拟健身系统。
基于虚拟现实的康复系统通过动态调整技术,来适应患者和治疗者的需求变化。例如,VirtualRehab系统包含了9个用于治疗残疾障碍的康复游戏和训练集合,治疗师根据患者的参与反馈,手动调整训练场景。Kizony等人提供了一套虚拟康复系统,能够自适应调整目标类型、速度、位置以及方向,以促进患者康复训练进程。
用户与虚拟环境之间的反馈是双向的,一方面患者依据虚拟现实的反馈主动改变行为,另一方面,虚拟现实也根据患者的能力和状态,动态调节虚拟现实的反馈。
情绪是对一系列主观认知经验的通称,是基于多种感觉、思想和行为综合产生的心理和生理状态,既包括人对外界或自身刺激的心理反应,也包括伴随这种心理反应的生理反应。通过检测患者的情绪,并以此作为虚拟场景构建的依据,是一种非常重要的反馈机制。
情感计算作为精准医疗的重要技术手段,促进了虚拟环境控制方式的个性化,使人机交互更为友好和自然,常见的情绪识别方法依据信息来源的不同主要分为两大类:基于生理信号的识别和基于非生理信号的识别。基于生理信号的识别是指,通过测量心率、皮肤阻抗、呼吸等生理信号来识别对应的情绪状态,或者通过磁共振、脑电波等检测中枢神经反应来识别对应的情绪状态。基于非生理信号的识别,主要包括:对面部表情的识别和语音语调的识别。
现有技术中,将虚拟现实引入康复治疗领域的技术手段存在以下问题:
1、基于情绪调整虚拟现实场景时,由于表情是情绪的最直接反应,因此,多采用表情作为情绪的表达,利用表情调整虚拟现实场景时,一方面对于不能表达表情的病人,无法适用;另一方面,表情的特性选择较为主观,不能准确反应用户的状态。
2、基于生理信号调整虚拟现实场景时,虽然生理信号识别的测量具备客观性和精确性,但一方面生理信号属于间接反应,不能及时准确地反应用户的状态;另一方面传统的生理信号测量装置需要用户佩戴相应的装置,影响虚拟环境的浸入式体验。
3、现有的虚拟现实与用户之间的反馈多为单向,例如,用户基于虚拟现实场景的反馈自主进行场景变换,或者通过人的精神状态控制虚拟现实场景的改变。
发明内容
本发明提供了一种基于非接触式情绪识别的人机交互方法,所述人机交互方法的反馈分为两个层次,在单个虚拟场景进行过程中,依据情绪状态调整力反馈的大小,在单个虚拟场景完成时,依据实际运动轨迹和参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
一种基于非接触式情绪识别的人机交互方法,所述人机交互方法实施在用户与虚拟环境构建系统之间,所述虚拟环境构建系统配置有力反馈器、非接触式检测装置以及运动检测装置,所述虚拟环境构建系统中预设有若干虚拟场景,针对各虚拟场景,预设对应的参考运动轨迹,用户接触力反馈器,并在各虚拟场景中依据参考运动轨迹进行肢体运动,所述人机交互方法包括:
步骤1,利用非接触式检测装置获取用户的生理信号特征和非生理信号特征,并依据生理信号特征和非生理信号特征识别用户的情绪状态;
步骤2,在单个虚拟场景进行时,虚拟环境构建系统依据用户的情绪状态调整力反馈器的反馈力大小;
在单个虚拟场景完成时,依据肢体实时运动轨迹与参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
本发明提供的人机交互方法主要用于中风患者的康复训练,不同的虚拟场景包括打球场景,弹琴场景,翻日历场景,走迷宫场景,骑车场景等等,依据中风患者的实际需要进行设计。
在各场景中,设置初始参考运动轨迹,在每次交互结束时,对参考运动轨迹进行调整,以适应患者的康复过程。所述参考运动轨迹可以采用图像或者实物进行展示,例如,在屏幕上展示参考运动轨迹,或者,采用某一标志物的实际移动来展示参考运动轨迹,患者依据参考运动轨迹移动手指、上肢、下肢等肢体,利用运动检测装置检测患者相应肢体的运动轨迹,并与参考运动轨迹进行比较。
所述运动检测装置可以采用各种形式,为了实现更好的沉浸感,优选采用非接触形式,即可以在肢体上做标记,通过检测标记的运动来反应肢体的运动。
本发明采用非接触方式采集生理信号以及非生理信号,有利于改善虚拟现实的沉浸式体验,对于面部表情不易表达的患者,采用本发明的方法仍然可以得到较好的训练效果。
肢体在运动时与力反馈器直接接触,在肢体运动过程中,力反馈器向肢体施加作用力以阻止肢体的运动,在单个虚拟场景中,以患者的情绪状态作为调整力反馈器反馈力大小依据,使患者具有更好的使用体验。
在单个虚拟场景训练完成后,依据肢体实时运动轨迹与参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
作为优选,所述生理信号特征包括心率特征和呼吸特征,所述非生理信号特征包括表情特征。
作为优选,所述非接触式检测装置包括视频采集装置和雷达。所述心率特征和表情特征从视频信号中提取,所述呼吸特征从雷达信号中提取。
进一步优选,利用欧拉影像放大算法从视频信息中提取心率特征。
作为优选,依据生理信号特征和非生理信号特征识别用户的情绪状态,具体包括以下步骤:
a、基于生理信号特征建立第一情绪模型,基于非生理信号特征建立第二情绪模型;
b、识别的生理信号特征依据第一情绪模型生成第一情绪状态概率分布,识别的非生理信号特征依据第二情绪模型生成第二情绪状态概率分布;
c、依据第一情绪模型和第二情绪模型生成综合情绪模型,将第一情绪状态概率分布和第二情绪状态概率分布输入综合情绪模型,得到情绪状态概率分布,输出概率最大值对应的情绪状态作为识别结果。
建立第一情绪模型、第一情绪模型、以及综合情绪模型时,均采用人工神经网络。所述第一情绪模型和第一情绪模型为弱分类模型,所述综合情绪模型为强分类模型。
作为优选,在某一虚拟场景中,若情绪识别的结果为愉悦,则力反馈值增加 的取值为:式中,f1为原力反馈值,β为综合情绪模型输出的概率最大值,α1为常数;
若情绪识别的结果为厌烦,则力反馈值减小 的取值为:式中,f2为原力反馈值,β为综合情绪模型输出的概率最大值,α2为常数。
作为优选,在虚拟目标物跟踪场景中,预设目标物的参考运动轨迹,若参考运动轨迹为最大幅度为A0,频率为f0的正弦曲线,实际运动轨迹的幅度为Ak,1≤k≤n,n为虚拟场景的持续时间,k为时刻,在预定时间段内,若实际运动轨迹与参考运动轨迹的幅度差异累计大于K1=A0×f0×γ1,其中γ1为常数,则调整参考运动轨迹为最大幅度频率f1的正弦曲线,式中,μ1为实际运动轨迹的幅度均值,f1为实际运动轨迹的功率谱密度最大值;
在虚拟握拳跟踪场景中,参考运动轨迹为虚拟手的关节角度固定变化且最大幅度为A2的锯齿波曲线,实际运动轨迹的幅度为Bk,1≤k≤n,n为虚拟场景的持续时间,k为时刻,在预定时间段内,若实际运动轨迹与参考运动轨迹的幅度差异累计大于K2=A2×f2×γ2,γ2为常数,则调整虚拟手关节角度变化的参考运动轨迹为最大幅度频率f3的锯齿波曲线,式中,μ2为实际运动轨迹的幅度均值,f3为实际运动轨迹的功率谱密度最大值。
本发明基于非接触式情绪识别的人机交互方法,以用户的情绪状态作为单个虚拟场景中力反馈大小调整的依据,促进虚拟场景构建系统进行学习以适应用户的需求,单个虚拟场景完成后,依据实时运动参考轨迹和参考运动轨迹的差异,定量评价康复训练的效果。
附图说明
图1为本发明基于非接触式情绪识别的人机交互方法的流程图;
图2为利用欧拉影像放大算法从视频信息中提取心率特征的流程图;
图3为提取表情特征时的眼、鼻、口位置示意图;
图4为情绪识别的流程图;
图5为康复训练过程示意图;
图6为实际运动轨迹与参考运动轨迹的示意图;
图7为角度传感器的安装位置示意图;
图8为依据情绪状态调整单个虚拟场景中,力反馈大小的示意图。
具体实施方式
下面结合附图,对本发明基于非接触式情绪识别的人机交互方法做详细描述。
如图1所示,一种基于非接触式情绪识别的人机交互方法,人机交互方法实施在用户与虚拟环境构建系统之间,虚拟环境构建系统配置有力反馈器、非接触式检测装置以及运动检测装置,虚拟环境构建系统中预设有若干虚拟场景,在各虚拟场景中,预设对应的参考运动轨迹,用户接触力反馈器,并在各虚拟场景中依据参考运动轨迹进行肢体运动。
人机交互方法包括:
步骤1,利用非接触式检测装置获取用户的心率特征、呼吸特征、以及表情特征,并依据心率特征、呼吸特征、以及表情特征识别用户的情绪状态。
利用视频拍摄装置获取用户的视频信息,利用雷达检测用户的胸腹部运动,从视频信息中获取心率特征和表情特征,从雷达检测结果中获得呼吸特征。
如图2所示,利用欧拉影像放大算法从视频信息中提取心率特征,具体操作如下:
首先,检测视频信息中的人脸区域;
检测人脸区域可以采用现有的算法,例如,计算机视觉开源库OpenCV中的Adaboost人脸检测算法,对于检测到的每张人脸,返回一个包含人脸区域的矩形区域。
当视频时间持续一段时间后,例如持续20s,对窗口内的视频进行欧拉影像放大,欧拉影像放大包括:空间滤波(将视频序列进行金字塔多分辨率分解)、时域滤波(对每个尺度的图像进行时域带通滤波,得到感兴趣的若干频带)、放大滤波结果(对每个频带的信号用泰勒级数进行差分逼近)、合成图像(合成经过放大后的图像)。
将欧拉影像放大处理后每一帧图像的RGB通道分开,分别计算感兴趣区域内像素的平均值,得到三段原始的心率信号P1(t),P2(t),P3(t)。对每段原始的心率信号进行归一化处理,得到:
其中μi,σi分别为心率信号的均值和标准差,i的取值为1,2,3。
对每段原始的心率信号进行归一化处理后,需要对窗口内的信号进行带通滤波处理,以消除低频呼吸信号和高频噪声对心率检测结果的影响。考虑到正常人的心率范围为[45,180],因此,设置带通滤波器的上下截止频率分别为0.75Hz和3Hz。
对经归一化和带通滤波处理后的三段原始心率信号序列进行快速傅里叶变换,分别得到三段原始心率信号序列的功率谱密度,分别计算功率谱密度最大值Max1、Max2和Max3,均值Mean1、Mean2和Mean3,计算比例选取ξ1,ξ2,ξ3中值最大的通道信号,以其功率谱密度最大值对应的频率作为心率。
利用雷达检测胸腹运动,由于呼吸运动能量较高,通过对雷达信号进行傅里叶变化,提取呼吸特征。
雷达采用超宽带(UWB)脉冲雷达,雷达发射的电磁波经过介质(自由空间或障碍物)传播后到达人体,电磁波脉冲经人体散射产生回波,回波信号经过介质(自由空间或障碍物)传播后被雷达接收。人体反射回波的时延、幅度、相位、频率等会受到人体运动的影响而产生变化,通过检测这些变化达到探测人体运动的目的。
t时刻雷达回波的延时td(t)=2×d(t)/c,其中d(t)为胸腹与雷达之间的距离,c为光速。不同时刻的延时依据时间顺序排列,得到延时时间序列td(tk),利用带通线性相位有限脉冲响应(FIR)滤波器对延时时间序列进行滤波。所采用的带通滤波器的通带应与呼吸信号的频率范围保持一致,考虑呼吸频率范围为15~30次/分,因此,通带频率范围为[0.25,0.5]。
得到滤波信号后,计算功率谱密度,以呼吸信号频率范围内的最大功率谱密度对应的频率作为呼吸频率。对延时时间序列滤波后,进行归一化处理,并计算波峰波谷,波峰波谷的差值即为呼吸深度。
根据一段时间内的心率、呼吸频率、呼吸深度,分别计算得到心率均值、心率标准差、心率方差、呼吸频率均值、呼吸频率标准差、呼吸频率方差、呼吸深度均值、呼吸深度标准差、呼吸深度方差,这九个特征值作为生理信号特征,进行后续的情绪识别。
从视频图像中提取表情特征的方法,具体如下:
首先,利用OpenCV库检测面部位置,通过模板匹配的方法获取眼、口位置,左眼、右眼、口等每个部位有4个特征点,加上鼻有2个特征点,共计14个特征点。
如图3所示,左眼和右眼对称,左眼特征点坐标为:LU(LUx,LUy),LD(LDx,LDy),LL(LLx,LLy),LR(LRx,LRy),右眼特征点坐标为:RU(RUx,RUy),RD(RDx,RDy),RL(RLx,RLy),RR(RRx,RRy)。
嘴部特征点坐标为:MU(MUx,MUy),MD(MDx,MDy),ML(MLx,MLy),MR(MRx,MRy),鼻部特征点坐标为:NL(NLx,NLy),NR(NRx,NRy)。
根据14个特征点的位置,选出11组特征值作为表征表情变化的特征向量,如表1所示。
表1
表1中,各特征值的计算方法,具体如下:
d1=||MDy-MLy|+|MDy-MRy|-|MLy-MUy|+|MRy-MUy||;
d2=|MDy-MUy|;
d3=|MRx-MLx|;
d4=d2/d3;
d5=d2-d3;
d6=|RRx-RLx|/|RDy-RUy|;
d7=||RRx-RLx|-|RDy-RUy||;
d8=|LRx-LLx|/|LDy-LUy|;
d9=||LRx-LLx|-|LDy-LUy||;
d10=|NRx-NLx|;
d11=|LDy-NLy|。
将d1-d11的特征值作为非生理信号特征,进行后续的情绪识别。
通过集成学习方法构建情绪模型,将得到的生理信号特征以及非生理信号特征输入情绪模型中,得到情绪识别结果。
利用集成学习方法构建情绪模型基于两个分类模型:H={H1,H2}。H1为基于非生理信号特征的情绪模型,H2为基于生理信号特征的情绪模型。H为两个情绪模型的集合。
U1={xj,yj},(j=1,.....,m)表示基于生理信号特征的数据集,其中,是n维生理信号特征空间X的一个样本,m为特征空间X的样本数量,yj∈Ω={1,...,C}是x的情绪类别标签,Ω为情绪集合,C为情绪类别的编号。
U2={zk,yk},(k=1,.....,l)表示基于非生理信号特征的数据集,其中,是p维非生理信号特征空间Z的一个样本,l为特征空间Z的样本数量yk∈Ω={1,...,C}是z的情绪类别标签。根据生理信号特征以及非生理信号特征的数量,n=9,p=11。
如图4所示,基于两个分类假设,分别利用人工神经网络以及数据集U1、U2建立对应的情绪模型{φ1,φ2}。ηt H1(yq)、ηt H2(yq)为两个情绪模型的情绪类别标签概率输出。
结合基于非生理信号特征的情绪模型以及基于生理信号特征的情绪模型,利用人工神经网络建立综合情绪模型,以数据集{(ηt H1(yq),ηt H2(yq)),yt}作为输入进行训练,其中,yq∈Ω={1,...,C}为情绪类别标签,yt为诱发记录的情绪状态,t为时间标记。
进行情绪识别时,将非生理信号特征依据对应的情绪模型生成情绪状态概率分布ηt H1(yq)、将生理信号特征依据对应的情绪模型生成情绪状态概率分布ηt H2(yq),其中,yq∈Ω={1,...,C}属于情绪类别标签。综合情绪模型根据ηt H1(yq)、ηt H2(yq),输出t时刻的情绪状态概率分布ηt(yq),按照最大值输出情绪状态St。
情绪诱发实验为:在实验室内配置电脑和摄像头,测试者坐在距离电脑70cm处,并面向电脑,利用电脑播放情绪诱发视频素材,利用摄像头采集测试者的视频图像。情绪诱发视频素材用于唤起测试者不同情感,如愉悦、厌烦、平静等。
步骤2,在单个虚拟场景进行时,虚拟环境构建系统依据用户的情绪状态调整力反馈器的反馈力大小;
在单个虚拟场景完成时,依据肢体实时运动轨迹与参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
如图5所示,本发明调整虚拟场景包括两个层次,针对单个虚拟场景,根据用户的情绪状态调整力反馈器输出的作用力大小,在单个虚拟场景完成时,通过计算力反馈器实时运动轨迹和参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
虚拟场景包括:虚拟目标物跟踪场景和虚拟握拳跟踪场景。
如图6所示,在虚拟场景中,小球作为目标物被跟踪,小球按照运动参考轨迹设定的频率和幅度进行运动,参考运动轨迹如图6中的实线所示。用户将手或身体的其他部位作用于力反馈器上,并跟随小球运动,捕获用户的手部或其他部位的实际运动轨迹,如图6中的虚线所示。在虚拟场景结束后,计算实际运动轨迹和参考运动轨迹的差异,并依据差异调整下一次交互时虚拟场景中小球的运动频率和/或幅度。
小球的参考运动轨迹为最大幅度为A0,频率为f0的正弦曲线,实际运动轨迹的幅度为Ak,1≤k≤n,n为虚拟场景的持续时间,k为时刻,在预定时间段内,若实际运动轨迹与参考运动轨迹的幅度差异累计大于K1=A0×f0×γ1,其中γ1为常数,则调整参考运动轨迹为最大幅度频率f1的正弦曲线,式中,μ1为实际运动轨迹的幅度均值,f1为实际运动轨迹的功率谱密度最大值。
参考运动轨迹的正弦曲线设定在合理的承受范围内,力反馈与实际运动轨迹捕获可以通过Phantom Omni的力反馈和位置检测实现。
如在虚拟握拳跟踪场景中,虚拟手进行握拳动作,虚拟手的参考运动轨迹为指关节角度固定变化的锯齿波曲线,用户跟随虚拟手的握拳动作进行握拳动作,实际运动轨迹为关节角度的变化。
如图7所示,将弯曲传感器佩戴在手上,力反馈与实际运动轨迹捕获可以通过Phantom Omni的力反馈检测实现,关节角度检测通过弯曲传感器FlexSensor实现。
在虚拟握拳跟踪场景中,参考运动轨迹为虚拟手的关节角度固定变化且最大幅度为A2的锯齿波曲线,实际运动轨迹的幅度为Bk,1≤k≤n,n为虚拟场景的持续时间,k为时刻,在预定时间段内,若实际运动轨迹与参考运动轨迹的幅度差异累计大于K2=A2×f2×γ2,γ2为常数,则调整虚拟手关节角度变化的参考运动轨迹为最大幅度频率f3的锯齿波曲线,式中,μ2为实际运动轨迹的幅度均值,f3为实际运动轨迹的功率谱密度最大值。
如图8所示,在单个虚拟场景中,识别得到愉悦、平静、厌烦三种情绪状态,根据三种不同的情绪状态,对力反馈器的反馈力进行调整。
在检测到愉悦状态一定时间后,力反馈值增加 的取值为:式中,f1为原力反馈值,β为综合情绪模型输出的概率最大值,α1为常数;
在检测到厌烦状态时,力反馈值减少 的取值为:式中,f2为原力反馈值,,β为综合情绪模型输出的概率最大值,α2为常数。α1和α1的大小根据需要进行设定。
平静状态时,力反馈强度不变。通过情绪状态的实时反馈,提高人机交互的舒适性。
Claims (8)
1.一种基于非接触式情绪识别的人机交互方法,其特征在于,所述人机交互方法实施在用户与虚拟环境构建系统之间,所述虚拟环境构建系统配置有力反馈器、非接触式检测装置以及运动检测装置,所述虚拟环境构建系统中预设有若干虚拟场景,针对各虚拟场景,预设对应的参考运动轨迹,用户接触力反馈器,并在各虚拟场景中依据参考运动轨迹进行肢体运动,所述人机交互方法包括:
步骤1,利用非接触式检测装置获取用户的生理信号特征和非生理信号特征,并依据生理信号特征和非生理信号特征识别用户的情绪状态;
步骤2,在单个虚拟场景进行时,虚拟环境构建系统依据用户的情绪状态调整力反馈器的反馈力大小;
在单个虚拟场景完成时,依据肢体实时运动轨迹与参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
2.如权利要求1所述的基于非接触式情绪识别的人机交互方法,所述生理信号特征包括心率特征和呼吸特征,所述非生理信号特征包括表情特征。
3.如权利要求1所述的基于非接触式情绪识别的人机交互方法,其特征在于,所述非接触式检测装置包括视频采集装置和雷达。
4.如权利要求2所述的基于非接触式情绪识别的人机交互方法,其特征在于,所述心率特征和表情特征从视频信号中提取,所述呼吸特征从雷达信号中提取。
5.如权利要求4所述的基于非接触式情绪识别的人机交互方法,其特征在于,利用欧拉影像放大算法从视频信息中提取心率特征。
6.如权利要求1所述的基于非接触式情绪识别的人机交互方法,其特征在于,依据生理信号特征和非生理信号特征识别用户的情绪状态,具体包括以下步骤:
a、基于生理信号特征建立第一情绪模型,基于非生理信号特征建立第二情绪模型;
b、识别的生理信号特征依据第一情绪模型生成第一情绪状态概率分布,识别的非生理信号特征依据第二情绪模型生成第二情绪状态概率分布;
c、依据第一情绪模型和第二情绪模型生成综合情绪模型,将第一情绪状态概率分布和第二情绪状态概率分布输入综合情绪模型,得到情绪状态概率分布,输出概率最大值β对应的情绪状态作为识别结果。
7.如权利要求1所述的基于非接触式情绪识别的人机交互方法,其特征在于,在某一虚拟场景中,若情绪识别的结果为愉悦,则力反馈值增加的取值为:式中,f1为原力反馈值,β为综合情绪模型输出的概率最大值,α1为常数;
若情绪识别的结果为厌烦,则力反馈值减小的取值为:式中,f2为原力反馈值,β为综合情绪模型输出的概率最大值,α2为常数。
8.如权利要求1所述的基于非接触式情绪识别的人机交互方法,其特征在于,所述虚拟场景包括:虚拟目标物跟踪场景和虚拟握拳跟踪场景:
在虚拟目标物跟踪场景中,预设目标物的参考运动轨迹,若参考运动轨迹为最大幅度为A0,频率为f0的正弦曲线,实际运动轨迹的幅度为Ak,1≤k≤n,n为虚拟场景的持续时间,k为时刻,在预定时间段内,若实际运动轨迹与参考运动轨迹的幅度差异累计大于K1=A0×f0×γ1,其中γ1为常数,则调整参考运动轨迹为最大幅度频率f1的正弦曲线,式中,μ1为实际运动轨迹的幅度均值,f1为实际运动轨迹的功率谱密度最大值;
在虚拟握拳跟踪场景中,参考运动轨迹为虚拟手的关节角度固定变化且最大幅度为A2的锯齿波曲线,实际运动轨迹的幅度为Bk,1≤k≤n,n为虚拟场景的持续时间,k为时刻,在预定时间段内,若实际运动轨迹与参考运动轨迹的幅度差异累计大于K2=A2×f2×γ2,γ2为常数,则调整虚拟手关节角度变化的参考运动轨迹为最大幅度频率f3的锯齿波曲线,式中,μ2为实际运动轨迹的幅度均值,f3为实际运动轨迹的功率谱密度最大值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710122967.0A CN107422841B (zh) | 2017-03-03 | 2017-03-03 | 一种基于非接触式情绪识别的人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710122967.0A CN107422841B (zh) | 2017-03-03 | 2017-03-03 | 一种基于非接触式情绪识别的人机交互方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107422841A true CN107422841A (zh) | 2017-12-01 |
CN107422841B CN107422841B (zh) | 2020-03-20 |
Family
ID=60423169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710122967.0A Active CN107422841B (zh) | 2017-03-03 | 2017-03-03 | 一种基于非接触式情绪识别的人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107422841B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108721048A (zh) * | 2018-05-02 | 2018-11-02 | 南京邮电大学 | 康复训练控制方法、计算机可读存储介质和终端 |
CN108805088A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的生理信号分析子系统 |
CN108937973A (zh) * | 2018-06-15 | 2018-12-07 | 四川文理学院 | 一种机器人诊断人体愤怒情绪方法及装置 |
CN110115592A (zh) * | 2018-02-07 | 2019-08-13 | 英飞凌科技股份有限公司 | 使用毫米波雷达传感器确定人的参与水平的系统和方法 |
CN110279406A (zh) * | 2019-05-06 | 2019-09-27 | 苏宁金融服务(上海)有限公司 | 一种基于摄像头的无接触式的脉率测量方法及装置 |
CN110558933A (zh) * | 2019-07-26 | 2019-12-13 | 深圳市元征科技股份有限公司 | 一种信息提示方法及可穿戴设备 |
CN110738155A (zh) * | 2019-10-08 | 2020-01-31 | 杭州市第一人民医院 | 人脸识别方法、装置、计算机设备和存储介质 |
CN111259787A (zh) * | 2020-01-15 | 2020-06-09 | 杭州市第一人民医院 | 开锁方法、装置、计算机设备和存储介质 |
CN112597967A (zh) * | 2021-01-05 | 2021-04-02 | 沈阳工业大学 | 沉浸式虚拟环境、多模态生理信号的情绪识别方法及装置 |
CN113190114A (zh) * | 2021-04-14 | 2021-07-30 | 三峡大学 | 具有触觉模拟和情绪感知的虚拟场景体验系统和方法 |
CN113853161A (zh) * | 2019-05-16 | 2021-12-28 | 托尼有限责任公司 | 用于识别和测量情感状态的系统和方法 |
WO2022082840A1 (zh) * | 2020-10-22 | 2022-04-28 | 垒途智能教科技术研究院江苏有限公司 | 基于智能迷宫的大脑训练评价系统及其评价方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202515671U (zh) * | 2012-03-14 | 2012-11-07 | 周炎 | 一种非接触式心理扫描分析装置 |
CN103889520A (zh) * | 2011-08-08 | 2014-06-25 | 加里和玛丽西部健康研究院 | 用于非侵入式运跟踪以增强患者实施的物理康复的系统、设备和方法 |
CN104287747A (zh) * | 2014-10-24 | 2015-01-21 | 南京邮电大学 | 基于情绪感知的运动康复机器人交互控制方法 |
CN106264568A (zh) * | 2016-07-28 | 2017-01-04 | 深圳科思创动实业有限公司 | 非接触式情绪检测方法和装置 |
-
2017
- 2017-03-03 CN CN201710122967.0A patent/CN107422841B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103889520A (zh) * | 2011-08-08 | 2014-06-25 | 加里和玛丽西部健康研究院 | 用于非侵入式运跟踪以增强患者实施的物理康复的系统、设备和方法 |
CN202515671U (zh) * | 2012-03-14 | 2012-11-07 | 周炎 | 一种非接触式心理扫描分析装置 |
CN104287747A (zh) * | 2014-10-24 | 2015-01-21 | 南京邮电大学 | 基于情绪感知的运动康复机器人交互控制方法 |
CN106264568A (zh) * | 2016-07-28 | 2017-01-04 | 深圳科思创动实业有限公司 | 非接触式情绪检测方法和装置 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110115592A (zh) * | 2018-02-07 | 2019-08-13 | 英飞凌科技股份有限公司 | 使用毫米波雷达传感器确定人的参与水平的系统和方法 |
CN108721048B (zh) * | 2018-05-02 | 2020-12-22 | 南京邮电大学 | 计算机可读存储介质和终端 |
CN108721048A (zh) * | 2018-05-02 | 2018-11-02 | 南京邮电大学 | 康复训练控制方法、计算机可读存储介质和终端 |
CN108805088A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的生理信号分析子系统 |
CN108805088B (zh) * | 2018-06-14 | 2021-05-28 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的生理信号分析子系统 |
CN108937973A (zh) * | 2018-06-15 | 2018-12-07 | 四川文理学院 | 一种机器人诊断人体愤怒情绪方法及装置 |
CN110279406A (zh) * | 2019-05-06 | 2019-09-27 | 苏宁金融服务(上海)有限公司 | 一种基于摄像头的无接触式的脉率测量方法及装置 |
CN110279406B (zh) * | 2019-05-06 | 2022-07-15 | 苏宁金融服务(上海)有限公司 | 一种基于摄像头的无接触式的脉率测量方法及装置 |
CN113853161A (zh) * | 2019-05-16 | 2021-12-28 | 托尼有限责任公司 | 用于识别和测量情感状态的系统和方法 |
CN110558933A (zh) * | 2019-07-26 | 2019-12-13 | 深圳市元征科技股份有限公司 | 一种信息提示方法及可穿戴设备 |
CN110738155A (zh) * | 2019-10-08 | 2020-01-31 | 杭州市第一人民医院 | 人脸识别方法、装置、计算机设备和存储介质 |
CN111259787A (zh) * | 2020-01-15 | 2020-06-09 | 杭州市第一人民医院 | 开锁方法、装置、计算机设备和存储介质 |
CN111259787B (zh) * | 2020-01-15 | 2022-09-06 | 杭州市第一人民医院 | 开锁方法、装置、计算机设备和存储介质 |
WO2022082840A1 (zh) * | 2020-10-22 | 2022-04-28 | 垒途智能教科技术研究院江苏有限公司 | 基于智能迷宫的大脑训练评价系统及其评价方法 |
CN112597967A (zh) * | 2021-01-05 | 2021-04-02 | 沈阳工业大学 | 沉浸式虚拟环境、多模态生理信号的情绪识别方法及装置 |
CN113190114A (zh) * | 2021-04-14 | 2021-07-30 | 三峡大学 | 具有触觉模拟和情绪感知的虚拟场景体验系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107422841B (zh) | 2020-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107422841A (zh) | 一种基于非接触式情绪识别的人机交互方法 | |
CN105213153B (zh) | 基于脑肌信息变阻抗的下肢康复机器人控制方法 | |
Xu et al. | Emotion recognition from gait analyses: Current research and future directions | |
Chen et al. | Eyebrow emotional expression recognition using surface EMG signals | |
CN109243572A (zh) | 一种精准运动评估和康复训练系统 | |
CN113940856B (zh) | 一种基于肌电-惯性信息的手部康复训练装置及方法 | |
CN108681685A (zh) | 一种基于人体表面肌电信号的躯干动作意图识别方法 | |
WO2020118797A1 (zh) | 假肢控制方法、装置、系统、设备和存储介质 | |
CN108721048A (zh) | 康复训练控制方法、计算机可读存储介质和终端 | |
CN111401435B (zh) | 一种基于运动手环的人体运动模式识别方法 | |
CN109126045A (zh) | 智能化运动分析和训练系统 | |
Li et al. | Wireless sEMG-based identification in a virtual reality environment | |
Li et al. | Transfer learning-based muscle activity decoding scheme by low-frequency sEMG for wearable low-cost application | |
CN106901751A (zh) | 一种基于大脑血红蛋白信息的运动速度状态的识别方法 | |
CN109172994A (zh) | 一种裸眼3d影像拍摄显示系统 | |
CN113713333B (zh) | 一种下肢康复全训练过程的动态虚拟诱导方法及系统 | |
CN116966056A (zh) | 一种脑卒中患者上肢康复评估系统 | |
Du et al. | Non-interference driving fatigue detection system based on intelligent steering wheel | |
Cruz et al. | Facial Expression Recognition based on EOG toward Emotion Detection for Human-Robot Interaction. | |
CN108814569A (zh) | 康复训练控制装置 | |
CN112998725A (zh) | 一种基于运动观察的脑机接口技术的康复方法与系统 | |
CN116738295A (zh) | sEMG信号分类方法、系统、电子设备及存储介质 | |
CN109498228A (zh) | 基于咳嗽音反馈的肺康复治疗装置 | |
Hua et al. | Recognition of Electromyographic Signal Time Series on Daily Hand Motions Based on Long Short-Term Memory Network. | |
Lyu et al. | Electromyography (EMG)-based Chinese voice command recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210831 Address after: 315048 room 2112-2122, No. 27, building 12, Lane 29, Guanghua Road, high tech Zone, Ningbo, Zhejiang Patentee after: NINGBO AOLI MEDICAL INSTRUMENT Co.,Ltd. Address before: No. 261, Wun gauze Road, Hangzhou, Zhejiang, Zhejiang Patentee before: HANGZHOU FIRST PEOPLE'S Hospital |