CN106648100B - 一种人机交互方法、装置和系统 - Google Patents
一种人机交互方法、装置和系统 Download PDFInfo
- Publication number
- CN106648100B CN106648100B CN201611206486.XA CN201611206486A CN106648100B CN 106648100 B CN106648100 B CN 106648100B CN 201611206486 A CN201611206486 A CN 201611206486A CN 106648100 B CN106648100 B CN 106648100B
- Authority
- CN
- China
- Prior art keywords
- user
- computer
- data
- parameter
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Dermatology (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种人机交互方法和装置,该方法包括:获取用户当前执行特定交互任务时的当前情绪数据;根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,调整所述预设性能参数的当前参数值,以使调整后的当前参数值与所述当前情绪数据相匹配;其中,所述计算机预设性能参数为人们通过感官能够感受到的性能参数。如此,通过该方法和装置,计算机能够对人的情绪进行相似反馈,从而使人机交互过程不再是毫无情感的交互过程,因此,该交互方法能够让人感觉到有种被理解的感觉,有利于提高人的共情能力,同时该交互方法能够提升用户的交互体验,有助于用户更好地完成任务。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种人机交互方法、装置和系统。
背景技术
共情是一种理解他人情绪和感情的心理体验。共情能力和人的其他思维情感能力一样是具有可塑性的,一方面即能因为缺乏共情体验而降低共情,另一方面也能通过提高共情体验来增强共情能力。
随着科学技术的发展,当前,人们大部分时间都是面对冰冷死板的机器完成任务。现有机器是无法实现共情的,面对冰冷的塑料外壳和玻璃屏幕,在人与机器进行交互的过程中,人无法感受到关怀,长期处于冰冷的机器操作中可能对人的共情能力有一定影响。人和机器之间的这种毫无情感的交互过程可能会在一定程度上异化人的心理,使人变得淡漠,越来越缺乏共情。
因此,为了不降低需要长期面对机器完成任务的人们的共情能力,有必要提供一种能够使机器对人的情绪进行相似反馈的人机交互方案。
发明内容
有鉴于此,本发明提供了一种人机交互方法、装置和系统,以使机器对人的情绪进行相似反馈,进而提高人的共情能力。
为了达到上述发明目的,本发明采用了如下技术方案:
一种人机交互方法,包括:
获取用户当前执行特定交互任务时的当前情绪数据;
根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,调整所述预设性能参数的当前参数值,以使调整后的当前参数值与所述当前情绪数据相匹配;
其中,所述计算机预设性能参数为人们通过感官能够感受到的性能参数。
可选的,所述计算机预设性能参数为人机交互界面的背景颜色和/或鼠标温度。
可选的,所述获取用户当前执行特定交互任务时的当前情绪数据,具体包括:
获取用户在执行特定交互任务时,在人机交互界面上输入的感受标签数据。
可选的,所述获取用户当前执行特定交互任务时的当前情绪数据,具体包括:
获取探测设备在用户执行特定交互任务时探测到的用户当前生理参数数据;
根据生理参数数据与情绪数据之间的映射关系,获取所述用户当前生理参数数据对应的当前情绪数据。
可选的,所述用户生理参数数据包括:心律数据和/或皮肤电数据。
可选的,所述特定交互任务为图像整理任务。
可选的,所述接收反映用户执行特定交互任务时的当前情绪数据之前,还包括:
获取用户执行特定交互任务之前的第一共情指数;
所述调整所述预设性能参数的当前参数值之后,还包括:
获取用户执行特定交互任务之后的第二共情指数;
比较所述第二共情指数和所述第一共情指数大小,以评价计算机对用户共情能力的增强作用。
一种人机交互装置,包括:
第一获取单元,用于获取用户当前执行特定交互任务时的当前情绪数据;
调整单元,用于根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,调整所述预设性能参数的当前参数值,以使调整后的当前参数值与所述当前情绪数据相匹配;
其中,所述计算机预设性能参数为人们通过感官能够感受到的性能参数。
可选的,所述装置还包括:
第二获取单元,用于获取用户执行特定交互任务之前的第一共情指数;
第三获取单元,用于获取用户执行特定交互任务之后的第二共情指数;
比较单元,用于比较所述第二共情指数和所述第一共情指数大小,以评价计算机对用户共情能力的增强作用。
一种人机交互系统,其特征在于,包括:计算机,所述计算机用于获取用户当前执行特定交互任务时的当前情绪数据;根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,调整所述预设性能参数的当前参数值,以使调整后的当前参数值与所述当前情绪数据相匹配;其中,所述计算机预设性能参数为人们通过感官能够感受到的性能参数。
可选的,所述系统还包括:
温控鼠标,所述温控鼠标内设置有温度调节器;所述温度调节器用于在接收到所述计算机下发的温度控制指令后,调节鼠标温度,以使所述鼠标温度的当前温度值与所述当前情绪数据相匹配。
可选的,所述系统还包括:
生理参数探测设备,用于探测用户在执行特定交互任务时的生理参数数据,并将所述生理参数数据传输至所述计算机。
可选的,所述生理参数探测设备包括心律探测仪和/或皮肤电分析仪;
所述心律探测仪用于探测用户的心律;
所述皮肤电分析仪用于探测用户的皮肤电。
相较于现有技术,本发明具有以下有益效果:
通过以上技术方案可知,本发明提供的人机交互方法中,计算机能够根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,自动调整预设性能参数的当前参数值,调整后的当前参数值与用户的当前情绪数据相匹配。由于计算机预设性能参数是人们通过感官例如视觉和/或触觉能够感受到的性能参数,如此,计算机能够对人的情绪进行相似反馈,从而使人机交互过程不再是毫无情感的交互过程,因此,该交互方法能够让人感觉到有种被理解的感觉,有利于提高人的共情能力。同时该交互方法能够提升用户的交互体验,有助于用户更好地完成任务。
附图说明
为了清楚地理解本发明的具体实施方式,下面将描述本发明具体实施方式时用到的附图做一简要说明。
图1是本发明实施例一提供的人机交互系统结构示意图;
图2是本发明实施例一提供的人机交互方法流程示意图;
图3是本发明实施例二提供的人机交互方法流程示意图;
图4是本发明实施例三提供的人机交互系统结构示意图;
图5是本发明实施例三提供的人机交互系统各结构连接示意图;
图6是本发明实施例三提供的人机交互方法流程示意图;
图7是本发明实施例四提供的人机交互装置结构示意图。
具体实施方式
下面结合附图对本发明的具体实施方式进行详细描述。
实施例一
图1是本发明实施例一提供的人机交互系统结构示意图。如图1所示,该人机交互系统包括计算机11、温控鼠标12和人体生理参数探测设备13。在该计算机11上安装有特定交互任务的执行程序111和共情检测程序112。当计算机运行特定交互任务程序111时,用户可以执行特定交互任务,当计算机运行共情检测程序112时,用户可以进行共情检测任务。
计算机11内保存有预先设置的情绪数据与计算机预设性能参数之间的映射关系。当计算机获取到用户当前执行特定交互任务时的当前情绪数据后,调用该预先设置的情绪数据与计算机预设性能参数之间的映射关系,根据该映射关系来调整计算机的预设性能参数的当前参数值,以使调整后的当前参数值与所述当前情绪数据相匹配。
需要说明,预先设置的情绪数据与计算机预设性能参数之间的映射关系可以根据用户的共情测试任务得到,也可以是根据人们的一般习惯得到。例如:当计算机预设性能参数为人机交互界面的背景颜色时,可以根据用户执行共情测试任务时得到用户喜爱到厌恶的色彩分布。根据人们的一般得到得到情绪数据与背景颜色的映射关系,具体可以为:悲伤对应灰色、快乐对应橙色。
温控鼠标12内设置有温度控制器121和生物电探测仪122。当接收到计算机11下发的控制指令后,温度控制器121根据该控制指令调节鼠标温度。计算机11下发的控制指令与计算机获取到的用户当前执行特定交互任务时的当前情绪数据相对应。生物电探测仪122可以探测用户的皮肤电数据,并将该皮肤电数据传输至人体生理参数探测设备13内的皮肤电分析仪132上,经过分析后,由皮肤电分析仪132将分析后的皮肤电数据传输至计算机11上,以使计算机11根据皮肤电数据调整计算机的预设性能参数。
人体生理参数探测设备13可以包括心律探测仪131和皮肤电分析仪132。
心律探测仪131可以探测用户的心律,将其探测到的心律数据传输到计算机11上。
皮肤电分析仪132的测试器为生物电探测器122,其安装在温控鼠标12上。当人握持或操作温控鼠标12时,生物电探测器122探测人的皮肤电数据,并将其传输至皮肤电分析仪132上。皮肤电分析仪132在接收到生物电探测器122传输的皮肤电数据后,对该皮肤电数据进行分析,并将分析后的皮肤电数据传输至计算机11。
基于上述人机交互系统,本发明实施例还提供了一种人机交互方法的具体实施方式。图2是本发明实施例一提供的人机交互方法流程示意图。如图2所示,该人机交互方法包括以下步骤:
S201、获取用户当前执行特定交互任务时的当前情绪数据:
在本发明实施例中,可以通过以下两种方式获取用户当前执行特定交互任务时的当前情绪数据。
第一种方式:在执行特定交互任务的人机交互界面上设置有输入情绪按钮,用户在执行特定交互任务时,通过该情绪按钮输入当前的情绪,例如:愉快、悲伤、惊恐、厌恶等等。更具体地,在人机交互界面上设置有感受标签,当点击该感受标签时会有下拉菜单,用户能从多种主要情绪中进行选择。
第二种方式:由于人体的生理参数在一定程度上反映人的压力水平和情绪类型,例如,皮肤电和心律在紧张情绪下会有比较明显的反映,这种生理反映一般能体现人的情绪状态。因此可以预先建立生理参数数据与情绪数据之间的映射关系,并把该预设关系存储在计算机内。需要说明,保存在计算机上的生理参数数据与情绪数据之间的映射关系可以通过预先对用户进行情绪与生理参数之间的对应关系的测试,通过该测试得出生理参数数据与情绪数据之间的映射关系。
当通过人体生理参数探测设备探测用户执行特定交互任务时的生理参数数据时,人体生理参数探测设备将探测到的用户执行特定交互任务时的生理参数数据传输至计算机,计算机根据其内部保存的生理参数数据与情绪数据之间的映射关系,获取到用户当前执行特定交互任务时的当前情绪数据。
具体可以为:在用户执行特定交互任务时,心律探测仪131探测用户的心律,将探测到的心律数据传输至计算机。计算机根据其内部保存的心律数据与情绪数据之间的映射关系,获取到反应用户当前执行特定交互任务时的当前情绪数据。
另外,用户在执行特定交互任务时,一般通过鼠标操作完成,所以,安装在温控鼠标12内的生物电探测器122探测用户的皮肤电数据,将该探测到的皮肤电数据传输至皮肤电分析仪132,经分析后,由皮肤电分析仪传输至计算机,计算机根据其内部保存的皮肤电数据与情绪数据之间的映射关系,从而获取到用户当前执行特定交互任务时的当前情绪数据。
需要说明,在本发明实施例提供的人机交互方法的一个具体实施方式中,上述第一种方式和第二种方式可以并用,也可以仅采用其中一种方式。当采用第二种方式时,无需用户在执行特定交互任务时再手动向计算机上输入情绪数据,简化了用户操作。但是,由于第二种方式是通过生理参数数据得到的用户情绪数据,该方式没有用户手动输入的情绪数据精准。
S202、根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,调整所述预设性能参数的当前参数值,以使调整后的当前参数值与所述当前情绪数据相匹配:
其中,所述计算机预设性能参数为人们通过感官例如视觉和/或触觉能够感受到的性能参数。该计算机预设性能参数例如可以为视觉感受到的人机交互界面的背景颜色,还可以为触觉感受到的鼠标温度或者鼠标表面平滑度。其中,鼠标表面平滑度可以用表面质感如摩擦或顺滑来表示。此外,该计算机预设性能参数还可以为声音。
作为示例,当计算机预设性能参数为人机交互界面的背景颜色时,步骤S202具体为:根据预先设置的情绪数据与人机交互界面的背景颜色之间的映射关系,调整人机交互界面的背景颜色,以使调整后的当前背景颜色与用户的当前情绪数据相匹配。例如:惊恐对应的颜色为黑色,喜悦对应的颜色为橙色,悲伤对应的颜色为深蓝色。
当计算机预设性能参数为鼠标温度时,步骤S202具体为:计算机根据预先设置的情绪数据与鼠标温度之间的映射关系,向温控鼠标下发控制指令,温控鼠标内的温度控制器会立即根据该控制指令调节鼠标温度,使其与用户的当前情绪数据相匹配。例如,惊恐对应的温度为0~10℃,喜悦对应的温度为24-36℃,悲伤对应的温度为10~20℃。
以上为本发明实施例提供的人机交互方法和交互系统的具体实施方式。通过该具体实施方式,计算机能够根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,自动调整预设性能参数的当前参数值,调整后的当前参数值与用户的当前情绪数据相匹配。由于计算机预设性能参数是人们通过感官例如视觉和/或触觉能够感受到的性能参数,如此,计算机能够对人的情绪进行相似反馈,从而使人机交互过程不再是毫无情感的交互过程,因此,该交互方法能够让人感觉到计算机不再是一台冰冷死板的机器,而会认为计算机“懂得”他的感受,有种被理解的感觉。因此,通过本发明实施例提供的人机交互系统和方法有利于提高人的共情能力。同时该交互方法能够提升用户的交互体验,有助于用户更好地完成任务。
此外,为了检测本发明提供的人机交互系统对用户的共情能力的增强效果,本发明提供的人机交互方法还可以在用户执行特定交互任务前后分别获取用户的共情指数,根据这两个共情指数来评价该人机交互系统对用户的共情能力的增强作用。具体参见实施例二。
实施例二
图3是本发明实施例二提供的人机交互方法流程示意图。如图3所示,该方法包括以下步骤:
S301、获取用户执行特定交互任务之前的第一共情指数:
在用户执行特定交互任务之前,计算机11上运行共情测试程序,用户执行共情测试任务,进行共情能力检测,得到第一共情指数,作为示例,该第一共情指数可以为共情能力得分。需要说明,在本发明实施例中,共情测试程序可以向用户提供一系列共情问卷,让用户问答,根据用户的答案得到用户的共情指数。
S302、获取用户当前执行特定交互任务时的当前情绪数据:
S303、根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,调整所述预设性能参数的当前参数值,以使调整后的当前参数值与所述当前情绪数据相匹配:
步骤S302和步骤S303与实施例一中的步骤S201和步骤S202相同,为了简要起见,在此不再详细描述。
S304、获取用户执行特定交互任务之后的第二共情指数:
在用户执行完特定交互任务之后,计算机11上再次运行共情测试程序,用户再次执行共情测试任务,进行共情能力检测,得到第二共情指数,作为示例,该第二共情指数也可以为共情能力得分。
S305、比较所述第二共情指数和所述第一共情指数大小,以评价计算机对用户共情能力的增强作用:
通过比较用户在执行特定交互任务前后的共情指数差异,评价计算机对用户共情能力的增强作用。
以上为本发明实施例二提供的人机交互方法的具体实施方式,在该具体实施方式中,除了具有实施例一所述的有益效果外,还能够评价本发明实施例提供的人机交互系统和方法对用户共情能力的增强作用。
下面以特定交互任务为整理照片为例说明上述实施例的具体实施方式。具体参见实施例三。
实施例三
图4是本发明实施例三提供的人机交互系统结构示意图。图5是人机交互系统中各结构的连接示意图。如图4所示,该人机交互系统包括计算机41、温控鼠标42和生理参数探测设备43。在该计算机41上安装有照片整理程序411和共情检测程序412。当运行照片整理程序411时,用户可以执行照片整理任务。当运行共情检测程序412时,用户可以进行共情检测任务。
当计算机41运行照片整理程序时,其显示的人工交互界面为图5所示的计算机41上的界面。其包括添加照片区域、感受标签按钮和事件标签按钮。
当计算机41上运行共情检测程序412时,用户可以进行共情能力测试,得到用户的共情指数。
在本发明实施例中,温控鼠标42和生理参数探测设备43的结构与实施例一中的人机交互系统中的温控鼠标12和生理参数探测设备43相同,为了简要起见,在此不再详细描述。
基于上述实施例所述的人机交互系统,本发明提供了一种人机交互方法。图6是本发明实施例提供的人机交互方法流程示意图。如图6所示,该方法包括以下步骤:
S601、获取用户在执行照片整理任务之前的第一共情指数:
该步骤与实施例二中的步骤S301相同,为了简要起见,在此不再详细描述,详细信息请参见实施例二中的描述。
S602、获取用户执行照片整理任务时的当前情绪数据:
作为示例,第一种方式:
在用户执行照片整理任务时,用户需要用温控鼠标42将保存在计算机41上的照片拖拽到“添加照片区域411”,之后,需要用户对添加的照片进行感受标签确认,当点击感受标签按钮412时,会有下拉菜单,该下拉菜单中包括多种情绪,如愉快、悲伤、惊恐和厌恶等。用户可以从下拉菜单中选择对添加的照片的感受,当用户选择了对添加的照片的感受后,如此,计算机就获取到了用户执行照片整理任务时的当前情绪数据。
第二种方式:
在用户执行照片整理任务时,用户可以随身携带佩戴心律探测仪,该心律探测仪探测该用户在执行照片整理任务时的心律,并该探测到的心律数据传输至计算机,如此计算机就获取到了用户执行照片整理任务时的心律数据,而后,计算机根据其内部预先存储的心律数据与情绪数据之间的映射关系,获取到与用户执行照片整理任务时的心律数据相对应的情绪数据。
此外,在用户执行照片整理任务时,需要通过鼠标完成操作,因此,安装在温控鼠标上的生物电探测仪会探测用户的皮肤电,并将该皮肤电数据传输至皮肤电分析仪,皮肤电分析仪将分析后的皮肤电数据传输至计算机,计算机根据其内部预先存储的皮肤电数据和情绪数据之间的映射关系,获取到与用户执行照片整理任务时的皮肤电数据相对应的情绪数据。
S603、根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,调整所述预设性能参数的当前参数值,以使调整后的当前参数值与所述当前情绪数据相匹配:
当预设性能参数为计算机人机交互界面的背景颜色时,则步骤S603具体为:根据预先设置的情绪数据与计算机人机交互界面的背景颜色之间的映射关系,调整人机交互界面的背景颜色,以使调整后的人机交互界面的当前背景颜色与用户的当前情绪数据相匹配。例如:当前情绪数据为惊恐时,则调整后的人机交互界面的背景颜色为黑色。
当预设性能参数为鼠标温度时,则步骤S603具体为:
根据预先设置的情绪数据与鼠标温度之间的映射关系,向温控鼠标传输温度控制指令,安装在温控鼠标内部的温度控制器121根据该温度控制指令调整鼠标温度,以使调整后的鼠标温度与当前情绪数据相对应。例如,当前情绪数据为惊恐,则调整后的鼠标温度为0~10℃。
通过该步骤,在用户进行照片整理的过程中,用户就会认为计算机“懂得”他的感受,从而得到情感上的“共鸣”,这样计算机就不再是依据冷冰冰无反应的无机材料组合物。
另外,计算机还可以将计算机的预设性能参数调整至让用户感觉到舒服的参数值,例如,当获取到当前情绪数据为情绪紧张数据时,计算机就会调整人机交互界面的背景颜色至用户适合的颜色,将鼠标温度调整至让人感觉到舒适的温度。
S604、获取用户执行完照片整理任务之后的第二共情指数:
S605、比较所述第二共情指数和所述第一共情指数大小,以评价计算机对用户共情能力的增强作用。
以上为本发明实施例提供的人机交互方法和系统的具体实施方式。基于上述人机交互方法,本发明还提供了一种人机交互装置的具体实施方式。具体参见实施例四。
实施例四
图7是本发明实施例提供的人机交互装置结构示意图。如图7所示,该人机交互装置包括以下单元:
第一获取单元71,用于获取用户当前执行特定交互任务时的当前情绪数据;
调整单元73,用于根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,调整所述预设性能参数的当前参数值,以使调整后的当前参数值与所述当前情绪数据相匹配;
其中,所述计算机预设性能参数为人们通过感官能够感受到的性能参数。
通过第一获取单元71和调整单元73,人机交互装置能够对人的情绪进行相似反馈,从而使人机交互过程不再是毫无情感的交互过程,因此,该交互方法能够让人感觉到有种被理解的感觉,有利于提高人的共情能力。
进一步地,为了能够检测该人机交互装置对人的共情能力的增强效果,本发明实施例提供的人机交互装置还可以进一步包括以下单元:
第二获取单元72,用于获取用户执行特定交互任务之前的第一共情指数;
第三获取单元74,用于获取用户执行特定交互任务之后的第二共情指数;
比较单元75,用于比较所述第二共情指数和所述第一共情指数大小,以评价计算机对用户共情能力的增强作用。
以上为本发明的优选实施方式。应当理解,上述实施例仅是本发明具体实施方式的示例,不应理解为是对本发明的限制。
Claims (11)
1.一种人机交互方法,其特征在于,包括:
获取用户当前执行特定交互任务时的当前情绪数据;
根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,调整所述预设性能参数的当前参数值,以使调整后的当前参数值与所述当前情绪数据相匹配;
其中,所述计算机预设性能参数为人们通过感官能够感受到的性能参数;
所述接收反映用户执行特定交互任务时的当前情绪数据之前,还包括:
获取用户执行特定交互任务之前的第一共情指数;
所述调整所述预设性能参数的当前参数值之后,还包括:
获取用户执行特定交互任务之后的第二共情指数;
比较所述第二共情指数和所述第一共情指数大小,以评价计算机对用户共情能力的增强作用。
2.根据权利要求1所述的方法,其特征在于,所述计算机预设性能参数为人机交互界面的背景颜色和/或鼠标温度。
3.根据权利要求1所述的方法,其特征在于,所述获取用户当前执行特定交互任务时的当前情绪数据,具体包括:
获取用户在执行特定交互任务时,在人机交互界面上输入的感受标签数据。
4.根据权利要求1所述的方法,其特征在于,所述获取用户当前执行特定交互任务时的当前情绪数据,具体包括:
获取探测设备在用户执行特定交互任务时探测到的用户当前生理参数数据;
根据生理参数数据与情绪数据之间的映射关系,获取所述用户当前生理参数数据对应的当前情绪数据。
5.根据权利要求4所述的方法,其特征在于,所述用户生理参数数据包括:心律数据和/或皮肤电数据。
6.根据权利要求1所述的方法,其特征在于,所述特定交互任务为图像整理任务。
7.一种人机交互装置,其特征在于,包括:
第一获取单元,用于获取用户当前执行特定交互任务时的当前情绪数据;
调整单元,用于根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,调整所述预设性能参数的当前参数值,以使调整后的当前参数值与所述当前情绪数据相匹配;
其中,所述计算机预设性能参数为人们通过感官能够感受到的性能参数;
所述装置还包括:
第二获取单元,用于获取用户执行特定交互任务之前的第一共情指数;
第三获取单元,用于获取用户执行特定交互任务之后的第二共情指数;
比较单元,用于比较所述第二共情指数和所述第一共情指数大小,以评价计算机对用户共情能力的增强作用。
8.一种人机交互系统,其特征在于,包括:计算机,所述计算机用于获取用户当前执行特定交互任务时的当前情绪数据;根据预先设置的情绪数据与计算机预设性能参数之间的映射关系,调整所述预设性能参数的当前参数值,以使调整后的当前参数值与所述当前情绪数据相匹配;其中,所述计算机预设性能参数为人们通过感官能够感受到的性能参数;
所述接收反映用户执行特定交互任务时的当前情绪数据之前,还包括:
获取用户执行特定交互任务之前的第一共情指数;
所述调整所述预设性能参数的当前参数值之后,还包括:
获取用户执行特定交互任务之后的第二共情指数;
比较所述第二共情指数和所述第一共情指数大小,以评价计算机对用户共情能力的增强作用。
9.根据权利要求8所述的人机交互系统,其特征在于,所述系统还包括:
温控鼠标,所述温控鼠标内设置有温度调节器;所述温度调节器用于在接收到所述计算机下发的温度控制指令后,调节鼠标温度,以使所述鼠标温度的当前温度值与所述当前情绪数据相匹配。
10.根据权利要求8或9所述的人机交互系统,其特征在于,所述系统还包括:
生理参数探测设备,用于探测用户在执行特定交互任务时的生理参数数据,并将所述生理参数数据传输至所述计算机。
11.根据权利要求10所述的人机交互系统,其特征在于,所述生理参数探测设备包括心律探测仪和/或皮肤电分析仪;
所述心律探测仪用于探测用户的心律;
所述皮肤电分析仪用于探测用户的皮肤电。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611206486.XA CN106648100B (zh) | 2016-12-23 | 2016-12-23 | 一种人机交互方法、装置和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611206486.XA CN106648100B (zh) | 2016-12-23 | 2016-12-23 | 一种人机交互方法、装置和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106648100A CN106648100A (zh) | 2017-05-10 |
CN106648100B true CN106648100B (zh) | 2019-08-06 |
Family
ID=58827313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611206486.XA Active CN106648100B (zh) | 2016-12-23 | 2016-12-23 | 一种人机交互方法、装置和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106648100B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114681258B (zh) * | 2020-12-25 | 2024-04-30 | 深圳Tcl新技术有限公司 | 一种自适应调整按摩模式的方法及按摩设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101437079A (zh) * | 2008-12-31 | 2009-05-20 | 深圳华为通信技术有限公司 | 一种移动终端用户情绪缓解方法及移动终端 |
CN101813973A (zh) * | 2009-02-20 | 2010-08-25 | 环达电脑(上海)有限公司 | 情绪共鸣系统 |
CN103782253A (zh) * | 2011-09-09 | 2014-05-07 | 高通股份有限公司 | 将情绪传输为触觉反馈 |
CN104615286A (zh) * | 2015-03-08 | 2015-05-13 | 刘晓英 | 一种温控鼠标 |
CN105607822A (zh) * | 2014-11-11 | 2016-05-25 | 中兴通讯股份有限公司 | 一种用户界面的主题切换方法、装置及终端 |
CN105844101A (zh) * | 2016-03-25 | 2016-08-10 | 惠州Tcl移动通信有限公司 | 一种基于智能手表的情绪数据处理方法、系统及智能手表 |
CN205540653U (zh) * | 2016-03-22 | 2016-08-31 | 华中科技大学 | 一种智能交互的情感呵护抱枕机器人系统 |
CN105929942A (zh) * | 2015-02-27 | 2016-09-07 | 意美森公司 | 基于用户情绪产生动作 |
-
2016
- 2016-12-23 CN CN201611206486.XA patent/CN106648100B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101437079A (zh) * | 2008-12-31 | 2009-05-20 | 深圳华为通信技术有限公司 | 一种移动终端用户情绪缓解方法及移动终端 |
CN101813973A (zh) * | 2009-02-20 | 2010-08-25 | 环达电脑(上海)有限公司 | 情绪共鸣系统 |
CN103782253A (zh) * | 2011-09-09 | 2014-05-07 | 高通股份有限公司 | 将情绪传输为触觉反馈 |
CN105607822A (zh) * | 2014-11-11 | 2016-05-25 | 中兴通讯股份有限公司 | 一种用户界面的主题切换方法、装置及终端 |
CN105929942A (zh) * | 2015-02-27 | 2016-09-07 | 意美森公司 | 基于用户情绪产生动作 |
CN104615286A (zh) * | 2015-03-08 | 2015-05-13 | 刘晓英 | 一种温控鼠标 |
CN205540653U (zh) * | 2016-03-22 | 2016-08-31 | 华中科技大学 | 一种智能交互的情感呵护抱枕机器人系统 |
CN105844101A (zh) * | 2016-03-25 | 2016-08-10 | 惠州Tcl移动通信有限公司 | 一种基于智能手表的情绪数据处理方法、系统及智能手表 |
Also Published As
Publication number | Publication date |
---|---|
CN106648100A (zh) | 2017-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110167421B (zh) | 整体地测量视觉功能的临床参数的系统 | |
Zhai | Human performance in six degree of freedom input control. | |
KR102241804B1 (ko) | 상담 대상자의 드로잉 과정을 통해 심리 상태를 판단하는 방법 및 컴퓨터 프로그램 | |
KR102261453B1 (ko) | 통증 모니터링 장치 및 방법 | |
CN106203484A (zh) | 一种基于类别分层机制的人体运动状态分类方法 | |
JP2019091498A (ja) | 回答の較正のためのシステムおよび方法 | |
CN109145782A (zh) | 基于界面任务的视觉认知差异研究方法 | |
US10732784B2 (en) | System and methods for cuing visual attention | |
CN103431859A (zh) | 多任务视觉认知中脑负荷测定的实验方法 | |
CN106648100B (zh) | 一种人机交互方法、装置和系统 | |
Tian et al. | ResNet-50 based technique for EEG image characterization due to varying environmental stimuli | |
KR102511069B1 (ko) | 심리 상태를 판단하는 장치, 심리 상태를 판단하는 방법 및 컴퓨터 프로그램 | |
CN107411762A (zh) | 认知障碍诊疗设备 | |
CN107391289B (zh) | 一种三维笔式交互界面可用性评估方法 | |
CN103230276A (zh) | 用于量化评估暨记录人体主观感受的装置以及方法 | |
Joundi et al. | ExperienceDNA: a framework to conduct and analyse user tests in VR using the Wizard-of-Oz methodology | |
JP2023011512A (ja) | システム、情報処理装置、プログラム、又は方法 | |
Xu et al. | VR-Based Technologies: Improving Safety Training Effectiveness for a Heterogeneous Workforce from a Physiological Perspective | |
Su | Visualization design of health detection products based on human-computer interaction experience in intelligent decision support systems | |
Augstein et al. | 3 Automated personalization of input methods and processes | |
Walker et al. | How is it for you?(A case for recognising user motivation in the design process) | |
Whitworth et al. | Formative evaluation of a virtual reality telerehabilitation system for the lower extremity | |
Murti et al. | Human interaction with embedded systems | |
CN108766167A (zh) | 一种流式细胞仪分选展示模拟系统及其控制方法 | |
Mengoni et al. | Performing ergonomic analysis in virtual environments: a structured protocol to assess humans interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |