CN113744738B - 一种人机交互方法及其相关设备 - Google Patents
一种人机交互方法及其相关设备 Download PDFInfo
- Publication number
- CN113744738B CN113744738B CN202111064290.2A CN202111064290A CN113744738B CN 113744738 B CN113744738 B CN 113744738B CN 202111064290 A CN202111064290 A CN 202111064290A CN 113744738 B CN113744738 B CN 113744738B
- Authority
- CN
- China
- Prior art keywords
- emotion
- user
- content
- characterization
- release
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 132
- 230000003993 interaction Effects 0.000 title claims abstract description 118
- 230000008451 emotion Effects 0.000 claims abstract description 673
- 230000004308 accommodation Effects 0.000 claims abstract description 69
- 230000001960 triggered effect Effects 0.000 claims abstract description 33
- 238000012512 characterization method Methods 0.000 claims description 125
- 238000004458 analytical method Methods 0.000 claims description 63
- 230000008569 process Effects 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 31
- 238000004140 cleaning Methods 0.000 claims description 18
- 230000002996 emotional effect Effects 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 10
- 230000008907 emotional mimicry Effects 0.000 claims description 8
- 238000013022 venting Methods 0.000 claims description 7
- 230000003278 mimic effect Effects 0.000 claims description 5
- 238000011084 recovery Methods 0.000 claims description 5
- 230000001815 facial effect Effects 0.000 claims description 4
- 201000010099 disease Diseases 0.000 abstract description 10
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 abstract description 10
- 230000009286 beneficial effect Effects 0.000 description 11
- 230000006399 behavior Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000006378 damage Effects 0.000 description 5
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 208000027418 Wounds and injury Diseases 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 208000014674 injury Diseases 0.000 description 3
- 241001310793 Podium Species 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000004630 mental health Effects 0.000 description 2
- 239000010813 municipal solid waste Substances 0.000 description 2
- 229940068196 placebo Drugs 0.000 description 2
- 239000000902 placebo Substances 0.000 description 2
- 206010048909 Boredom Diseases 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 206010049976 Impatience Diseases 0.000 description 1
- 206010034960 Photophobia Diseases 0.000 description 1
- 238000013019 agitation Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003370 grooming effect Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000242 pagocytic effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Epidemiology (AREA)
- Public Health (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种人机交互方法及其相关设备,该方法包括:在获取到用户触发的情绪宣泄请求之后,先根据该用户输入的情绪宣泄内容,确定情绪表征对象,以使该情绪表征对象用于承载该情绪宣泄内容所携带的用户情绪;再显示该情绪表征对象沿着预设路线向情绪容纳位置进行移动,以便在该情绪表征对象到达该情绪容纳位置之后,按照预设清除方式,对该情绪容纳位置上的该情绪表征对象进行清除处理,以实现情绪宣泄的目的,如此能够辅助用户释放情绪,从而能够辅助用户降低心理压力,进而有利于降低该用户出现心理疾病的可能性。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种人机交互方法及其相关设备。
背景技术
随着人类社会的快速发展,针对人类心理健康的关注程度越来越高。然而,因有些人(例如,儿童等)无法很好地控制自己情绪且无法很好的进行自我排压,使得这些人很难通过自我调节的方式消除自身的一些负面情绪,从而使得这些人很容易积累大量负面情绪,如此导致这些人易出现心理疾病。
发明内容
本申请实施例的主要目的在于提供一种人机交互方法及其相关设备,能够辅助用户降低心理压力,从而有利于降低该用户出现心理疾病的可能性。
本申请实施例提供了一种人机交互方法,所述方法包括:
在获取到用户触发的情绪宣泄请求之后,根据所述用户输入的情绪宣泄内容,确定情绪表征对象;
显示所述情绪表征对象沿着预设路线向情绪容纳位置进行移动;
在所述情绪表征对象到达所述情绪容纳位置之后,按照预设清除方式,对所述情绪容纳位置上的所述情绪表征对象进行清除处理。
在一种可能的实施方式中,所述情绪表征对象的确定过程包括:
从所述情绪宣泄内容中提取所述用户的宣泄主题;
根据所述情绪宣泄内容和所述宣泄主题对应的显示对象描述信息,确定所述情绪表征对象。
在一种可能的实施方式中,所述根据所述情绪宣泄内容和所述宣泄主题对应的显示对象描述信息,确定所述情绪表征对象,包括:
对所述情绪宣泄内容进行情绪分析,得到用户情绪和所述用户情绪的情绪表征数据;
根据所述用户情绪和所述宣泄主题对应的显示对象描述信息,确定所述用户情绪的对象显示形态;
根据所述对象显示形态和所述情绪表征数据,生成所述情绪表征对象。
在一种可能的实施方式中,所述根据所述对象显示形态和所述情绪表征数据,生成所述情绪表征对象,包括:
按照第一组合方式,将所述情绪表征数据与所述对象显示形态进行组合,得到所述情绪表征对象;
或者,
所述根据所述对象显示形态和所述情绪表征数据,生成所述情绪表征对象,包括:
对所述情绪表征数据进行拟态化处理,得到情绪拟态形象;按照第二组合方式,将所述情绪拟态形象与所述对象显示形态进行组合,得到所述情绪表征对象。
在一种可能的实施方式中,所述用户情绪的确定过程,包括:
对所述情绪宣泄内容和所述情绪宣泄内容对应的用户脸部图像进行情绪分析,得到所述用户情绪。
在一种可能的实施方式中,所述情绪宣泄内容包括宣泄语音数据,且所述宣泄主题的确定过程,包括:
对所述宣泄语音数据进行语音识别处理,得到语音识别文本;利用预先构建的主题分析模型,对所述语音识别文本进行宣泄主题分析,得到所述用户的宣泄主题;
或者,
所述情绪宣泄内容包括宣泄文本数据,且所述宣泄主题的确定过程,包括:
利用预先构建的主题分析模型,对所述宣泄文本数据进行宣泄主题分析,得到所述用户的宣泄主题;
或者,
所述情绪宣泄内容包括宣泄视频数据,且所述宣泄主题的确定过程,包括:
从所述宣泄视频数据中提取视频识别文本;利用预先构建的主题分析模型,对所述视频识别文本进行宣泄主题分析,得到所述用户的宣泄主题。
在一种可能的实施方式中,所述方法还包括:
根据所述情绪宣泄内容,确定所述情绪表征对象的移动路线;
所述显示所述情绪表征对象沿着预设路线向情绪容纳位置进行移动,包括:
显示所述情绪表征对象沿着所述移动路线向情绪容纳位置进行移动。
在一种可能的实施方式中,所述情绪宣泄内容包括宣泄语音数据,且所述移动路线的确定过程,包括:
对所述宣泄语音数据进行声线波动分析,得到声线波动趋势图;
根据所述声线波动趋势图,确定所述情绪表征对象的移动路线。
在一种可能的实施方式中,所述方法还包括:
根据所述情绪宣泄内容的输入速度,确定所述情绪表征对象的移动速度;
所述显示所述情绪表征对象沿着预设路线向情绪容纳位置进行移动,包括:
显示所述情绪表征对象以所述移动速度沿着预设路线向情绪容纳位置进行移动。
在一种可能的实施方式中,在所述情绪表征对象到达所述情绪容纳位置之前,所述方法还包括:
响应于所述用户针对所述情绪表征对象触发的第一操作,停止移动所述情绪表征对象。
在一种可能的实施方式中,在所述停止移动所述情绪表征对象之后,所述方法还包括:
响应于所述用户针对所述情绪表征对象触发的第二操作,更新所述情绪表征对象;在达到预设恢复条件时,显示更新后的所述情绪表征对象继续沿着预设路线向情绪容纳位置进行移动;
或者,
在所述停止移动所述情绪表征对象之后,所述方法还包括:
响应于所述用户针对所述情绪表征对象触发的第三操作,删除所述情绪表征对象。
在一种可能的实施方式中,所述方法还包括:
在确定达到预设反馈条件时,显示情绪反馈内容;其中,所述情绪反馈内容是根据所述情绪宣泄内容进行确定的。
在一种可能的实施方式中,所述方法还包括:
在确定达到预设告警条件时,将情绪告警信息发送给所述用户的监护人;其中,所述情绪告警信息是根据所述情绪宣泄内容进行确定的。
在一种可能的实施方式中,所述方法还包括:
在确定达到预设告警条件时,显示告警询问信息;其中,所述告警询问信息用于向所述用户询问是否向所述用户的监护人进行告警;
接收所述用户针对所述告警询问信息的第一反馈结果;
所述将情绪告警信息发送给所述用户的监护人,包括:
在确定所述第一反馈结果满足预设发送条件时,将所述情绪告警信息发送给所述用户的监护人。
在一种可能的实施方式中,所述方法还包括:
在确定所述第一反馈结果不满足预设发送条件时,显示情绪疏导内容;其中,所述情绪疏导内容是根据所述情绪宣泄内容进行确定的。
在一种可能的实施方式中,所述方法还包括:
响应于所述用户触发的宣泄结束请求,显示清理询问信息;其中,所述清理询问信息用于向所述用户询问是否删除所述情绪宣泄内容;
接收所述用户针对所述清理询问信息的第二反馈结果;
在确定所述第二反馈结果满足预设清理条件时,对所述情绪宣泄内容进行删除处理。
在一种可能的实施方式中,所述方法还包括:
在所述情绪容纳位置上显示拟态容器;
所述显示所述情绪表征对象沿着预设路线向情绪容纳位置进行移动,包括:
显示所述情绪表征对象沿着预设路线向所述拟态容器进行移动;
所述在所述情绪表征对象到达所述情绪容纳位置之后,按照预设清除方式,对所述情绪容纳位置上的所述情绪表征对象进行清除处理,包括:
在所述情绪表征对象进入所述拟态容器之后,按照预设清除方式,对所述拟态容器内的所述情绪表征对象进行清除处理。
在一种可能的实施方式中,所述方法还包括:
响应于所述用户针对所述拟态容器触发的第四操作,更新所述预设清除方式。
本申请实施例还提供了一种人机交互装置,包括:
第一确定单元,用于在获取到用户触发的情绪宣泄请求之后,根据所述用户输入的情绪宣泄内容,确定情绪表征对象;
第一显示单元,用于显示所述情绪表征对象沿着预设路线向情绪容纳位置进行移动;
对象清除单元,用于在所述情绪表征对象到达所述情绪容纳位置之后,按照预设清除方式,对所述情绪容纳位置上的所述情绪表征对象进行清除处理。
本申请实施例还提供了一种设备,所述设备包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行本申请实施例提供的人机交互方法的任一实施方式。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行本申请实施例提供的人机交互方法的任一实施方式。
本申请实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行本申请实施例提供的人机交互方法的任一实施方式。
基于上述技术方案,本申请具有以下有益效果:
本申请提供的技术方案中,对于人机交互设备来说,当用户在该人机交互设备上触发情绪宣泄请求之后,该人机交互设备可以先根据该用户输入的情绪宣泄内容(例如,实时输入的宣泄语音数据或者宣泄文本数据等),确定情绪表征对象,以使该情绪表征对象用于承载该情绪宣泄内容所携带的用户情绪;再显示该情绪表征对象沿着预设路线向情绪容纳位置进行移动,以便在该情绪表征对象到达该情绪容纳位置之后,按照预设清除方式,对该情绪容纳位置上的该情绪表征对象进行清除处理,以实现情绪宣泄的目的。可见,本申请提供的技术方案能够辅助用户释放情绪,从而能够辅助用户降低心理压力,进而有利于降低该用户出现心理疾病的可能性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种人机交互方法的流程图;
图2为本申请实施例提供的一种人机交互装置的结构示意图。
具体实施方式
发明人在针对人类心理健康的研究中发现,因有些人(例如,儿童等)无法很好地控制自己情绪且无法很好的进行自我排压,使得这些人很难通过自我调节的方式消除自身的一些负面情绪,从而使得这些人很容易积累大量负面情绪,如此导致这些人易出现心理疾病。可见,为了降低这些人出现心理疾病的可能性,可以向这些人提供一个能够始终保守秘密的倾听者,以使这些人能够向该倾听者自我倾诉心中不想说的话或自己不想说的秘密,以释放情绪,舒缓心理压力。
基于上述发现可知,为了解决背景技术部分的技术问题,本申请实施例提供了一种人机交互方法,该方法包括:对于人机交互设备来说,在获取到用户触发的情绪宣泄请求之后,先根据该用户输入的情绪宣泄内容,确定情绪表征对象,以使该情绪表征对象用于承载该情绪宣泄内容所携带的用户情绪;再显示该情绪表征对象沿着预设路线向情绪容纳位置进行移动,以便在该情绪表征对象到达该情绪容纳位置之后,按照预设清除方式,对该情绪容纳位置上的该情绪表征对象进行清除处理,以实现情绪宣泄的目的,如此能够辅助用户释放情绪,从而能够辅助用户降低心理压力,进而有利于降低该用户出现心理疾病的可能性。
需要说明的是,本申请实施例不限定“人机交互设备”的实施方式,例如,其可以是任一种智能机器人,也可以是任一种能够进行人机交互的终端设备(例如,智能手机、计算机、个人数字助理(Personal Digital Assitant,PDA)、或者平板电脑等)。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
方法实施例一
参见图1,该图为本申请实施例提供的一种人机交互方法的流程图。
本申请实施例提供的应用于人机交互设备的人机交互方法,包括S1-S3:
S1:在获取到用户触发的情绪宣泄请求之后,根据该用户输入的情绪宣泄内容,确定情绪表征对象。
其中,“用户”是指人机交互设备的使用者。
“情绪宣泄请求”用于请求针对用户开始执行情绪宣泄辅助过程;而且该“情绪宣泄请求”是由用户在人机交互设备上触发的。另外,本申请实施例不限定“情绪宣泄请求”的触发方式,例如,“情绪宣泄请求”可以通过在人机交互设备上触发打开情绪宣泄系统指令的方式进行触发。又如,“情绪宣泄请求”也可以通过在人机交互设备上点击宣泄开始按钮的方式进行触发。
“情绪宣泄内容”是指由用户输入的用于携带用户情绪的多媒体数据;而且本申请实施例不限定“情绪宣泄内容”,例如,其具体可以包括宣泄语音数据、宣泄文本数据、以及宣泄视频数据中的至少一个。其中,“宣泄语音数据”是指用户借助人机交互设备上装设的拾音器进行录入的情绪宣泄语音。“宣泄文本数据”是指用户借助人机交互设备上装设的文字录入设备(如,键盘)进行录入的情绪宣泄文字。“宣泄视频数据”是指用户借助人机交互设备上装设的视频录制设备(例如,摄像头+拾音器等)进行录入的情绪宣泄视频。
另外,为了提高人机交互的实时性,上述“情绪宣泄内容”可以包括实时录入的宣泄语音数据、实时录入的宣泄文本数据、以及实时录入的宣泄视频数据中的至少一个。
“情绪表征对象”用于承载用户在输入上述“情绪宣泄内容”时所具有的情绪状态;而且本申请实施例不限定“情绪表征对象”,例如,其具体可以为携带有情绪描述数据的拟态物体(例如,斑驳的黑板、残破的书本、破损的教鞭、残破的讲台等)。其中,“情绪描述数据”用于描述用户在输入上述“情绪宣泄内容”时所具有的情绪状态;而且本申请实施例不限定“情绪描述数据”,例如,其可以是类似于“伤心”、“委屈”等文字描述数据;也可以是类似于正在哭泣的拟态人物、具有委屈表情的拟态人物等情绪拟态形象;也可以是被拟人化处理后的文字描述数据(例如,利用被拟人化处理后的伤心二字来表达“伤心”这一种情绪状态)。需要说明的是,上述“拟人化处理后的伤心”具有类似于人的一些特征(例如,具有头部、手、脚、躯干等部分);而且用户还能够从该“拟人化处理后的伤心”中识别出“伤心”这两个字。
另外,本申请实施例不限定“情绪表征对象”的个数,例如,若上述“情绪宣泄内容”携带的字符信息比较少,则上述“情绪宣泄内容”很有可能主要表达一种用户情绪,故该“情绪表征对象”的个数可能会是1;若上述“情绪宣泄内容”携带的字符信息比较多,则上述“情绪宣泄内容”很有可能会表达出多种用户情绪,故该“情绪表征对象”的个数可能会为N。其中,N为正整数,N表示上述“情绪宣泄内容”表达的用户情绪个数。需要说明的是,上述“用户情绪”的相关内容请参见下文步骤21中“用户情绪”的相关内容
此外,本申请实施例也不限定“情绪表征对象”的确定过程,例如,其具体可以包括步骤11-步骤12:
步骤11:从情绪宣泄内容中提取用户的宣泄主题。
其中,“宣泄主题”用于表示用户借助上述“情绪宣泄内容”所描述的事项(例如,吐槽某个人、责怪某个人、抱怨某个人、怀念某个人、喜欢某个人、忏悔某件事等);而且本申请实施例不限定“宣泄主题”,例如,其具体可以包括某个人(如,老师、家长、朋友、同学等)、某件事、某个工作、以及某个实物(例如,黑板、课桌等)中的至少一个。
另外,本申请实施例不限定“宣泄主题”的提取过程(也就是,步骤11的实施方式),为了便于理解,下面结合四个示例进行说明。
示例1,当上述“情绪宣泄内容”包括宣泄语音数据时,步骤11具体可以包括:先对该宣泄语音数据进行语音识别处理,得到语音识别文本;再利用预先构建的主题分析模型,对该语音识别文本进行宣泄主题分析,得到用户的宣泄主题。
其中,“主题分析模型”用于针对该主题分析模型的输入数据进行宣泄主题分析;而且该“主题分析模型”可以预先根据样本文本数据和该样本文本数据的实际宣泄主题进行构建。需要说明的是,本申请实施例不限定“主题分析模型”,例如,可以是任一种机器学习模型。
示例2,当上述“情绪宣泄内容”包括宣泄文本数据时,步骤11具体可以包括:利用预先构建的主题分析模型,对该宣泄文本数据进行宣泄主题分析,得到用户的宣泄主题。
示例3,当上述“情绪宣泄内容”包括宣泄视频数据时,步骤11具体可以包括:从该宣泄视频数据中提取视频识别文本;利用预先构建的主题分析模型,对该视频识别文本进行宣泄主题分析,得到用户的宣泄主题。
其中,“视频识别文本”用于表示上述“宣泄视频数据”携带的字符信息;而且本申请实施该“视频识别文本”的提取过程,例如,其具体可以包括:先对该宣泄视频数据中音频数据进行语音识别处理,得到音频文本,并对该宣泄视频数据中图像数据进行图像文本识别处理,得到图像文本;再将该音频文本与该图像文本进行集合处理,得到视频识别文本,以使该视频识别文本能够准确地表示出该宣泄视频数据携带的字符信息。
示例4,当上述“情绪宣泄内容”包括宣泄语音数据、宣泄文本数据、以及宣泄视频数据时,步骤11具体可以包括:先对该宣泄语音数据进行语音识别处理,得到语音识别文本,并从该宣泄视频数据中提取视频识别文本;再将语音识别文本、视频识别文本、以及宣泄文本数据进行集合处理,得到待处理文本;最后,利用预先构建的主题分析模型,对该待处理文本进行宣泄主题分析,得到用户的宣泄主题。
基于上述步骤11的相关内容可知,在获取到情绪宣泄内容之后,可以针对该情绪宣泄内容携带的字符信息进行宣泄主题分析,得到用户的宣泄主题,以使该宣泄主题能够准确地表示出该情绪宣泄内容所围绕的对象(例如,人、物、事情等)。
步骤12:根据情绪宣泄内容和宣泄主题对应的显示对象描述信息,确定情绪表征对象。
其中,“宣泄主题对应的显示对象描述信息”用于描述在该宣泄主题下使用的情绪表征对象所共有的特征(例如,均属于教学类型等);而且本申请实施例不限定“宣泄主题对应的显示对象描述信息”,例如,若“宣泄主题”为老师,则该“宣泄主题对应的显示对象描述信息”可以为:属于教学类型的拟态物体(例如,斑驳的黑板、残破的书本、破损的教鞭、残破的讲台等)。
另外,本申请实施例也不限定“宣泄主题对应的显示对象描述信息”的确定过程,例如,其具体可以包括:从预先构建的第一映射关系中查询该宣泄主题对应的显示对象描述信息。其中,“第一映射关系”用于记录各个宣泄主题对应的显示对象描述信息。
此外,本申请实施例不限定步骤12的实施方式,例如,其具体可以包括步骤21-步骤23:
步骤21:对情绪宣泄内容进行情绪分析,得到用户情绪和该用户情绪的情绪表征数据。
其中,“情绪分析”用于针对一个多媒体数据(例如,语音数据、文本数据、或者视频数据等)进行情绪提取处理;而且本申请实施例不限定“情绪分析”的实施方式,例如,可以采用现有的或者未来出现的任一种能够针对一个多媒体数据(例如,语音数据、文本数据、或者视频数据等)进行情绪提取处理的方法进行实施。
“用户情绪”是指用户在输入上述“情绪宣泄内容”时所具有的情绪状态;而且本申请实施例不限定“用户情绪”,例如,其具体可以包括喜欢、爱、迷恋、不喜欢、嫌弃、讨厌、反感、厌恶、憎恨、怨恨、高兴、喜悦、愉悦、快乐、兴奋、激动、幸福、满足、生气、气愤、愤怒、恼怒、难过、悲伤、哀伤、悲痛、害怕、胆怯、畏惧、恐惧、惶恐、紧张、尴尬、难堪、不耐烦、厌烦、遗憾、抱歉、惋惜、懊恼、后悔、悔恨、惊讶、诧异、吃惊、羞涩、害羞、害臊、羞耻、耻辱、内疚、愧疚、惭愧、怜悯、以及同情等中的至少一个情绪状态。
另外,本申请实施例不限定“用户情绪”的确定过程,例如,其具体可以为:利用预先构建的情绪分析模型,对上述“情绪宣泄内容”进行情绪分析,得到用户情绪。其中,“情绪分析模型”用于针对该情绪分析模型的输入数据进行情绪分析;而且该“情绪分析”可以预先根据样本内容和该样本内容的实际情绪进行构建。
需要说明的是,上述“样本内容”与上述“情绪宣泄内容”的数据类型相同。例如,若上述“情绪宣泄内容”的数据类型为音频数据,则该“样本内容”也是音频数据。另外,上述“情绪分析模型”是一种机器学习模型。
此外,为了进一步提高用户情绪的准确性,还可以参考用户在输入情绪宣泄内容时所具有的面部表情,确定用户情绪。基于此,本申请实施例还提供了确定“用户情绪”的另一种可能的实施方式,其具体可以包括:对情绪宣泄内容和该情绪宣泄内容对应的用户脸部图像进行情绪分析,得到用户情绪。
其中,“情绪宣泄内容对应的用户脸部图像”用于表示用户在输入情绪宣泄内容时所具有的面部表情;而且本申请实施例不限定上述“情绪宣泄内容对应的用户脸部图像”的获取方式,例如,当用户在人机交互设备上输入上述“情绪宣泄内容”时,可以由该人机交互设备中配置的摄像头实时地采集该用户的脸部图像数据,并将该脸部图像数据确定为该“情绪宣泄内容”对应的用户脸部图像。
需要说明的是,本申请实施例不限定上述步骤“对情绪宣泄内容和该情绪宣泄内容对应的用户脸部图像进行情绪分析,得到用户情绪”的实现方式,例如,可以借助预先构建的映射关系进行实现,也可以借助预先训练好的机器学习模型进行实现。
上述“用户情绪的情绪表征数据”用于表征该用户情绪;而且本申请实施例不限定该“用户情绪的情绪表征数据”,例如,其具体可以为上述“情绪宣泄内容”携带的全部字符信息,也可以为上述“情绪宣泄内容”携带的部分字符信息(例如,关键字等)。
基于上述步骤21的相关内容可知,在获取到上述“情绪宣泄内容”之后,可以针对该“情绪宣泄内容”进行情绪分析,得到用户情绪和该用户情绪的情绪表征数据。例如,当上述“情绪宣泄内容”携带有M句话,而且每句话均用于表示该用户的一种情绪状态时,可以针对该“情绪宣泄内容”携带的第m句话进行情绪分析,得到第m种用户情绪,并将该第m句话的全部内容或者部分内容(例如,关键字),确定为该第m种用户情绪的情绪表征数据。其中,m为正整数,m≤M,M为正整数。
步骤22:根据用户情绪和宣泄主题对应的显示对象描述信息,确定该用户情绪的对象显示形态。
其中,“用户情绪的对象显示形态”是指适用于针对该用户情绪进行承载表达的情绪表征对象所具有的显示形象(例如,形状、颜色等)。
另外,本申请实施例不限定步骤22的实施方式,例如,其具体可以包括步骤221-步骤223:
步骤221:从第二映射关系查找用户情绪对应的对象显示参数,得到待使用显示参数。
其中,“待使用显示参数”是指适用于针对该用户情绪进行承载表达的情绪表征对象所具有的参数信息;而且本申请实施例不限定“待使用显示参数”,例如,其可以包括:颜色、破损范围、破损形状、体积、物体装饰(例如,牢笼等)等
步骤222:根据宣泄主题对应的显示对象描述信息,确定待使用显示对象。
作为示例,若上述“宣泄主题对应的显示对象描述信息”为属于教学类型的拟态物体,则步骤222具体可以为:从属于教学类型的所有拟态物体中随机选择一个拟态物体,确定为待使用显示对象。
步骤223:利用待使用显示参数,对待使用显示对象进行显示参数更新,得到用户情绪的对象显示形态。
本申请实施例中,在获取到待使用显示参数以及待使用显示对象之后,可以利用该待使用显示参数,配置该待使用显示对象,以使该待使用显示对象后续能够按照该待使用显示参数进行显示。
基于上述步骤22的相关内容可知,在获取到用户情绪之后,可以参考该用户情绪以及宣泄主题对应的显示对象描述信息,确定该用户情绪的对象显示形态,以使该对象显示形态能够更适用于针对该用户情绪进行表达,如此有利于提高用户情绪的表达效果。
步骤23:根据对象显示形态和情绪表征数据,生成情绪表征对象。
本申请实施例中,在获取到对象显示形态和情绪表征数据之后,可以按照第一组合方式,将情绪表征数据与对象显示形态进行组合,得到情绪表征对象,以使该情绪表征对象能够承载用户在输入上述“情绪宣泄内容”时所具有的情绪状态。其中,“第一组合方式”可以预先设定,例如,当上述“对象显示形态”为斑驳的黑板时,可以将该情绪表征数据以粉笔字的形态展现在该斑驳的黑板上。又如,当上述“对象显示形态”为斑驳的黑板,且该“斑驳的黑板”上装饰有牢笼时,可以将该情绪表征数据静态地显示在该“斑驳的黑板”上所装饰的牢笼内。
另外,为了进一步提高用户情绪的表达效果,可以借助拟态人物来表达上述“情绪表征数据”。基于此,本申请实施例还提供了步骤23的另一种可能的实施方式,其具体可以包括:对情绪表征数据进行拟态化处理,得到情绪拟态形象;按照第二组合方式,将该情绪拟态形象与对象显示形态进行组合,得到情绪表征对象。
其中,“拟态化处理”用于将一个情绪表征数据模拟成一个拟态人物,以使该拟态人物能够表达出该情绪表征数据所携带的情绪状态。
“情绪拟态形象”是指用于表达上述“情绪表征数据”的拟态人物;而且本申请实施例不限定该“情绪拟态形象”,例如,其可以是大哭的拟态玩偶、崩溃的拟态玩偶等。
“第二组合方式”可以预先设定,例如,当上述“对象显示形态”为斑驳的黑板,且该“斑驳的黑板”上装饰有牢笼时,可以将上述“情绪拟态形象”动态地显示在该“斑驳的黑板”上所装饰的牢笼内。
基于上述步骤21至23的相关内容可知,在获取到情绪宣泄内容和宣泄主题对应的显示对象描述信息之后,可以参考两者生成情绪表征对象,以使该情绪表征对象能够承载用户在输入该情绪宣泄内容时所具有的情绪状态。
基于上述S1的相关内容可知,对于一个用户来说,当该用户想要借助人机交互设备进行情绪宣泄时,该用户可以先在该人机交互设备上触发情绪宣泄请求,以使该人机交互设备能够实时采集该用户输入的情绪宣泄内容(例如,宣泄语音数据等),并实时地针对该情绪宣泄内容生成情绪表征对象,以使该情绪表征对象能够承载用户在输入该情绪宣泄内容时所具有的情绪状态,以便后续能够借助针对该情绪表征对象的处理过程,来释放用户情绪。
S2:显示情绪表征对象沿着预设路线向情绪容纳位置进行移动。
其中,“预设路线”是指预先设定的通往上述“情绪容纳位置”的移动路线。
“情绪容纳位置”是指预先设定的用于收集并处理用户情绪的位置;而且本申请实施例不限定“情绪容纳位置”的表示方式,例如,可以借助拟态容器形象(例如,树洞)进行表示。
基于上述S2的相关内容可知,对于人机交互设备来说,在获取到上述“情绪表征对象”之后,可以直接显示该“情绪表征对象”,并动态地显示该“情绪表征对象”沿着预设路线向情绪容纳位置进行移动,以使该情绪容纳位置能够针对该“情绪表征对象”所承载的用户情绪进行收集,以便后续可以在该情绪容纳位置上针对该“情绪表征对象”所承载的用户情绪进行处理。
S3:在情绪表征对象到达情绪容纳位置之后,按照预设清除方式,对该情绪容纳位置上的情绪表征对象进行清除处理。
其中,“预设清除方式”可以预先设定,例如,其具体可以为吞噬方式、粉碎方式、砸碎方式等。
可见,对于人机交互设备来说,在确定情绪表征对象移动至情绪容纳位置之后,可以按照预设清除方式,对该情绪容纳位置上的情绪表征对象进行清除处理,以使用户能够在该情绪表征对象被清理的瞬间感受到负面情绪(也就是,有上述“情绪表征对象”承载的用户情绪)被释放的快感,如此有利于辅助用户降低心理压力,从而有利于降低该用户出现心理疾病的可能性。
基于上述S1至S3的相关内容可知,对于本申请实施例提供的应用于人机交互设备的人机交互方法来说,当用户在该人机交互设备上触发情绪宣泄请求之后,该人机交互设备可以先根据该用户输入的情绪宣泄内容(例如,实时输入的宣泄语音数据或者宣泄文本数据等),确定情绪表征对象,以使该情绪表征对象用于承载该情绪宣泄内容所携带的用户情绪;再显示该情绪表征对象沿着预设路线向情绪容纳位置进行移动,以便在该情绪表征对象到达该情绪容纳位置之后,按照预设清除方式,对该情绪容纳位置上的该情绪表征对象进行清除处理,以实现情绪宣泄的目的。可见,本申请提供的技术方案能够辅助用户释放情绪,从而能够辅助用户降低心理压力,进而有利于降低该用户出现心理疾病的可能性。
方法实施例二
实际上,为了提高用户体验,可以利用拟态容器(例如,树洞)模拟上述“情绪容纳位置”,以使用户能够体验到其负面情绪被该拟态容器接收并处理掉的快感,基于此,本申请实施例提供的人机交互方法的另一种实施方式,在该实施方式中,该人机交互方法除了包括上述S1以外,可以还包括S4-S6:
S4:在上述“情绪容纳位置”上显示拟态容器。
其中,“拟态容器”用于模拟用户情绪的收集设备;而且该“拟态容器”应该显示在上述“情绪容纳位置”,以实现在上述“情绪容纳位置”上收集用户情绪的效果。
另外,本申请实施例不限定上述“拟态容器”,例如,其可以是树洞,也可以是地洞,还可以是密码箱等。
需要说明的是,本申请实施例不限定S4的执行时间,例如,可以在人机交互设备接收到上述“情绪宣泄请求”之后立即执行,也可以在该人机交互设备获取到上述“情绪表征对象”之后立即执行。
S5:显示情绪表征对象沿着预设路线向拟态容器进行移动。
在本申请实施例中,对于人机交互设备来说,在获取到上述“情绪表征对象”之后,可以直接显示该“情绪表征对象”,并动态地显示该“情绪表征对象”沿着预设路线向拟态容器进行移动,以使该拟态容器能够针对该“情绪表征对象”所承载的用户情绪进行收集,以便后续可以在该拟态容器内针对该“情绪表征对象”所承载的用户情绪进行处理。
需要说明的是,本申请实施例不限定S5的实施方式,例如,其可以采用本申请实施例提供的以情绪容纳位置作为移动终点的移动过程的任一种实施方式(例如,S2、S9、S11等)进行实施,只需将本申请实施例提供的以情绪容纳位置作为移动终点的移动过程的任一种实施方式中“情绪容纳位置”替换为“拟态容器”即可。
S6:在情绪表征对象进入拟态容器之后,按照预设清除方式,对拟态容器内的情绪表征对象进行清除处理。
在本申请实施例中,对于人机交互设备来说,在确定情绪表征对象移动至拟态容器之后,可以按照预设清除方式,对该拟态容器内的情绪表征对象进行清除处理,以使用户能够在该情绪表征对象被清理的瞬间能够感受到负面情绪(也就是,有上述“情绪表征对象”承载的用户情绪)被释放的快感,如此有利于辅助用户降低心理压力,从而有利于降低该用户出现心理疾病的可能性。
需要说明的是,本申请实施例不限定S6的实施方式,例如,其可以采用本申请实施例提供的以情绪容纳位置作为清除地点的清除过程的任一种实施方式(例如,S3等)进行实施,只需将本申请实施例提供的以情绪容纳位置作为清除地点的清除过程的任一种实施方式中“情绪容纳位置”替换为“拟态容器”即可。
基于上述S4至S6的相关内容可知,对于人机交互设备来说,可以借助拟态容器标注显示上述“情绪容纳位置”,以使用户能够体验到其负面情绪被该拟态容器接收并处理掉的快感,如此有利于辅助用户降低心理压力,从而有利于降低该用户出现心理疾病的可能性。
另外,为了提高用户体验,用户还可以自主选择上述拟态容器针对情绪表征对象所使用的清除方式。基于此,本申请实施例还提供了人机交互方法的另一种实施方式,在该实施方式中,该人机交互方法除了包括上述S1、S4-S6以外,可以还包括S7:
S7:响应于用户针对拟态容器触发的第四操作,更新所述预设清除方式。
其中,“第四操作”用于触发上述“预设清除方式”的更新流程;而且本申请实施例不限定该“第四操作”,例如,当人机交互设备上显示有多个候选清除按钮时,该“第四操作”具体可以包括:用户针对一个候选清除按钮的点击操作。
基于上述S7的相关内容可知,对于人机交互设备来说,可以借助用户的清除流程选择操作,更新上述“预设清除方式”,以使更新后的预设清除方式更符合用户的清除需求,以便上述“拟态容器”能够按照更新后的预设清除方式针对其收集到的情绪表征对象进行清除处理,如此有利于提高该用户的情绪释放快感,从而有利于辅助用户降低心理压力,进而有利于降低该用户出现心理疾病的可能性。
方法实施例三
为了提高用户体验,本申请实施例提供的人机交互方法的另一种实施方式,在该实施方式中,该人机交互方法除了包括上述全部或部分步骤以外,可以还包括S8-S9:
S8:根据上述“情绪宣泄内容”,确定情绪表征对象的移动路线。
其中,“情绪表征对象的移动路线”是指在该情绪表征对象向上述“情绪容纳位置”进行移动时所需依据的移动轨迹。
另外,本申请实施例不限定S8的实施方式,例如,其具体可以包括:先对上述“情绪宣泄内容”进行情绪分析,得到用户情绪;再从预先构建的第三映射关系中查询该用户情绪对应的移动路线,确定为该情绪表征对象的移动路线。其中,“第三映射关系”用于记录各种情绪状态对应的移动路线。
此外,为了进一步提高用户体验,本申请实施例还提供了S8的另一种可能的实施方式,在该实施方式中,当上述“情绪宣泄内容”包括宣泄语音数据时,S8具体可以包括S81-S82:
S81:对宣泄语音数据进行声线波动分析,得到声线波动趋势图。
其中,“声线波动趋势图”用于描述上述“宣泄语音数据”所携带的声线波动信息,以使该“声线波动趋势图”能够表示出用户输入上述“宣泄语音数据”时所呈现的情绪波动状态。
另外,本申请实施例不限定上述“声线波动分析”的实施方式,例如,可以采用现有训练好的机器学习模型进行实施。
S82:根据声线波动趋势图,确定情绪表征对象的移动路线。
本申请实施例中,在获取到声线波动趋势图之后,可以根据该声线波动趋势图,确定情绪表征对象的移动路线(例如,可以直接将该声线波动趋势图,确定为该情绪表征对象的移动路线。又如,可以从预先构建的第四映射关系中查询该声线波动趋势图对应的移动路线,确定为该情绪表征对象的移动路线),以使该移动路线更适用于该情绪表征对象的移动过程,如此有利于提高路线确定的灵活性。
基于上述S8的相关内容可知,在获取到用户输入的情绪宣泄内容之后,可以参考该情绪宣泄内容,分别确定情绪表征对象和该情绪表征对象的移动路线,以便后续该情绪表征对象能够沿着该移动路线移动至上述“情绪容纳位置”。
S9:显示情绪表征对象沿着该情绪表征对象的移动路线向情绪容纳位置进行移动。
本申请实施例中,对于人机交互设备来说,在获取到情绪表征对象及其对应的移动路线之后,可以直接显示该情绪表征对象,并动态地显示该情绪表征对象沿着该移动路线向情绪容纳位置进行移动,以使该情绪容纳位置能够针对该情绪表征对象所承载的用户情绪进行收集,以便后续可以在该情绪容纳位置上针对该情绪表征对象所承载的用户情绪进行处理。
基于上述S8至S9的相关内容可知,对于人机交互设备来说,在获取到用户输入的情绪宣泄内容之后,可以先参考该情绪宣泄内容,分别确定情绪表征对象和该情绪表征对象的移动路线;再动态地显示该情绪表征对象沿着该移动路线向情绪容纳位置进行移动。其中,因上述“移动路线”是根据上述“情绪宣泄内容”进行确定的,使得该“移动路线”更适用于上述“情绪表征对象”的移动过程,如此有利于提高人机交互的灵活性,从而有利于提高用户体验。
方法实施例四
为了提高用户体验,本申请实施例提供的人机交互方法的另一种实施方式,在该实施方式中,该人机交互方法除了包括上述全部或部分步骤以外,可以还包括S10-S11:
S10:根据情绪宣泄内容的输入速度,确定情绪表征对象的移动速度。
其中,“情绪宣泄内容的输入速度”是指用户在输入该情绪宣泄内容时所达到的信息录入平均速度。
另外,本申请实施例不限定该“情绪宣泄内容的输入速度”的确定过程,例如,其具体可以为:将该情绪宣泄内容的信息量与该情绪宣泄内容的录入时长之间的比值,确定为该情绪宣泄内容的输入速度。其中,“情绪宣泄内容的信息量”用于表示该情绪宣泄内容携带的信息大小;而且本申请实施例不限定该“情绪宣泄内容的信息量”,例如,其可以是指该情绪宣泄内容携带的字符个数。“情绪宣泄内容的录入时长”是指用户在输入该情绪宣泄内容时所消耗的时长。
上述“情绪表征对象的移动速度”是指上述“情绪表征对象”在移动过程中所具有的速度,以使该“情绪表征对象的移动速度”能够表示出用户在输入该情绪宣泄内容时所呈现的急切程度。
另外,本申请实施例不限定S10的实施方式,例如,其具体可以包括:将情绪宣泄内容的输入速度,确定为情绪表征对象的移动速度。
S11:显示情绪表征对象以上述“移动速度”沿着预设路线向情绪容纳位置进行移动。
本申请实施例中,对于人机交互设备来说,在获取到上述“情绪表征对象”及其对应的移动速度之后,可以直接显示该“情绪表征对象”,并动态地显示该“情绪表征对象”以该移动速度朝向情绪容纳位置进行移动,以使该情绪容纳位置能够针对该“情绪表征对象”所承载的用户情绪进行收集,以便后续可以在该情绪容纳位置上针对该“情绪表征对象”所承载的用户情绪进行处理。
基于上述S10至S11的相关内容可知,对于人机交互设备来说,在获取到用户输入的情绪宣泄内容之后,可以先参考该情绪宣泄内容确定情绪表征对象,并根据该情绪宣泄内容的输入速度,确定该情绪表征对象的移动速度,以使该移动速度能够表示出用户在输入该情绪宣泄内容时所呈现的急切程度;再动态地显示该情绪表征对象以该移动速度朝向情绪容纳位置进行移动,如此能够借助该移动速度模拟出用户情绪的剧烈强度,如此有利于提高用户体验。
方法实施例五
实际上,用户有时想修改(或者收回)其已输入的内容,故为了实现上述需求,本申请实施例提供的人机交互方法的另一种实施方式,在该实施方式中,该人机交互方法除了包括上述全部或部分步骤以外,可以还包括S12:
S12:在上述“情绪表征对象”到达情绪容纳位置之前,响应于用户针对该“情绪表征对象”触发的第一操作,停止移动该“情绪表征对象”。
其中,“第一操作”可以预先设定;而且本申请实施例不限定该“第一操作”,例如,其具体可以为点击操作、和/或,将上述“情绪表征对象”拖拽至预先设定的对象编辑区。“对象编辑区”可以用于针对上述“情绪表征对象”进行编辑处理(例如,更新参数处理、删除处理等)。
基于上述S12的相关内容可知,对于人机交互设备来说,当该人机交互设备显示有一个情绪表征对象正在向情绪容纳位置进行移动时,若用户想要针对该情绪表征对象进行一些编辑处理操作,则该用户可以直接针对该情绪表征对象触发第一操作,以使该人机交互设备能够暂停该情绪表征对象的移动过程,从而使得用户能够针对处于静止状态的情绪表征对象进行编辑处理(例如,下文S13-S14所示的处理过程,或者S15所示的处理过程)。
基于上述S12,本申请实施例还提供了人机交互方法的另一种实施方式,在该实施方式中,该人机交互方法除了包括上述全部或部分步骤以外,可以还包括S13-S14:
S13:在停止移动情绪表征对象之后,响应于用户针对该情绪表征对象触发的第二操作,更新情绪表征对象。
其中,“第二操作”用于触发针对上述“情绪表征对象”的更新流程,而且本申请实施例不限定“第二操作”,例如,其包括颜色选择操作、形状选择操作、……。
S14:在达到预设恢复条件时,显示更新后的情绪表征对象继续沿着预设路线向情绪容纳位置进行移动。
其中,“预设恢复条件”可以预先设定,例如,其具体可以为用户触发第五操作;而且该第五操作可以预先设定,例如,点击更新完成按钮。
基于上述S13至S14的相关内容可知,对于人机交互设备来说,当控制一个情绪表征对象处于静止状态之后,用户可以针对该情绪表征对象进行编辑更新处理,以便在编辑更新处理结束之后,重新控制更新后的情绪表征对象继续沿着预设路线向情绪容纳位置进行移动。
基于上述S12,本申请实施例还提供了人机交互方法的另一种实施方式,在该实施方式中,该人机交互方法除了包括上述全部或部分步骤以外,可以还包括S15:
S15:在停止移动情绪表征对象之后,响应于用户针对该情绪表征对象触发的第三操作,删除该情绪表征对象。
其中,“第三操作”可以预先设定;而且本申请实施例不限定该“第三操作”,例如,其具体可以为点击删除选项的操作,或者将该情绪表征对象拖拽至垃圾箱控件的操作。其中,“垃圾箱控件”用于收集被用户删除的东西。
基于上述S15的相关内容可知,对于人机交互设备来说,当控制一个情绪表征对象处于静止状态之后,用户可以针对该情绪表征对象进行删除处理,以实现用户收回其已输入内容的效果。
方法实施例六
为了提高用户体验,人机交互设备可以针对用户的倾诉进行反馈,故为了实现上述需求,本申请实施例提供的人机交互方法的另一种实施方式,在该实施方式中,该人机交互方法除了包括上述全部或部分步骤以外,可以还包括S16:
S16:在确定达到预设反馈条件时,显示情绪反馈内容。
其中,“预设反馈条件”可以预先设定;而且本申请实施例不限定该“预设反馈条件”,例如,其具体可以为:上述“情绪反馈内容”所携带的用户情绪属于预先设定的需要进行反馈的情绪状态。
“情绪反馈内容”用于针对上述“情绪宣泄内容”进行反馈,以使该“情绪反馈内容”能够达到纾解用户情绪(尤其是,上述“情绪宣泄内容”所携带的用户情绪)的效果。
另外,本申请实施例不限定“情绪反馈内容”,例如,其可以是具有安慰、或启发、或批评、或建议功能的内容。例如,当上述“情绪宣泄内容”用于讲述小明无辜受到老师批评的事情时,该“情绪反馈内容”可以是类似于“小明是对的,妈妈能明白”的安慰内容。
此外,“情绪反馈内容”可以根据上述“情绪宣泄内容”进行确定;而且本申请实施例不限定该“情绪反馈内容”的确定过程,例如,其具体可以包括步骤31-步骤34:
步骤31:对情绪宣泄内容进行情绪分析,得到用户情绪。
需要说明的是,步骤31的相关内容请参见上文步骤21中用户情绪的相关内容。
步骤32:从情绪宣泄内容中提取用户的宣泄主题。
需要说明的是,步骤32的相关内容请参见上文步骤11的相关内容。
步骤33:根据情绪宣泄内容、用户情绪和宣泄主题,生成情绪反馈内容。
需要说明的是,本申请实施例不限定步骤33的实施方式,例如,可以将情绪宣泄内容、用户情绪和宣泄主题输入预先构建的反馈内容生成模型,得到该反馈内容生成模型输出的情绪反馈内容。
上述“反馈内容生成模型”用于针对该反馈内容生成模型的输入数据进行情绪反馈处理;而且该“反馈内容生成模型”可以根据样本宣泄内容、该样本宣泄内容携带的实际情绪、该样本宣泄内容的宣泄主题、以及该样本宣泄内容的实际情绪反馈内容进行构建。
基于上述步骤31至步骤34的相关内容可知,在获取到用户输入的情绪宣泄内容之后,可以参考该情绪宣泄内容、该情绪宣泄内容携带的用户情绪、以及该情绪宣泄内容的宣泄主题,确定针对该情绪宣泄内容的情绪反馈内容,以使该情绪反馈内容能够达到纾解用户情绪(尤其是,上述“情绪宣泄内容”所携带的用户情绪)的效果。
基于上述S16的相关内容可知,对于人机交互设备来说,在获取到用户输入的情绪宣泄内容之后,可以先参考该情绪宣泄内容,生成情绪反馈内容;再将该情绪反馈内容显示给用户,以使该情绪反馈内容能够达到纾解用户情绪的效果。
方法实施例七
为了提高用户体验,人机交互设备可以针对用户的倾诉进行危险告警,故为了实现上述需求,本申请实施例提供的人机交互方法的另一种实施方式,在该实施方式中,该人机交互方法除了包括上述全部或部分步骤以外,可以还包括S17:
S17:在确定达到预设告警条件时,将情绪告警信息发送给用户的监护人。
其中,上述“预设告警条件”可以预先设定;而且本申请实施例不限定该“预设告警条件”,例如,其具体可以为:上述“情绪宣泄内容”中存在预设危险词(例如,离家出走等)。又如,“预设告警条件”具体可以为:上述“情绪宣泄内容”中预设危险词的出现次数达到预设次数阈值。
上述“情绪告警信息”用于向用户的监护人告知该用户可能会出现的危险行为(例如,离家出走等),以使该用户的监护人能够针对该危险行为及时地采取制止行动。
另外,上述“情绪告警信息”可以根据情绪宣泄内容进行确定的;而且本申请实施例不限定该“情绪告警信息”的确定过程,例如,其具体可以包括:先从上述“情绪宣泄内容”中提取预设危险词;再根据该预设危险词,生成情绪告警信息。
此外,本申请实施例不限定上述“情绪告警信息”的发送方式,例如,可以通过短信发送的方式、邮件发送的方式、或者拨打电话的方式等。
基于上述S17的相关内容可知,对于人机交互设备来说,在获取到用户输入的情绪宣泄内容之后,可以判断该情绪宣泄内容是否达到预设告警条件,若达到预设告警条件,则可以确定该用户可能会出现危险行为,故为了保护该用户的安全,可以借助情绪告警信息通知该用户的监护人,以使该监护人能够针对该危险行为及时地采取制止行动。
另外,为了进一步提高用户体验,本申请实施例还提供的人机交互方法的另一种实施方式,在该实施方式中,该人机交互方法除了包括上述全部或部分步骤以外,可以还包括S18-S21:
S18:在确定达到预设告警条件时,显示告警询问信息。
其中,“告警询问信息”用于向用户询问是否向该用户的监护人进行告警。
S19:接收用户针对告警询问信息的第一反馈结果。
其中,“第一反馈结果”是指用户针对上述“告警询问信息”的反馈结果,以使该“第一反馈结果”用于表示该用户是否同意人机交互设备向其监护人进行告警。
S20:判断第一反馈结果是否满足预设发送条件,若是,则将情绪告警信息发送给用户的监护人(也就是,上文S17);若否,则执行S21。
其中,“预设发送条件”可以预先设定;而且本申请实施例不限定该“预设发送条件”,例如,其具体可以为:上述“第一反馈结果”表示同意人机交互设备向其监护人进行告警。
可见,对于人机交互设备来说,在获取到第一反馈结果之后,可以先判断该第一反馈结果是否满足预设发送条件,若满足,则表示该用户同意人机交互设备向其监护人进行告警,故人机交互设备可以直接将情绪告警信息发送给该用户的监护人,以使该监护人能够借助该情绪告警信息获知该用户可能会出现的危险行为,从而使得该监护人能够针对该危险行为及时地采取制止行动;若不满足,则表示该用户不同意人机交互设备向其监护人进行告警,故为了保护该用户的隐私,该人机交互设备不会向其监护人进行告警,且该人机交互设备可以采用情绪疏导的方式来尽可能地降低该用户出现危险行为的可能性。
S21:显示情绪疏导内容。
其中,“情绪疏导内容”用于针对用户进行情绪疏导;而且本申请实施例不限定“情绪疏导内容”,例如,其可以是视频数据、音频数据或者文本数据。
另外,“情绪疏导内容”根据情绪宣泄内容进行确定的;而且本申请实施例不限定该“情绪疏导内容”的确定过程,例如,其具体可以包括:先从上述“情绪宣泄内容”中提取预设危险词;再按照预设资源搜索方法,从预设资源库(例如,预先构建的数据库或者互联网等)中查找到与该预设危险词关联的至少一个资源数据(例如,新闻、心理疏导视频等);最后,将这些资源数据进行集合处理,得到该情绪疏导内容。
基于上述S18至S21的相关内容可知,对于人机交互设备来说,在确定达到预设告警条件之后,可以先借助“告警询问信息”获知该用户是否愿意将个人隐私分享给其监护人,以便在确定该用户不愿意将个人隐私分享给其监护人时,由人机交互设备针对该用户进行情绪疏导,以使尽可能地降低该用户出现危险行为的可能性。如此有利于保护用户的个人隐私,从而有利于提高用户体验。
方法实施例八
为了提高用户体验,本申请实施例提供的人机交互方法的另一种实施方式,在该实施方式中,该人机交互方法除了包括上述全部或部分步骤以外,可以还包括S22-S24:
S22:响应于用户触发的宣泄结束请求,显示清理询问信息。
其中,“宣泄结束请求”用于请求结束针对用户的情绪宣泄辅助过程;而且本申请实施例不限定“宣泄结束请求”的触发方式,例如,该“宣泄结束请求”可以通过在人机交互设备上触发关闭情绪宣泄系统指令的方式进行触发。又如,该“宣泄结束请求”也可以通过在人机交互设备上点击宣泄结束按钮的方式进行触发。
上述“清理询问信息”用于向用户询问是否删除情绪宣泄内容。
S23:接收用户针对清理询问信息的第二反馈结果。
其中,“第二反馈结果”是指用户针对上述“清理询问信息”的反馈结果,以使该“第二反馈结果”用于表示该用户是否同意针对上述“情绪宣泄内容”进行删除处理。
S24:判断第二反馈结果是否满足预设清理条件,若是,则对情绪宣泄内容进行删除处理;若否,则将情绪宣泄内容进行保存。
其中,“预设清理条件”可以预先设定;而且本申请实施例不限定该“预设清理条件”,例如,其具体可以为:上述“第二反馈结果”表示该用户同意针对上述“情绪宣泄内容”进行删除处理。
可见,对于人机交互设备来说,在获取到第二反馈结果之后,可以先判断该第二反馈结果是否满足预设清理条件,若满足,则表示该用户同意针对上述“情绪宣泄内容”进行删除处理,故为了保护用户隐私,该人机交互设备可以直接对其缓存的情绪宣泄内容进行删除处理,以使该人机交互设备中不存在该情绪宣泄内容;若不满足,则表示该用户不同意针对上述“情绪宣泄内容”进行删除处理,从而表示该用户希望将上述“情绪宣泄内容”保存下来,故为了满足用户的保存需求,该人机交互设备可以直接将其缓存的情绪宣泄内容保存至预设存储位置,以使后续能够从该预设存储位置中读取到该情绪宣泄内容。
基于上述方法实施例提供的人机交互方法,本申请实施例还提供了一种人机交互装置,下面结合附图进行解释和说明。
装置实施例
装置实施例对人机交互装置进行介绍,相关内容请参见上述方法实施例。
参见图2,该图为本申请实施例提供的一种人机交互装置的结构示意图。
本申请实施例提供的人机交互装置200,包括:
第一确定单元201,用于在获取到用户触发的情绪宣泄请求之后,根据所述用户输入的情绪宣泄内容,确定情绪表征对象;
第一显示单元202,用于显示所述情绪表征对象沿着预设路线向情绪容纳位置进行移动;
对象清除单元203,用于在所述情绪表征对象到达所述情绪容纳位置之后,按照预设清除方式,对所述情绪容纳位置上的所述情绪表征对象进行清除处理。
在一种可能的实施方式中,所述第一确定单元201,包括:
主题提取子单元,用于从所述情绪宣泄内容中提取所述用户的宣泄主题;
第一确定子单元,用于根据所述情绪宣泄内容和所述宣泄主题对应的显示对象描述信息,确定所述情绪表征对象。
在一种可能的实施方式中,所述第一确定子单元,包括:
情绪分析子单元,用于对所述情绪宣泄内容进行情绪分析,得到用户情绪和所述用户情绪的情绪表征数据;
第二确定子单元,用于根据所述用户情绪和所述宣泄主题对应的显示对象描述信息,确定所述用户情绪的对象显示形态;
对象生成子单元,用于根据所述对象显示形态和所述情绪表征数据,生成所述情绪表征对象。
在一种可能的实施方式中,所述根对象生成子单元,具体用于:按照第一组合方式,将所述情绪表征数据与所述对象显示形态进行组合,得到所述情绪表征对象。
在一种可能的实施方式中,所述根对象生成子单元,具体用于:对所述情绪表征数据进行拟态化处理,得到情绪拟态形象;按照第二组合方式,将所述情绪拟态形象与所述对象显示形态进行组合,得到所述情绪表征对象。
在一种可能的实施方式中,所述情绪分析子单元,包括:
情绪确定子单元,用于对所述情绪宣泄内容和所述情绪宣泄内容对应的用户脸部图像进行情绪分析,得到所述用户情绪。
在一种可能的实施方式中,所述情绪宣泄内容包括宣泄语音数据,且所述主题提取子单元,具体用于:对所述宣泄语音数据进行语音识别处理,得到语音识别文本;利用预先构建的主题分析模型,对所述语音识别文本进行宣泄主题分析,得到所述用户的宣泄主题。
在一种可能的实施方式中,所述情绪宣泄内容包括宣泄文本数据,且所述主题提取子单元,具体用于:利用预先构建的主题分析模型,对所述宣泄文本数据进行宣泄主题分析,得到所述用户的宣泄主题。
在一种可能的实施方式中,所述情绪宣泄内容包括宣泄视频数据,且所述主题提取子单元,具体用于:从所述宣泄视频数据中提取视频识别文本;利用预先构建的主题分析模型,对所述视频识别文本进行宣泄主题分析,得到所述用户的宣泄主题。
在一种可能的实施方式中,所述人机交互装置200,还包括:
第二确定单元,用于根据所述情绪宣泄内容,确定所述情绪表征对象的移动路线;
所述第一显示单元202,具体用于:显示所述情绪表征对象沿着所述移动路线向情绪容纳位置进行移动。
在一种可能的实施方式中,所述情绪宣泄内容包括宣泄语音数据,且所述第二确定单元,具体用于:对所述宣泄语音数据进行声线波动分析,得到声线波动趋势图;根据所述声线波动趋势图,确定所述情绪表征对象的移动路线。
在一种可能的实施方式中,所述人机交互装置200,还包括:
第三确定单元,用于根据所述情绪宣泄内容的输入速度,确定所述情绪表征对象的移动速度;
所述第一显示单元202,具体用于:显示所述情绪表征对象以所述移动速度沿着预设路线向情绪容纳位置进行移动。
在一种可能的实施方式中,所述人机交互装置200,还包括:
对象停止单元,用于在所述情绪表征对象到达所述情绪容纳位置之前,响应于所述用户针对所述情绪表征对象触发的第一操作,停止移动所述情绪表征对象。
在一种可能的实施方式中,所述人机交互装置200,还包括:
对象更新单元,用于在所述停止移动所述情绪表征对象之后,响应于所述用户针对所述情绪表征对象触发的第二操作,更新所述情绪表征对象;在达到预设恢复条件时,显示更新后的所述情绪表征对象继续沿着预设路线向情绪容纳位置进行移动。
在一种可能的实施方式中,所述人机交互装置200,还包括:
对象删除单元,用于响应于所述用户针对所述情绪表征对象触发的第三操作,删除所述情绪表征对象。
在一种可能的实施方式中,所述人机交互装置200,还包括:
第二显示单元,用于在确定达到预设反馈条件时,显示情绪反馈内容;其中,所述情绪反馈内容是根据所述情绪宣泄内容进行确定的。
在一种可能的实施方式中,所述人机交互装置200,还包括:
信息发送单元,用于在确定达到预设告警条件时,将情绪告警信息发送给所述用户的监护人;其中,所述情绪告警信息是根据所述情绪宣泄内容进行确定的。
在一种可能的实施方式中,所述人机交互装置200,还包括:
第四显示单元,用于在确定达到预设告警条件时,显示告警询问信息;其中,所述告警询问信息用于向所述用户询问是否向所述用户的监护人进行告警;
第一接收单元,用于接收所述用户针对所述告警询问信息的第一反馈结果;
所述信息发送单元,具体用于:在确定所述第一反馈结果满足预设发送条件时,将所述情绪告警信息发送给所述用户的监护人。
在一种可能的实施方式中,所述人机交互装置200,还包括:
第五显示单元,用于在确定所述第一反馈结果不满足预设发送条件时,显示情绪疏导内容;其中,所述情绪疏导内容是根据所述情绪宣泄内容进行确定的。
在一种可能的实施方式中,所述人机交互装置200,还包括:
第六显示单元,用于响应于所述用户触发的宣泄结束请求,显示清理询问信息;其中,所述清理询问信息用于向所述用户询问是否删除所述情绪宣泄内容;
第二接收单元,用于接收所述用户针对所述清理询问信息的第二反馈结果;
内容删除单元,用于在确定所述第二反馈结果满足预设清理条件时,对所述情绪宣泄内容进行删除处理。
在一种可能的实施方式中,所述人机交互装置200,还包括:
第七显示单元,用于在所述情绪容纳位置上显示拟态容器;
所述第一显示单元202,具体用于:显示所述情绪表征对象沿着预设路线向所述拟态容器进行移动;
所述对象清除单元203,具体用于:在所述情绪表征对象进入所述拟态容器之后,按照预设清除方式,对所述拟态容器内的所述情绪表征对象进行清除处理。
在一种可能的实施方式中,所述人机交互装置200,还包括:
方式更新单元,用于响应于所述用户针对所述拟态容器触发的第四操作,更新所述预设清除方式。
进一步地,本申请实施例还提供了一种人机交互设备,包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述人机交互方法的任一种实现方法。
进一步地,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述人机交互方法的任一种实现方法。
进一步地,本申请实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述人机交互方法的任一种实现方法。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如媒体网关等网络通信设备,等等)执行本申请各个实施例或者实施例的某些部分所述的方法。
需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (18)
1.一种人机交互方法,其特征在于,所述方法包括:
在获取到用户触发的情绪宣泄请求之后,从所述情绪宣泄内容中提取所述用户的宣泄主题;
对所述情绪宣泄内容进行情绪分析,得到用户情绪和所述用户情绪的情绪表征数据;
根据所述用户情绪和所述宣泄主题对应的显示对象描述信息,确定所述用户情绪的对象显示形态;
根据所述对象显示形态和所述情绪表征数据,生成所述情绪表征对象;所述情绪表征对象用于承载所述用户在输入所述情绪宣泄内容时所具有的情绪状态;
显示所述情绪表征对象沿着预设路线向情绪容纳位置进行移动;
在所述情绪表征对象到达所述情绪容纳位置之后,按照预设清除方式,对所述情绪容纳位置上的所述情绪表征对象进行清除处理;
其中,所述根据所述对象显示形态和所述情绪表征数据,生成所述情绪表征对象,包括:按照第一组合方式,将所述情绪表征数据与所述对象显示形态进行组合,得到所述情绪表征对象;
或者,所述根据所述对象显示形态和所述情绪表征数据,生成所述情绪表征对象,包括:对所述情绪表征数据进行拟态化处理,得到情绪拟态形象;按照第二组合方式,将所述情绪拟态形象与所述对象显示形态进行组合,得到所述情绪表征对象。
2.根据权利要求1所述的方法,其特征在于,所述用户情绪的确定过程,包括:
对所述情绪宣泄内容和所述情绪宣泄内容对应的用户脸部图像进行情绪分析,得到所述用户情绪。
3.根据权利要求1-2任一项所述的方法,其特征在于,所述情绪宣泄内容包括宣泄语音数据,且所述宣泄主题的确定过程,包括:
对所述宣泄语音数据进行语音识别处理,得到语音识别文本;利用预先构建的主题分析模型,对所述语音识别文本进行宣泄主题分析,得到所述用户的宣泄主题;
或者,
所述情绪宣泄内容包括宣泄文本数据,且所述宣泄主题的确定过程,包括:
利用预先构建的主题分析模型,对所述宣泄文本数据进行宣泄主题分析,得到所述用户的宣泄主题;
或者,
所述情绪宣泄内容包括宣泄视频数据,且所述宣泄主题的确定过程,包括:
从所述宣泄视频数据中提取视频识别文本;利用预先构建的主题分析模型,对所述视频识别文本进行宣泄主题分析,得到所述用户的宣泄主题。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述情绪宣泄内容,确定所述情绪表征对象的移动路线;
所述显示所述情绪表征对象沿着预设路线向情绪容纳位置进行移动,包括:
显示所述情绪表征对象沿着所述移动路线向情绪容纳位置进行移动。
5.根据权利要求4所述的方法,其特征在于,所述情绪宣泄内容包括宣泄语音数据,且所述移动路线的确定过程,包括:
对所述宣泄语音数据进行声线波动分析,得到声线波动趋势图;
根据所述声线波动趋势图,确定所述情绪表征对象的移动路线。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述情绪宣泄内容的输入速度,确定所述情绪表征对象的移动速度;
所述显示所述情绪表征对象沿着预设路线向情绪容纳位置进行移动,包括:
显示所述情绪表征对象以所述移动速度沿着预设路线向情绪容纳位置进行移动。
7.根据权利要求1所述的方法,其特征在于,在所述情绪表征对象到达所述情绪容纳位置之前,所述方法还包括:
响应于所述用户针对所述情绪表征对象触发的第一操作,停止移动所述情绪表征对象。
8.根据权利要求7所述的方法,其特征在于,在所述停止移动所述情绪表征对象之后,所述方法还包括:
响应于所述用户针对所述情绪表征对象触发的第二操作,更新所述情绪表征对象;在达到预设恢复条件时,显示更新后的所述情绪表征对象继续沿着预设路线向情绪容纳位置进行移动;
或者,
在所述停止移动所述情绪表征对象之后,所述方法还包括:
响应于所述用户针对所述情绪表征对象触发的第三操作,删除所述情绪表征对象。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在确定达到预设反馈条件时,显示情绪反馈内容;其中,所述情绪反馈内容是根据所述情绪宣泄内容进行确定的。
10.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在确定达到预设告警条件时,将情绪告警信息发送给所述用户的监护人;其中,所述情绪告警信息是根据所述情绪宣泄内容进行确定的。
11.根据权利要求10所述的方法,其特征在于,所述方法还包括:
在确定达到预设告警条件时,显示告警询问信息;其中,所述告警询问信息用于向所述用户询问是否向所述用户的监护人进行告警;
接收所述用户针对所述告警询问信息的第一反馈结果;
所述将情绪告警信息发送给所述用户的监护人,包括:
在确定所述第一反馈结果满足预设发送条件时,将所述情绪告警信息发送给所述用户的监护人。
12.根据权利要求11所述的方法,其特征在于,所述方法还包括:
在确定所述第一反馈结果不满足预设发送条件时,显示情绪疏导内容;其中,所述情绪疏导内容是根据所述情绪宣泄内容进行确定的。
13.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于所述用户触发的宣泄结束请求,显示清理询问信息;其中,所述清理询问信息用于向所述用户询问是否删除所述情绪宣泄内容;
接收所述用户针对所述清理询问信息的第二反馈结果;
在确定所述第二反馈结果满足预设清理条件时,对所述情绪宣泄内容进行删除处理。
14.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述情绪容纳位置上显示拟态容器;
所述显示所述情绪表征对象沿着预设路线向情绪容纳位置进行移动,包括:
显示所述情绪表征对象沿着预设路线向所述拟态容器进行移动;
所述在所述情绪表征对象到达所述情绪容纳位置之后,按照预设清除方式,对所述情绪容纳位置上的所述情绪表征对象进行清除处理,包括:
在所述情绪表征对象进入所述拟态容器之后,按照预设清除方式,对所述拟态容器内的所述情绪表征对象进行清除处理。
15.根据权利要求14所述的方法,其特征在于,所述方法还包括:
响应于所述用户针对所述拟态容器触发的第四操作,更新所述预设清除方式。
16.一种人机交互装置,其特征在于,包括:
第一确定单元,包括:主题提取子单元、情绪分析子单元、第二确定子单元和对象生成子单元;
所述主题提取子单元,用于在获取到用户触发的情绪宣泄请求之后,从所述情绪宣泄内容中提取所述用户的宣泄主题;
所述情绪分析子单元,用于对所述情绪宣泄内容进行情绪分析,得到用户情绪和所述用户情绪的情绪表征数据;
所述第二确定子单元,用于根据所述用户情绪和所述宣泄主题对应的显示对象描述信息,确定所述用户情绪的对象显示形态;
所述对象生成子单元,用于根据所述对象显示形态和所述情绪表征数据,生成所述情绪表征对象;
第一显示单元,用于显示所述情绪表征对象沿着预设路线向情绪容纳位置进行移动;
对象清除单元,用于在所述情绪表征对象到达所述情绪容纳位置之后,按照预设清除方式,对所述情绪容纳位置上的所述情绪表征对象进行清除处理;
其中,所述对象生成子单元,具体用于:按照第一组合方式,将所述情绪表征数据与所述对象显示形态进行组合,得到所述情绪表征对象;或,具体用于:对所述情绪表征数据进行拟态化处理,得到情绪拟态形象;按照第二组合方式,将所述情绪拟态形象与所述对象显示形态进行组合,得到所述情绪表征对象。
17.一种人机交互设备,其特征在于,所述设备包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行权利要求1至15任一项所述的方法。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行权利要求1至15任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111064290.2A CN113744738B (zh) | 2021-09-10 | 2021-09-10 | 一种人机交互方法及其相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111064290.2A CN113744738B (zh) | 2021-09-10 | 2021-09-10 | 一种人机交互方法及其相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113744738A CN113744738A (zh) | 2021-12-03 |
CN113744738B true CN113744738B (zh) | 2024-03-19 |
Family
ID=78738108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111064290.2A Active CN113744738B (zh) | 2021-09-10 | 2021-09-10 | 一种人机交互方法及其相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113744738B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101669090A (zh) * | 2007-04-26 | 2010-03-10 | 福特全球技术公司 | 情绪提示系统和方法 |
CN107195312A (zh) * | 2017-05-05 | 2017-09-22 | 深圳信息职业技术学院 | 情绪宣泄模式的确定方法、装置、终端设备和存储介质 |
CN109683709A (zh) * | 2018-12-17 | 2019-04-26 | 苏州思必驰信息科技有限公司 | 基于情绪识别的人机交互方法及系统 |
CN110237396A (zh) * | 2019-05-28 | 2019-09-17 | 南京脑科医院 | 一种心理护理用情绪宣泄室 |
WO2020211701A1 (zh) * | 2019-04-17 | 2020-10-22 | 华为技术有限公司 | 模型训练方法、情绪识别方法及相关装置和设备 |
CN113223718A (zh) * | 2021-06-02 | 2021-08-06 | 重庆医药高等专科学校 | 一站式情绪宣泄系统 |
CN113253835A (zh) * | 2021-03-19 | 2021-08-13 | 安徽淘云科技股份有限公司 | 一种人机交互设备控制方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015091893A1 (en) * | 2013-12-19 | 2015-06-25 | Koninklijke Philips N.V. | System and method for topic-related detection of the emotional state of a person |
US20180349923A1 (en) * | 2017-05-30 | 2018-12-06 | At&T Intellectual Property I, L.P. | Dynamic adaptation of advertising based on consumer emotion data |
US10764613B2 (en) * | 2018-10-31 | 2020-09-01 | International Business Machines Corporation | Video media content analysis |
-
2021
- 2021-09-10 CN CN202111064290.2A patent/CN113744738B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101669090A (zh) * | 2007-04-26 | 2010-03-10 | 福特全球技术公司 | 情绪提示系统和方法 |
CN107195312A (zh) * | 2017-05-05 | 2017-09-22 | 深圳信息职业技术学院 | 情绪宣泄模式的确定方法、装置、终端设备和存储介质 |
CN109683709A (zh) * | 2018-12-17 | 2019-04-26 | 苏州思必驰信息科技有限公司 | 基于情绪识别的人机交互方法及系统 |
WO2020211701A1 (zh) * | 2019-04-17 | 2020-10-22 | 华为技术有限公司 | 模型训练方法、情绪识别方法及相关装置和设备 |
CN110237396A (zh) * | 2019-05-28 | 2019-09-17 | 南京脑科医院 | 一种心理护理用情绪宣泄室 |
CN113253835A (zh) * | 2021-03-19 | 2021-08-13 | 安徽淘云科技股份有限公司 | 一种人机交互设备控制方法及装置 |
CN113223718A (zh) * | 2021-06-02 | 2021-08-06 | 重庆医药高等专科学校 | 一站式情绪宣泄系统 |
Non-Patent Citations (2)
Title |
---|
基于儿童情感研究的机器人设计研究;张译心;杨颖;;艺术科技(05);全文 * |
情绪宣泄方式与心理健康的关系研究;罗辉辉;孙飞;;科协论坛(下半月)(09);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113744738A (zh) | 2021-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Adamopoulou et al. | Chatbots: History, technology, and applications | |
CN105345818B (zh) | 带有情绪及表情模块的3d视频互动机器人 | |
Sutoyo et al. | Designing an emotionally realistic chatbot framework to enhance its believability with AIML and information states | |
Reich | The cooperative nature of communicative acts | |
EP3607478A1 (en) | Assisting psychological cure in automated chatting | |
Brown Jr | The machine that therefore I am | |
CN111857343B (zh) | 一种能部分实现数字永生并可与用户交互的系统 | |
Kavitha et al. | Chatbot for healthcare system using Artificial Intelligence | |
JP6076425B1 (ja) | 対話インターフェース | |
Dos Santos et al. | Behavioral persona for human-robot interaction: a study based on pet robot | |
Abaalkhail et al. | Survey on ontologies for affective states and their influences | |
Bendel | Sex robots from the perspective of machine ethics | |
JP6366749B2 (ja) | 対話インターフェース | |
JP6697373B2 (ja) | 文生成装置、文生成方法及びプログラム | |
Li et al. | Finding love in algorithms: deciphering the emotional contexts of close encounters with AI chatbots | |
CN113744738B (zh) | 一种人机交互方法及其相关设备 | |
de Souza Monteiro et al. | Conversational agents: a survey on culturally informed design practices | |
Jung et al. | a First step toward the automatic Understanding of social Touch for naturalistic human–robot interaction | |
Gamborino et al. | Towards effective robot-assisted photo reminiscence: Personalizing interactions through visual understanding and inferring | |
JP6034459B1 (ja) | 対話インターフェース | |
WO2022208953A1 (ja) | 情報処理システム及び仮想人材 | |
Levantino | Generative and AI-powered oracles:“What will they say about you?” | |
JP6080137B1 (ja) | 対話インターフェース | |
Ichikura et al. | Automatic diary generation system including information on joint experiences between humans and robots | |
JP7350384B1 (ja) | 対話システム、及び対話方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |