CN115982360A - 交互方法、装置、电子设备和存储介质 - Google Patents
交互方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN115982360A CN115982360A CN202211735942.5A CN202211735942A CN115982360A CN 115982360 A CN115982360 A CN 115982360A CN 202211735942 A CN202211735942 A CN 202211735942A CN 115982360 A CN115982360 A CN 115982360A
- Authority
- CN
- China
- Prior art keywords
- emotion
- interaction
- emotion type
- interactive
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明提供一种交互方法、装置、电子设备和存储介质,其中方法包括:获取交互文本;基于所述交互文本中的情绪事件、所述交互文本的语义特征以及所述交互文本中的情绪词汇中的至少一种,确定情绪类型;基于所述情绪类型进行交互。本发明提供的方法、装置、电子设备和存储介质,通过根据交互文本中的情绪事件、交互文本的语义特征以及交互文本中的情绪词汇中的至少一种,确定情绪类型,提高了确定情绪类型的可靠性,再根据情绪类型进行有利于疏解负面情绪的交互,使得能够更加方便、准确的疏解负面情绪。
Description
技术领域
本发明涉及人机交互技术领域,尤其涉及一种交互方法、装置、电子设备和存储介质。
背景技术
负面情绪是每个人在日常生活中都会产生的一种情绪,在很多时候人们不能对负面情绪进行有效的疏解,导致负面情绪积压。
目前针对负面情绪的疏导,主要是通过与专业的心理咨询师等人员进行沟通的方式实现。但是由于负面情绪是日常生活中非常频发的情绪,寻求专业人员沟通需要耗费大量的时间、金钱和精力,所以通过与专业人员沟通疏解负面情绪并不现实。
发明内容
本发明提供一种交互方法、装置、电子设备和存储介质,用以解决现有技术中针对负面情绪的疏导,主要是通过与专业的心理咨询师等人员进行沟通的方式实现。但是由于负面情绪是日常生活中非常频发的情绪,寻求专业人员沟通需要耗费大量的时间、金钱和精力,所以通过与专业人员沟通疏解负面情绪并不现实的问题。
本发明提供一种交互方法,包括:
获取交互文本;
基于所述交互文本中的情绪事件、所述交互文本的语义特征以及所述交互文本中的情绪词汇中的至少一种,确定情绪类型;
基于所述情绪类型进行交互。
根据本发明提供的交互方法,所述基于所述交互文本中的情绪事件、所述交互文本的语义特征以及所述交互文本中的情绪词汇中的至少一种,确定情绪类型,包括:
基于各预设事件对应的预设情绪类型,确定所述情绪事件对应的事件情绪类型;
基于所述语义特征进行情绪识别,得到语义情绪类型;
基于各预设词汇对应的预设情绪类型,确定所述情绪词汇对应的词汇情绪类型;
基于所述事件情绪类型、所述语义情绪类型和所述词汇情绪类型中的至少一种,确定所述情绪类型。
根据本发明提供的交互方法,所述基于所述事件情绪类型、所述语义情绪类型和所述词汇情绪类型中的至少一种,确定所述情绪类型,包括:
基于交互数据的行为情绪特征,确定交互情绪类型;
基于所述交互情绪类型,以及所述事件情绪类型、所述语义情绪类型和所述词汇情绪类型中的至少一种,确定所述情绪类型;
所述交互数据包括交互语音、交互图像和交互视频中的至少一种。
根据本发明提供的交互方法,所述行为情绪特征的确定步骤包括:
提取所述交互语音中的语气特征;
提取所述交互图像和/或所述交互视频中的表情特征和/或动作特征;
基于所述语气特征、所述表情特征和所述动作特征中的至少一种,确定所述行为情绪特征。
根据本发明提供的交互方法,所述基于所述情绪类型进行交互,包括:
生成用于确定所述情绪类型的交互信息并展示;
接收反馈信息,并在所述反馈信息指示确定所述情绪类型为当前情绪的情况下,基于所述情绪类型进行交互。
根据本发明提供的交互方法,所述接收反馈信息,之后还包括:
在所述反馈信息指示确定所述情绪类型非当前情绪的情况下,基于所述反馈信息更新所述情绪类型。
根据本发明提供的交互方法,所述基于所述情绪类型进行交互,包括:
基于所述情绪类型,确定情绪改善交互模式,所述情绪改善交互模式包括游戏交互模式和/或引导交互模式;
基于所述情绪改善交互模式进行交互。
本发明还提供一种交互装置,包括:
获取单元,获取交互文本;
确定情绪单元,基于所述交互文本中的情绪事件、所述交互文本的语义特征以及所述交互文本中的情绪词汇中的至少一种,确定情绪类型;
交互单元,基于所述情绪类型进行交互。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述交互方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述交互方法。
本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述交互方法。
本发明提供的一种交互方法、装置、电子设备和存储介质,通过根据交互文本中的情绪事件、交互文本的语义特征以及交互文本中的情绪词汇中的至少一种,确定情绪类型,提高了确定情绪类型的可靠性,再根据情绪类型进行有利于疏解负面情绪的交互,使得能够更加方便、准确的疏解负面情绪。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的交互方法的流程示意图之一;
图2是本发明提供的情绪类型确定方法的流程示意图;
图3是本发明提供的交互方法的流程示意图之二;
图4是本发明提供的交互装置的结构示意图;
图5是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前针对负面情绪的疏导,主要是通过与专业的心理咨询师等人员进行沟通的方式实现。但是由于负面情绪是日常生活中非常频发的情绪,寻求专业人员沟通需要耗费大量的时间、金钱和精力,所以通过与专业人员沟通疏解负面情绪并不现实。
针对上述问题,本发明提出一种交互方法,以实现便捷、经济的对负面情绪的疏导,尤其是针对儿童的负面情绪的疏解。图1为本发明提供的一种交互方法的流程示意图之一,如图1所示,此方法包括:
步骤110,获取交互文本;
此处,交互文本,可以是将采集所得的音频进行语音转写后得到的文本,也可以是直接接收到的用户输入的文本。获取得到的交互文本,在语义上可以是一个完整的事件描述,也可以包含对情绪的直接或间接表述。
步骤120,基于所述交互文本中的情绪事件、所述交互文本的语义特征以及所述交互文本中的情绪词汇中的至少一种,确定情绪类型;
具体地,在获取得到交互文本后,可以通过分析交互文本,获取得到交互文本的情绪事件、语义特征以及交互文本中的情绪词汇中的一种或者多种信息,由此确定情绪类型。
此处的情绪事件,指的是交互文本中可以直接展现情绪的事件。情绪事件中,一般包括情绪事件发生的人物、时间、地点、动作等信息中的一种或者多种。由这些信息构成的情绪事件,展现了该事件中的情绪,此处展现的情绪,极大可能就是该交互文本的情绪类型。比如情绪事件可以具体是:小明在学校受到同学的欺负,或者被老师批评,此情绪事件展现的情绪类型可以是伤心。另外,从交互文本中获取情绪事件,可以通过基于深度学习的事件抽取模型得到。
此外,可能存在从交互文本中未抽取到可以直接展现情绪的事件的情况,此时的交互文本,在语义内容上可能并不是一个完整的情绪事件,但可以是间接展现情绪的文本片段。通过从交互文本中,提取其语义特征,用以确认情绪类型。可以理解的是,得到的交互文本的语义特征表征了交互文本的语义内容,而语义内容本身也可以展现情绪,即可以通过语义特征确定其情绪类型。此处提取交互文本的语义特征,可以通过BERT(Bidirectional Encoder Representations from Transformer,预训练的语言表征模型)模型或者其他形式的语言模型实现,本发明实施例对此不作具体限定。可以理解的是,在能够获取到情绪事件的情况下,依然可以结合语义特征确定情绪类型,由此确保情绪类型确定的可靠性和准确性。
另外,此处的交互文本中的情绪词汇,指的是在交互文本中直接表述情绪的词汇,比如:自己很愤怒,现在也很不高兴。从交互文本中提取情绪词汇,可以通过基于深度学习的关键词提取模型得到,也可以将交互文本中的分词与预先收集好的情绪词库中的分词匹配得到,本发明实施例对此不作具体限定。可以理解的是,用于表述情绪的交互文本中,极大可能有对情绪直接展现的词汇,且情绪词汇极大可能代表该交互文本的情绪类型。
在得到交互文本的情绪事件、语义特征以及交互文本中的情绪词汇中的一种或者多种之后,即可基于此得到交互文本所反映的情绪类型。
步骤130,基于所述情绪类型进行交互。
具体地,在确定交互文本的情绪类型后,根据对应的情绪类型,执行预设的该情绪类型相对应的交互,用来疏解该交互文本对应的情绪类型。此处的交互,可以通过音频、图像等多媒体设备的结合,完成终端设备与交互文本对应的用户之间的交互,具体可以是完成游戏交互、引导交互其中的一种或者是多种。
本发明实施例提供的方法,根据交互文本中的情绪事件、交互文本的语义特征以及交互文本中的情绪词汇中的至少一种,确定情绪类型,提高了确定情绪类型的可靠性,再根据情绪类型进行有利于疏解负面情绪的交互,使得能够更加方便、准确的疏解负面情绪。
基于上述任一实施例,图2为本发明提供的情绪类型确定方法的流程示意图,如图2所示,步骤120包括:
步骤121,基于各预设事件对应的预设情绪类型,确定所述情绪事件对应的事件情绪类型;
具体地,通过确定交互文本中的情绪事件对应的预先设置的某一预设事件,则预设事件的预设情绪类型即为情绪事件的事件情绪类型。确定交互文本中的情绪事件与预设事件的对应关系,可以通过基于深度学习的文本信息匹配模型实现,比如,可以通过情绪事件和预设事件的事件关键要素进行匹配,计算其语义相关度,相关度越大,则其匹配度越高,其情绪事件与其预设事件越有可能相对应,即,对应预设事件的预设情绪类型,为该情绪事件的事件情绪类型。
此处的事件关键要素指的是情绪事件发生的人物、时间、地点、动作等信息。
步骤122,基于所述语义特征进行情绪识别,得到语义情绪类型;
具体地,通过BERT模型提取交互文本的语义特征后,将提取得到的文本语义特征可以输入到预先设置的情绪分类模型中,由情绪分类模型确定该语义特征对应的语义情绪类型。
步骤123,基于各预设词汇对应的预设情绪类型,确定所述情绪词汇对应的词汇情绪类型;
具体地,在交互文本中获取到情绪词汇后,可以先确认情绪词汇对应的预先设置的预设情绪词汇,则预设情绪词汇所对应的预设情绪类型即为情绪词汇的词汇情绪类型。此处的预设情绪词汇,指的是预先设置的描述情绪的词汇,比如:生气、暴怒、不高兴等;此处的预设情绪类型,指的是预设情绪词汇对应的情绪类型,可以是预设情绪词汇本身,比如:生气、气愤、失望等。获取得到交互文本中的情绪词汇后,可以通过计算情绪词汇和预设情绪词汇之间的语义相似度,相似度越大,则此情绪词汇对应该预设情绪词汇的可能性越大。即,该对应预设情绪词汇的预设情绪类型为交互文本的词汇情绪类型。
可以理解的是,上述步骤121、122和123可以是同步执行的,也可以是顺序执行的,本发明实施例对此不作具体限定。
步骤124,基于所述事件情绪类型、所述语义情绪类型和所述词汇情绪类型中的至少一种,确定所述情绪类型。
在得到交互文本中的事件情绪类型、语义情绪类型、词汇情绪类型中的一种或者多种后,根据这些不同来源下获取的情绪类型,确定交互文本的情绪类型。具体可以预先设置三种情绪类型的优先级,取优先级最高的情绪类型为最终的情绪类型,比如按照优先级高低排序,排序可以是事件情绪类型、词汇情绪类型、语义情绪词汇。此时,若获取得到两种及以上的情绪类型,则交互文本的情绪类型为优先级最高的情绪类型;若获取得到一种情绪类型,则该情绪类型即为交互文本的情绪类型。又或者,基于三种情绪类型各自的置信度,对三种情绪类型分别进行评分,并将评分最高的情绪类型确定为最终的情绪类型。
基于上述任一实施例,步骤124包括:
基于交互数据的行为情绪特征,确定交互情绪类型;
基于所述交互情绪类型,以及所述事件情绪类型、所述语义情绪类型和所述词汇情绪类型中的至少一种,确定所述情绪类型;
所述交互数据包括交互语音、交互图像和交互视频中的至少一种。
此处的交互数据包括交互语音、交互图像和交互视频中的一种或者多种,可以理解的是,一般展现情绪的交互,大多通过语音、图像、视频中的至少一种方式进行。交互语音可以通过麦克风获取,交互图像和交互视频可以通过摄像头等图像采集设备获取。
通常,交互语音中除了可以通过语音转写得到交互文本,还可以获取交互时展现情绪的语气,交互图像和交互视频中可以获取交互时展现情绪的面部表情、动作等信息。因而,交互时的语气、面部表情以及动作中的至少一种,构成了交互数据的行为信息。基于交互数据的行为信息,提取得到行为情绪特征,可以通过其行为情绪特征进行特征分类,进而得到该交互数据的交互情绪类型。
另外,交互数据中的情绪类型在语义信息维度上,可以通过情绪事件、语义特征、情绪词汇等文本信息体现;在行为信息维度上,可以通过交互的语气、面部表情、动作等行为信息体现。所以可以通过事件情绪类型、语义情绪类型、词汇情绪类型以及交互情绪类型中的一种或者多种,可以确定交互数据的情绪类型。其中确定情绪类型的方法可以和上述实施例中步骤124中步骤相同,此处不再做过多赘述。
基于上述任一实施例,所述行为情绪特征的确定步骤包括:
提取所述交互语音中的语气特征;
提取所述交互图像和/或所述交互视频中的表情特征和/或动作特征;
基于所述语气特征、所述表情特征和所述动作特征中的至少一种,确定所述行为情绪特征。
在获得的交互数据中包含交互语音时,交互语音所反映的语气中也包含交互语音的情绪信息,比如生气时的语气可以是急促和愤怒的。所以,可以提取交互语音中的语气特征,作为判断其行为情绪特征的依据之一,具体可以通过DNN(Deep Neural Networks,深度神经网络)等神经网络算法,进行提取交互语音中的语气特征。
同样的,在获得的交互数据中包含交互图像和/或交互视频时,其中可能包含面部表情和/或动作信息。通常在展现情绪时,面部表情、肢体动作也会表达情绪信息,比如,情绪类型为伤心时,面部表情可以是大哭,动作可以是用手擦眼泪。所以,面部表情的表情特征和动作的动作特征也可以作为其行为情绪特征的判断依据。此处的表情特征,可以通过卷积神经网络对图像或视频中的面部表情进行编码得到。另外,此处的动作特征,可以通过SIFT(Scale-invariant feature transform,尺度不变特征转换)算法对图像或视频中的动作进行编码得到。
在获得交互数据中的语气特征、表情特征和动作特征中一种或者多种,确定其行为情绪特征。比如,可以通过将语气特征、表情特征和动作特征直接进行加权融合得到行为情绪特征,每个特征的权重可以是预先设置的。
针对交互数据中的交互语音、交互图像、交互视频等数据量比较少,可获取的相应的特征则也偏少的情况,此时,根据交互数据初步确定的情绪类型可能不准确,又或者,由于交互数据一般是主观表达,则交互数据的准确性依赖于用户的表达能力,针对上述问题,步骤130中,所述基于所述情绪类型进行交互,包括:
生成用于确定所述情绪类型的交互信息并展示;
接收反馈信息,并在所述反馈信息指示确定所述情绪类型为当前情绪的情况下,基于所述情绪类型进行交互。
具体地,在得到情绪类型之后,可以通过展示确定情绪类型的交互信息,接收针对目前判断的情绪类型的反馈信息,并由此确定由交互数据确定的情绪类型是否为当前情绪类型。
此处展示的用于确定情绪类型的交互信息,可以通过文字、图像、语音、视频中的至少一种形式展示,比如,可以通过语音进行交互,询问:您当前的情绪是否是不开心。又或者,通过语音和视频结合的方式,播放一段卡通动画,卡通动画中的卡通人物询问:您当前的情绪是否是不开心。在展示确定情绪类型的交互信息后,等待反馈信息。此处的反馈信息,通常是通过图像、视频、语音中的至少一种,比如,通过语音对确定情绪类型的交互信息进行回答,回答可以是:对的,我不开心。
若通过用于确定情绪类型的交互信息以及其反馈信息,再次确定情绪类型为当前情绪时,则可以进行针对确定的情绪类型进行交互。此处的交互方式,可以是游戏交互、引导交互、播放音乐等方式。
通过生成用于确定情绪类型的交互信息并展示,并基于反馈信息,确定情绪类型是否为当前情绪,进一步提高了对其情绪类型确认的可靠性,再根据情绪类型进行交互,可以提供针对情绪类型为负面情绪时,有效且便捷的疏解引导。
若通过确定情绪类型的交互信息以及反馈信息,确定情绪类型非当前情绪时,基于上述任一实施例,所述接收反馈信息,之后还包括:
在所述反馈信息指示确定所述情绪类型非当前情绪的情况下,基于所述反馈信息更新所述情绪类型。
若当前情绪类型不是所确定的情绪类型时,则可以根据反馈信息中的交互数据,继续判断其情绪类型,进而更新情绪类型。此处,根据反馈信息进行更新情绪类型的方法,同上述步骤110和步骤120。
基于上述任一实施例,所述基于所述情绪类型进行交互,包括:
基于所述情绪类型,确定情绪改善交互模式,所述情绪改善交互模式包括游戏交互模式和/或引导交互模式;
基于所述情绪改善交互模式进行交互。
具体地,在确定情绪类型后,可以根据预先设置的情绪类型对应的情绪改善交互模式,来疏解负面情绪。又或者,根据终端设备记录的历史情绪改善交互模式的记录,来选择当前次的情绪改善交互模式,通常选择历史记录中使用次数最多的情绪改善交互模式。
此处的情绪改善交互模式,指的是用于疏解当前情绪类型或者帮助正确认识当前情绪类型的交互模式,可以是游戏交互模式和/或引导交互模式。可以理解的是,人在面对负面情绪时,通过适当的游戏可以舒缓负面情绪,又或者通过语音交流执行对负面情绪的引导,提供正确认识负面情绪的知识和解决负面情绪的办法。比如,选择引导交互模式,具体可以是,通过语音交流的方式,首先可以播放舒缓的音乐和安慰语气的语音,使当前的心情得到放松,接着播放一段卡通动画展示对此负面情绪的基础认知,有助于正确认识当前的负面情绪,进而去面对和解决当前的负面情绪,疏解负面情绪带来的影响。
基于上述任一实施例,本发明还提供一种交互方法,图3为本发明提供的一种交互方法的流程示意图之二,如图3所示,其方法包括:
步骤310,获取交互数据,交互数据包含交互文本和/或交互行为信息;
步骤320,基于交互文本,获取交互文本中的情绪事件、交互文本的语义特征以及交互文本中的情绪词汇中的至少一种;和/或基于交互行为信息,获取交互数据的行为情绪特征;
步骤330,基于获取得到的情绪事件、交互文本的语义特征、交互文本中的情绪词汇和/或交互数据的行为情绪特征中的至少一种,确定情绪类型;
此处,确定情绪类型,可以通过上述步骤320获取得到的情绪事件、交互文本的语义特征、交互文本中的情绪词汇和/或交互数据的行为情绪特征中的至少一种,提取并融合其中的情绪特征,得到融合情绪特征。接着,提取预先设置的预设情绪类型以及对应的情绪表征库的预设情绪特征。最后,根据计算融合情绪特征与每个预设情绪特征之间的相似度,确定交互数据的情绪类型,即相关度最大的预设情绪特征对应的预设情绪类型,即为此交互数据的情绪类型。
步骤340,生成用于确定情绪类型的交互信息并展示,并接收反馈信息;
基于反馈信息,进行判断确定的情绪类型是否是当前情绪类型,若是,则继续执行步骤350,若否,则继续执行310;
步骤350,确定情绪类型为当前情绪的情况下,基于情绪类型进行交互。
此处,根据当前的情绪类型进行交互,可以是游戏交互、引导交互其中的至少一种。此处交互方式的选择,可以根据其确定的情绪类型在情绪排序表中的高低决定,可以理解的是,情绪类型在情绪排序表中的排序越高,代表其负面情绪越严重,则针对其情绪类型的交互越复杂,才能更好的疏解负面情绪。交互可以是先通过游戏交互,疏解负面情绪,接着再通过引导交互。此处的引导交互具体可以是,通过grow模型制定的解决方案,引导用户与负面情绪相处,并可以举例展示如何解决这个负面情绪的事件办法。而情绪类型的排序低于某一情绪类型时,则可仅通过游戏交互或引导交互来进行疏解负面情绪。
另外,此处的情绪排序表,可以预先将负面情绪进行分类,并针对每一类负面情绪进行负面指数高低的排序,构成情绪排序表,如下表所示:
基于上述任一实施例,图4为本发明提供的一种交互装置,如图4所示,该装置包括:
获取单元410,获取交互文本;
确定情绪单元420,基于所述交互文本中的情绪事件、所述交互文本的语义特征以及所述交互文本中的情绪词汇中的至少一种,确定情绪类型;
交互单元430,基于所述情绪类型进行交互。
本发明实施例提供的装置,根据交互文本中的情绪事件、交互文本的语义特征以及交互文本中的情绪词汇中的至少一种,确定情绪类型,提高了确定情绪类型的可靠性,再根据情绪类型进行有利于疏解负面情绪的交互,使得能够更加方便、准确的疏解负面情绪。
基于上述任一实施例,确定情绪单元还用于:
基于各预设事件对应的预设情绪类型,确定所述情绪事件对应的事件情绪类型;
基于所述语义特征进行情绪识别,得到语义情绪类型;
基于各预设词汇对应的预设情绪类型,确定所述情绪词汇对应的词汇情绪类型;
基于所述事件情绪类型、所述语义情绪类型和所述词汇情绪类型中的至少一种,确定所述情绪类型。
基于上述任一实施例,确定情绪单元还用于:
基于交互数据的行为情绪特征,确定交互情绪类型;
基于所述交互情绪类型,以及所述事件情绪类型、所述语义情绪类型和所述词汇情绪类型中的至少一种,确定所述情绪类型;
所述交互数据包括交互语音、交互图像和交互视频中的至少一种。
基于上述任一实施例,确定情绪单元还用于:
提取所述交互语音中的语气特征;
提取所述交互图像和/或所述交互视频中的表情特征和/或动作特征;
基于所述语气特征、所述表情特征和所述动作特征中的至少一种,确定所述行为情绪特征。
基于上述任一实施例,交互单元还用于:
生成用于确定所述情绪类型的交互信息并展示;
接收反馈信息,并在所述反馈信息指示确定所述情绪类型为当前情绪的情况下,基于所述情绪类型进行交互。
基于上述任一实施例,交互单元还用于:
在所述反馈信息指示确定所述情绪类型非当前情绪的情况下,基于所述反馈信息更新所述情绪类型。
基于上述任一实施例,交互单元还用于:
基于所述情绪类型,确定情绪改善交互模式,所述情绪改善交互模式包括游戏交互模式和/或引导交互模式;
基于所述情绪改善交互模式进行交互。
图5示例了一种电子设备的实体结构示意图,如图5所示,该电子设备可以包括:处理器(processor)510、通信接口(Communications Interface)520、存储器(memory)530和通信总线540,其中,处理器510,通信接口520,存储器530通过通信总线540完成相互间的通信。处理器510可以调用存储器530中的逻辑指令,以执行交互方法,该方法包括:获取交互文本;基于所述交互文本中的情绪事件、所述交互文本的语义特征以及所述交互文本中的情绪词汇中的至少一种,确定情绪类型;基于所述情绪类型进行交互。
此外,上述的存储器530中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的交互方法,该方法包括:获取交互文本;基于所述交互文本中的情绪事件、所述交互文本的语义特征以及所述交互文本中的情绪词汇中的至少一种,确定情绪类型;基于所述情绪类型进行交互。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的交互方法,该方法包括:获取交互文本;基于所述交互文本中的情绪事件、所述交互文本的语义特征以及所述交互文本中的情绪词汇中的至少一种,确定情绪类型;基于所述情绪类型进行交互。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种交互方法,其特征在于,包括:
获取交互文本;
基于所述交互文本中的情绪事件、所述交互文本的语义特征以及所述交互文本中的情绪词汇中的至少一种,确定情绪类型;
基于所述情绪类型进行交互。
2.根据权利要求1所述的交互方法,其特征在于,所述基于所述交互文本中的情绪事件、所述交互文本的语义特征以及所述交互文本中的情绪词汇中的至少一种,确定情绪类型,包括:
基于各预设事件对应的预设情绪类型,确定所述情绪事件对应的事件情绪类型;
基于所述语义特征进行情绪识别,得到语义情绪类型;
基于各预设词汇对应的预设情绪类型,确定所述情绪词汇对应的词汇情绪类型;
基于所述事件情绪类型、所述语义情绪类型和所述词汇情绪类型中的至少一种,确定所述情绪类型。
3.根据权利要求2所述的交互方法,其特征在于,所述基于所述事件情绪类型、所述语义情绪类型和所述词汇情绪类型中的至少一种,确定所述情绪类型,包括:
基于交互数据的行为情绪特征,确定交互情绪类型;
基于所述交互情绪类型,以及所述事件情绪类型、所述语义情绪类型和所述词汇情绪类型中的至少一种,确定所述情绪类型;
所述交互数据包括交互语音、交互图像和交互视频中的至少一种。
4.根据权利要求3所述的交互方法,其特征在于,所述行为情绪特征的确定步骤包括:
提取所述交互语音中的语气特征;
提取所述交互图像和/或所述交互视频中的表情特征和/或动作特征;
基于所述语气特征、所述表情特征和所述动作特征中的至少一种,确定所述行为情绪特征。
5.根据权利要求1至4中任一项所述的交互方法,其特征在于,所述基于所述情绪类型进行交互,包括:
生成用于确定所述情绪类型的交互信息并展示;
接收反馈信息,并在所述反馈信息指示确定所述情绪类型为当前情绪的情况下,基于所述情绪类型进行交互。
6.根据权利要求5所述的交互方法,其特征在于,所述接收反馈信息,之后还包括:
在所述反馈信息指示确定所述情绪类型非当前情绪的情况下,基于所述反馈信息更新所述情绪类型。
7.根据权利要求1至4中任一项所述的交互方法,其特征在于,所述基于所述情绪类型进行交互,包括:
基于所述情绪类型,确定情绪改善交互模式,所述情绪改善交互模式包括游戏交互模式和/或引导交互模式;
基于所述情绪改善交互模式进行交互。
8.一种交互装置,其特征在于,包括:
获取单元,获取交互文本;
确定情绪单元,基于所述交互文本中的情绪事件、所述交互文本的语义特征以及所述交互文本中的情绪词汇中的至少一种,确定情绪类型;
交互单元,基于所述情绪类型进行交互。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述交互方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述交互方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211735942.5A CN115982360A (zh) | 2022-12-30 | 2022-12-30 | 交互方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211735942.5A CN115982360A (zh) | 2022-12-30 | 2022-12-30 | 交互方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115982360A true CN115982360A (zh) | 2023-04-18 |
Family
ID=85959654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211735942.5A Pending CN115982360A (zh) | 2022-12-30 | 2022-12-30 | 交互方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115982360A (zh) |
-
2022
- 2022-12-30 CN CN202211735942.5A patent/CN115982360A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10977452B2 (en) | Multi-lingual virtual personal assistant | |
US20210081056A1 (en) | Vpa with integrated object recognition and facial expression recognition | |
US9501743B2 (en) | Method and apparatus for tailoring the output of an intelligent automated assistant to a user | |
CN110427617B (zh) | 推送信息的生成方法及装置 | |
WO2020024582A1 (zh) | 语音合成方法及相关设备 | |
US9734730B2 (en) | Multi-modal modeling of temporal interaction sequences | |
CN111833853B (zh) | 语音处理方法及装置、电子设备、计算机可读存储介质 | |
US11810337B2 (en) | Providing emotional care in a session | |
US20050144013A1 (en) | Conversation control apparatus, conversation control method, and programs therefor | |
CN113380271B (zh) | 情绪识别方法、系统、设备及介质 | |
CN114138960A (zh) | 用户意图识别方法、装置、设备及介质 | |
CN115982360A (zh) | 交互方法、装置、电子设备和存储介质 | |
JP7101357B2 (ja) | アンケート調査のためのシステム、プログラム、および方法 | |
CN110781327B (zh) | 图像搜索方法、装置、终端设备及存储介质 | |
Avci | A Pattern Mining Approach for Improving Speech Emotion Recognition | |
CN116226411B (zh) | 一种基于动画的互动项目的交互信息处理方法和装置 | |
CN115617976B (zh) | 问答方法、装置、电子设备和存储介质 | |
US20230377238A1 (en) | Autonomous animation in embodied agents | |
WO2022034922A1 (ja) | アンケート調査のためのシステム、プログラム、および方法 | |
US20240161737A1 (en) | Real-time natural language processing and fulfillment | |
WO2023118967A1 (en) | Apparatus and methods for assisting in reading | |
CN118014084A (zh) | 一种基于大语言模型的多模态交互方法 | |
Alshamsi | Real Time Facial Expression and Speech Emotion Recognition App Development on Smart Phones using Cloud Computing | |
Alshamsi | Real-Time Facial Expression and Speech Emotion Recognition App Development on Mobile Phones using Cloud Computing | |
CN117351535A (zh) | 文本驱动的数字人真实感表情生成方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |