CN113434647B - 一种人机交互方法、系统及存储介质 - Google Patents

一种人机交互方法、系统及存储介质 Download PDF

Info

Publication number
CN113434647B
CN113434647B CN202110679528.6A CN202110679528A CN113434647B CN 113434647 B CN113434647 B CN 113434647B CN 202110679528 A CN202110679528 A CN 202110679528A CN 113434647 B CN113434647 B CN 113434647B
Authority
CN
China
Prior art keywords
emotion
user
voice
text
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110679528.6A
Other languages
English (en)
Other versions
CN113434647A (zh
Inventor
简仁贤
李冠兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Emotibot Technologies Ltd
Original Assignee
Emotibot Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Emotibot Technologies Ltd filed Critical Emotibot Technologies Ltd
Priority to CN202110679528.6A priority Critical patent/CN113434647B/zh
Publication of CN113434647A publication Critical patent/CN113434647A/zh
Application granted granted Critical
Publication of CN113434647B publication Critical patent/CN113434647B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例公开了一种人机交互方法、系统及存储介质,方法包括:获取用户的人脸图像和语音输入;对所述人脸图像和语音输入分别进行处理,以获取用户面部情绪、用户语音情绪、用户文字情绪和语意意图;根据所述用户面部情绪、用户语音情绪、用户文字情绪确认用户情绪;根据所述用户情绪和语意意图生成回复文本。实施本申请的人机交互方法,机器人在与用户进行对话交流时,利用不同的模态组合进行互动,多方面考虑了用户面部情绪、用户语音情绪、用户文字情绪,最终确认出用户在进行当前对话时的用户情绪,根据用户情绪生成有情感的回覆文本对用户进行答复,进而从整体上提高人机互动的自然度与真实度,提高用户体验度。

Description

一种人机交互方法、系统及存储介质
技术领域
本发明涉及计算机软件技术领域,具体涉及一种人机交互方法、系统及存储介质。
背景技术
在现有的人工智能对话系统中,利用语料库以及模板来判断用户的对话内容,并生成回复文本进行回答。但对话系统该在与用户进行对话的过程中,没有结合用户表达的情绪来调整回答策略,给出符合用户当前情绪的回答。
在人与人的自然对话上,情绪是一个重要因素,人类会根据对方表达时的情绪来调整自己的回答策略,达到沟通的效果。
因此,现有技术中的缺陷是,在人工智能对话过程中,机器人不能结合用户情绪与用户进行交互,使机器人不能根据用户情绪给出符合该情绪下的回答,容易造成机器人与用户交流不自然,使用户体验度低。
发明内容
针对现有技术中的技术缺陷,本发明实施例的目的在于提供一种人机交互方法、系统及存储介质,以解决背景技术中所提出的技术问题。
为实现上述目的,第一方面,本发明实施例提供了一种人机交互方法,包括:
获取用户的人脸图像和语音输入;
对所述人脸图像和语音输入分别进行处理,以获取用户面部情绪、用户语音情绪、用户文字情绪和语意意图;
根据所述用户面部情绪、用户语音情绪、用户文字情绪确认用户情绪;
根据所述用户情绪和语意意图生成回复文本。
可选的,所述对所述人脸图像和语音输入分别进行处理,以获取用户面部情绪、用户语音情绪、用户文字情绪和语意意图,具体包括:
调用预设的面部情绪识别模型对所述人脸图像进行处理,获取所述用户面部情绪;
调用预设的语音特征提取模型提取所述语音输入的语音特征;
调用预设的语音情绪识别模型对所述语音特征进行处理,获取所述用户语音情绪;
调用预设的语音识别模型将所述语音输入转换为文本文字;
调用预设的文字情绪识别模型对所述文本文字进行处理,获取所述用户文字情绪;
调用预设的自然语言理解模型对所述文本文字进行处理,获取所述语意意图。
可选的,所述调用预设的面部情绪识别模型对所述人脸图像进行处理,获取所述用户面部情绪,具体包括:
所述面部情绪识别模型对所述人脸图像进行处理,对预设的各种面部情绪进行打分,其中,预设的面部情绪包括“中性”、“幸福”、“悲伤”、“惊讶”、“恐惧”、“厌恶”、“愤怒”、“轻蔑”、“困惑”;
将分值最高的面部情绪作为所述用户面部情绪。
可选的,所述调用预设的语音情绪识别模型对所述语音特征进行处理,获取所述用户语音情绪,具体包括:
所述语音情绪识别模型对所述语音特征进行处理,对预设的各种语音情绪进行打分,其中,预设的语音情绪包括:“中性”、“愤怒”;
将分值最高的语音情绪作为所述用户语音情绪。
可选的,所述调用预设的文字情绪识别模型对所述文本文字进行处理,获取所述用户文字情绪,具体包括:
所述文字情绪识别模型对所述文本文字进行处理,对预设的各种文字情绪进行打分,其中,预设的文字情绪包括:“中性”、“愤怒”、“幸福”、“悲伤”、“困惑”、“疲惫”、“焦虑”、“冷漠”;
将分值最高的文字情绪作为所述用户文字情绪。
可选的,每种面部情绪的分值取值范围为[0,1];
每种语音情绪的分值取值范围为[0,1];
每种文字情绪的分值取值范围为[0,1]。
可选的,根据所述用户面部情绪、用户语音情绪、用户文字情绪确认用户情绪,具体包括:
若用户面部情绪、用户语音情绪和用户文字情绪均为第一情绪,则将所述第一情绪作为所述用户情绪;或者,
若用户面部情绪、用户语音情绪和用户文字情绪中有两个是第二情绪、另一个是第三情绪,且所述第二情绪为“愤怒”、“幸福”或“悲伤”中的一种,则将所述第二情绪作为所述用户情绪;或者,
若用户面部情绪、用户语音情绪和用户文字情绪中有两个是第二情绪、另一个是第三情绪,且所述第二情绪为“中性”,则将所述第三情绪作为所述用户情绪;或者,
若用户面部情绪、用户语音情绪和用户文字情绪均不相同,且所述用户面部情绪不是“中性”,则将所述用户面部情绪作为所述用户情绪;或者,
若用户面部情绪、用户语音情绪和用户文字情绪均不相同,且所述用户面部情绪为“中性”,则比较所述用户语音情绪和用户文字情绪的分值大小,若所述用户语音情绪和用户文字情绪的分值大小相等,则将所述用户语音情绪作为所述用户情绪;若所述用户语音情绪和用户文字情绪的分值大小不同,将分值大的情绪作为所述用户情绪。
可选的,在获取用户的人脸图像和语音输入之后,所述方法还包括:
调用预设的声纹辨识模型对所述语音输入进行处理,获取用户身份特征;
响应符合用户身份特征的语音输入。
第二方面,本申请还提供了一种人机互动系统,包括处理器、输入设备、输出设备和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行如第一方面所述的方法。
第三方面,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如第一方面所述的方法。
本发明的有益效果体现在:
实施本申请的人机交互方法,机器人在与用户进行对话交流时,利用不同的模态组合进行互动,多方面考虑了用户面部情绪、用户语音情绪、用户文字情绪,最终确认出用户在进行当前对话时的用户情绪,根据用户情绪生成有情感的回覆文本对用户进行答复,进而从整体上提高人机互动的自然度与真实度,提高用户体验度。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。
图1是本发明实施例提供的人机交互方法的流程示意图;
图2是本发明实施例提供的人机交互装置的结构示意图;
图3是本发明实施例提供的人机交互系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
请参见图1,其示出了一种人机交互方法的方法流程图,该方法可以运行在机器人的处理器或者后台服务器中,使机器人能够更加自然地与用户进行人机交互对话,本实施例中,机器人可以是利用虚拟技术合成的虚拟机器人,也可以是具有实体的实物机器人。该机互动方法可以包括如下步骤:
S100:获取用户的人脸图像和语音输入。
用户想要与机器人进行对话时,会向机器人进行语言输入,或者机器人可以提示引导用户开始对话。本实施例中,可以通过麦克风采集用户的语音输入,通过摄像头采集用户的人脸图像并采集面部特征点。
S200:对所述人脸图像和语音输入分别进行处理,以获取用户面部情绪、用户语音情绪、用户文字情绪和语意意图。
在获取到用户的人脸图像和语音输入后,机器人的处理器或者后台服务器中会对采集的人脸图像和语音输入分别进行处理,具体包括:
S201:调用预设的面部情绪识别模型对所述人脸图像进行处理,获取所述用户面部情绪。
所述面部情绪识别模型由卷积神经网络模型训练得到。将人脸图像输入到所述面部情绪识别模型中,所述面部情绪识别模型对所述人脸图像进行处理后,对预设的各种面部情绪进行打分,其中,预设的面部情绪包括“中性”、“幸福”、“悲伤”、“惊讶”、“恐惧”、“厌恶”、“愤怒”、“轻蔑”、“困惑”,将分值最高的面部情绪作为所述用户面部情绪。
每种面部情绪的分值实质是用户为该种面部情绪的几率。本实施例中,每种面部情绪的分值取值范围为[0,1]。在一次面部情绪判断中,所有种类的面部情绪的分值之和为1,每种面部情绪的分值精确到小数点后5位,使判断更加精准。S202:调用预设的语音特征提取模型提取所述语音输入的语音特征。
所述语音特征提取模型由卷积神经网络模型训练得到。将语音输入输入到所述语音特征提取模型中,所述语音特征提取模型对所述语音输入进行处理后提取出语音特征。
S203:调用预设的语音情绪识别模型对所述语音特征进行处理,获取所述用户语音情绪。
所述语音情绪识别模型由卷积神经网络模型训练得到。将语音特征输入到所述语音情绪识别模型中,所述语音情绪识别模型对所述语音特征进行处理后,对预设的各种语音情绪进行打分,其中,预设的语音情绪包括:“中性”、“愤怒”;将分值最高的语音情绪作为所述用户语音情绪。
每种语音情绪的分值实质是用户为该种语音情绪的几率。本实施例中,每种语音情绪的分值取值范围为[0,1]。在一次语音情绪判断中,所有种类的语音情绪的分值之和为1,每种语音情绪的分值精确到小数点后5位,使判断更加精准。
S204:调用预设的语音识别模型将所述语音输入转换为文本文字。
语音识别模型利用语音识别技术将语音输入转换为文本文字,供后续处理。
S205:调用预设的文字情绪识别模型对所述文本文字进行处理,获取所述用户文字情绪。
所述文字情绪识别模型由卷积神经网络模型训练得到。将文本文字输入到所述文字情绪识别模型,所述文字情绪识别模型对输入的文本文字进行处理后,对预设的各种文字情绪进行打分,其中,预设的文字情绪包括:“中性”、“愤怒”、“幸福”、“悲伤”、“困惑”、“疲惫”、“焦虑”、“冷漠”;将分值最高的文字情绪作为所述用户文字情绪。
每种文字情绪的分值实质是用户为该种文字情绪的几率。本实施例中,每种文字情绪的分值取值范围为[0,1]。在一次文字情绪判断中,所有种类的文字情绪的分值之和为1,每种文字情绪的分值精确到小数点后5位,使判断更加精准。
S206:调用预设的自然语言理解模型对所述文本文字进行处理,获取所述语意意图。
自然语言理解模型利用自然语音理解技术对输入的文本文字进行处理,获取用户的语意意图。
S300:根据所述用户面部情绪、用户语音情绪、用户文字情绪确认用户情绪。
由于户面部情绪、用户语音情绪、用户文字情绪三种情绪可以相同也可以各不相同,或者其中有两种情绪相同,需要根据这三种情绪对用户情绪做出判断。
具体的,根据所述用户面部情绪、用户语音情绪、用户文字情绪确认用户情绪,可以包括以下几种情况:
第一种:若用户面部情绪、用户语音情绪和用户文字情绪均为第一情绪,则将所述第一情绪作为所述用户情绪。
例如,若用户面部情绪、用户语音情绪和用户文字情绪这三种情绪均为“中性”,或者这三种情绪均为“愤怒”,那么可以确定用户情绪也为“中性”或者“愤怒”。
第二种:若用户面部情绪、用户语音情绪和用户文字情绪中有两个是第二情绪、另一个是第三情绪,且所述第二情绪为“愤怒”、“幸福”或“悲伤”中的一种,则将所述第二情绪作为所述用户情绪。
第三种:若用户面部情绪、用户语音情绪和用户文字情绪中有两个是第二情绪、另一个是第三情绪,且所述第二情绪为“中性”,则将所述第三情绪作为所述用户情绪。
例如,用户面部情绪、用户语音情绪均为“中性”,用户文字情绪为“幸福”,则将“幸福”作为用户情绪。
第四种:若用户面部情绪、用户语音情绪和用户文字情绪均不相同,且所述用户面部情绪不是“中性”,则将所述用户面部情绪作为所述用户情绪。
第五种:若用户面部情绪、用户语音情绪和用户文字情绪均不相同,且所述用户面部情绪为“中性”,则比较所述用户语音情绪和用户文字情绪的分值大小,若所述用户语音情绪和用户文字情绪的分值大小相等,则将所述用户语音情绪作为所述用户情绪;若所述用户语音情绪和用户文字情绪的分值大小不同,将分值大的情绪作为所述用户情绪。
S400:根据所述用户情绪和语意意图生成回复文本。
在确认用户情绪和语意意图后,调用对话管理模块,对话管理模块根据对话历史信息、用户情绪和语意意图生成有情感的回覆文本对用户进行答复。
由于在用户与机器人进行交互的过程中,有可能会有其他人发出的杂音干扰人机对话的正常进行,因此,机器人在与用户进行语音交互的过程中,需要确认用户的身份,避免其他人的声音对语音交互造成干扰。
因此,可选的,在获取用户的人脸图像和语音输入之后,所述方法还包括:
调用预设的声纹辨识模型对所述语音输入进行处理,获取用户身份特征;
响应符合用户身份特征的语音输入。
由于每个人的声纹特征不同,通过声纹辨识模型识别出用户的声纹特征后,将该声纹特征作为用户的身份特征,确保对话管理模块每次回复的都是用户的语音输入,这样就能保住机器人在嘈杂的环境中也能与用户进行正常语音沟通和交互。
实施本申请的人机交互方法,机器人在与用户进行对话交流时,利用不同的模态组合进行互动,多方面考虑了用户面部情绪、用户语音情绪、用户文字情绪,最终确认出用户在进行当前对话时的用户情绪,根据用户情绪生成有情感的回覆文本对用户进行答复,进而从整体上提高人机互动的自然度与真实度,提高用户体验度。
基于相同的发明构思,本申请实施例还提供了一种人机交互装置。如图2所示,该人机交互装置可以包括:
获取模块301,用于获取用户的人脸图像和语音输入;
处理模块302,用于对所述人脸图像和语音输入分别进行处理,以获取用户面部情绪、用户语音情绪、用户文字情绪和语意意图;
情绪确认模块303,用于根据所述用户面部情绪、用户语音情绪、用户文字情绪确认用户情绪;以及,
回复模块304,用于根据所述用户情绪和语意意图生成回复文本。
本申请的人机交互装置在与用户进行对话交流时,利用不同的模态组合进行互动,多方面考虑了用户面部情绪、用户语音情绪、用户文字情绪,最终确认出用户在进行当前对话时的用户情绪,根据用户情绪生成有情感的回覆文本对用户进行答复,进而从整体上提高人机互动的自然度与真实度,提高用户体验度。
基于相同的发明构思,本发明实施例提供一种人机交互系统。如图3所示,该系统可以包括:一个或多个处理器101、一个或多个输入设备102、一个或多个输出设备103和存储器104,上述处理器101、输入设备102、输出设备103和存储器104通过总线105相互连接。存储器104用于存储计算机程序,所述计算机程序包括程序指令,所述处理器101被配置用于调用所述程序指令执行人机交互方法实施例部分的方法。
应当理解,在本发明实施例中,所称处理器101可以是中央处理单元(CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
输入设备102可以包括键盘等,输出设备103可以包括显示器(LCD等)、扬声器等。
该存储器104可以包括只读存储器和随机存取存储器,并向处理器101提供指令和数据。存储器104的一部分还可以包括非易失性随机存取存储器。例如,存储器104还可以存储设备类型的信息。
具体实现中,本发明实施例中所描述的处理器101、输入设备102、输出设备103可执行本发明实施例提供的人机交互方法的实施例中所描述的实现方式,在此不再赘述。
需要说明的是,关于人机交互系统的具体工作流程,可参考前述方法实施例部分,在此不再赘述。
进一步地,本发明实施例还提供了一种可读存储介质,存储有计算机程序,所述计算机程序包括程序指令,所述程序指令被处理器执行时实现:上述人机交互方法。
所述计算机可读存储介质可以是前述实施例所述的后台服务器的内部存储单元,例如系统的硬盘或内存。所述计算机可读存储介质也可以是所述系统的外部存储设备,例如所述系统上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,所述计算机可读存储介质还可以既包括所述系统的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序以及所述系统所需的其他程序和数据。所述计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (4)

1.一种人机交互方法,其特征在于,包括:
获取用户的人脸图像和语音输入;
对所述人脸图像和语音输入分别进行处理,以获取用户面部情绪、用户语音情绪、用户文字情绪和语意意图;
根据所述用户面部情绪、用户语音情绪、用户文字情绪确认用户情绪;
根据所述用户情绪和语意意图生成回复文本;
其中,根据所述用户面部情绪、用户语音情绪、用户文字情绪确认用户情绪,具体包括:
若用户面部情绪、用户语音情绪和用户文字情绪均为第一情绪,则将所述第一情绪作为所述用户情绪;或者,
若用户面部情绪、用户语音情绪和用户文字情绪中有两个是第二情绪、另一个是第三情绪,且所述第二情绪为“愤怒”、“幸福”或“悲伤”中的一种,则将所述第二情绪作为所述用户情绪;或者,
若用户面部情绪、用户语音情绪和用户文字情绪中有两个是第二情绪、另一个是第三情绪,且所述第二情绪为“中性”,则将所述第三情绪作为所述用户情绪;或者,
若用户面部情绪、用户语音情绪和用户文字情绪均不相同,且所述用户面部情绪不是“中性”,则将所述用户面部情绪作为所述用户情绪;或者,
若用户面部情绪、用户语音情绪和用户文字情绪均不相同,且所述用户面部情绪为“中性”,则比较所述用户语音情绪和用户文字情绪的分值大小,若所述用户语音情绪和用户文字情绪的分值大小相等,则将所述用户语音情绪作为所述用户情绪;若所述用户语音情绪和用户文字情绪的分值大小不同,将分值大的情绪作为所述用户情绪;
所述对所述人脸图像和语音输入分别进行处理,以获取用户面部情绪、用户语音情绪、用户文字情绪和语意意图,具体包括:
调用预设的面部情绪识别模型对所述人脸图像进行处理,获取所述用户面部情绪;
调用预设的语音特征提取模型提取所述语音输入的语音特征;
调用预设的语音情绪识别模型对所述语音特征进行处理,获取所述用户语音情绪;
调用预设的语音识别模型将所述语音输入转换为文本文字;
调用预设的文字情绪识别模型对所述文本文字进行处理,获取所述用户文字情绪;
调用预设的自然语言理解模型对所述文本文字进行处理,获取所述语意意图;
所述调用预设的面部情绪识别模型对所述人脸图像进行处理,获取所述用户面部情绪,具体包括:
所述面部情绪识别模型对所述人脸图像进行处理,对预设的各种面部情绪进行打分,其中,预设的面部情绪包括“中性”、“幸福”、“悲伤”、“惊讶”、“恐惧”、“厌恶”、“愤怒”、“轻蔑”、“困惑”;
将分值最高的面部情绪作为所述用户面部情绪;
每种面部情绪的分值取值范围为[0,1];在一次面部情绪判断中,所有种类的面部情绪的分值之和为1,每种面部情绪的分值精确到小数点后5位;
所述调用预设的语音情绪识别模型对所述语音特征进行处理,获取所述用户语音情绪,具体包括:
所述语音情绪识别模型对所述语音特征进行处理,对预设的各种语音情绪进行打分,其中,预设的语音情绪包括:“中性”、“愤怒”;
将分值最高的语音情绪作为所述用户语音情绪;
每种语音情绪的分值取值范围为[0,1];在一次语音情绪判断中,所有种类的语音情绪的分值之和为1,每种语音情绪的分值精确到小数点后5位;
所述调用预设的文字情绪识别模型对所述文本文字进行处理,获取所述用户文字情绪,具体包括:
所述文字情绪识别模型对所述文本文字进行处理,对预设的各种文字情绪进行打分,其中,预设的文字情绪包括:“中性”、“愤怒”、“幸福”、“悲伤”、“困惑”、“疲惫”、“焦虑”、“冷漠”;
将分值最高的文字情绪作为所述用户文字情绪;
每种文字情绪的分值取值范围为[0,1];在一次文字情绪判断中,所有种类的文字情绪的分值之和为1,每种文字情绪的分值精确到小数点后5位。
2.根据权利要求1所述的一种人机交互方法,其特征在于,在获取用户的人脸图像和语音输入之后,所述方法还包括:
调用预设的声纹辨识模型对所述语音输入进行处理,获取用户身份特征;
响应符合用户身份特征的语音输入。
3.一种人机互动系统,其特征在于,包括处理器、输入设备、输出设备和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行如权利要求1-2任一项所述的方法。
4.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如权利要求1-2任一项所述的方法。
CN202110679528.6A 2021-06-18 2021-06-18 一种人机交互方法、系统及存储介质 Active CN113434647B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110679528.6A CN113434647B (zh) 2021-06-18 2021-06-18 一种人机交互方法、系统及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110679528.6A CN113434647B (zh) 2021-06-18 2021-06-18 一种人机交互方法、系统及存储介质

Publications (2)

Publication Number Publication Date
CN113434647A CN113434647A (zh) 2021-09-24
CN113434647B true CN113434647B (zh) 2024-01-12

Family

ID=77756595

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110679528.6A Active CN113434647B (zh) 2021-06-18 2021-06-18 一种人机交互方法、系统及存储介质

Country Status (1)

Country Link
CN (1) CN113434647B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113808621A (zh) * 2021-09-13 2021-12-17 地平线(上海)人工智能技术有限公司 在人机交互中对语音对话进行标注的方法和装置、设备和介质
CN114360535B (zh) * 2021-12-24 2023-01-31 北京百度网讯科技有限公司 语音对话的生成方法、装置、电子设备及存储介质
CN115904075B (zh) * 2022-11-28 2024-01-02 中国汽车技术研究中心有限公司 车辆配置改进方法、系统、设备和存储介质
CN116737883A (zh) * 2023-08-15 2023-09-12 科大讯飞股份有限公司 人机交互方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106537901A (zh) * 2014-03-26 2017-03-22 马克·W·帕布利科弗 用于提供定制的娱乐内容的计算机处理方法和系统
CN106650621A (zh) * 2016-11-18 2017-05-10 广东技术师范学院 一种基于深度学习的情绪识别方法及系统
CN109308466A (zh) * 2018-09-18 2019-02-05 宁波众鑫网络科技股份有限公司 一种对交互语言进行情绪识别的方法
CN110262665A (zh) * 2019-06-26 2019-09-20 北京百度网讯科技有限公司 用于输出信息的方法和装置
WO2020029406A1 (zh) * 2018-08-07 2020-02-13 平安科技(深圳)有限公司 人脸情绪识别方法、装置、计算机设备及存储介质
CN110807388A (zh) * 2019-10-25 2020-02-18 深圳追一科技有限公司 交互方法、装置、终端设备及存储介质
CN111368609A (zh) * 2018-12-26 2020-07-03 深圳Tcl新技术有限公司 基于情绪引擎技术的语音交互方法、智能终端及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106537901A (zh) * 2014-03-26 2017-03-22 马克·W·帕布利科弗 用于提供定制的娱乐内容的计算机处理方法和系统
CN106650621A (zh) * 2016-11-18 2017-05-10 广东技术师范学院 一种基于深度学习的情绪识别方法及系统
WO2020029406A1 (zh) * 2018-08-07 2020-02-13 平安科技(深圳)有限公司 人脸情绪识别方法、装置、计算机设备及存储介质
CN109308466A (zh) * 2018-09-18 2019-02-05 宁波众鑫网络科技股份有限公司 一种对交互语言进行情绪识别的方法
CN111368609A (zh) * 2018-12-26 2020-07-03 深圳Tcl新技术有限公司 基于情绪引擎技术的语音交互方法、智能终端及存储介质
CN110262665A (zh) * 2019-06-26 2019-09-20 北京百度网讯科技有限公司 用于输出信息的方法和装置
CN110807388A (zh) * 2019-10-25 2020-02-18 深圳追一科技有限公司 交互方法、装置、终端设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Kiyhoshi Nosu ; Tomoya Kurokawa ; Hiroto Horita ; Yoshitarou Ohhazama ; Hiroki Takeda.Real Time Emotion-Diagnosis of Video Game Players from their Facial Expressions and its Applications to Voice Feed-Backing to Game Players.IEEE.2007,全文. *
基于同步性脑网络的支持张量机情绪分类研究;黄丽亚;苏义博;马捃凯;丁威威;宋传承;;电子与信息学报(第10期);全文 *
朱频频.《智能客户服务技术与应用》.2019,第58页. *

Also Published As

Publication number Publication date
CN113434647A (zh) 2021-09-24

Similar Documents

Publication Publication Date Title
CN113434647B (zh) 一种人机交互方法、系统及存储介质
CN111368609B (zh) 基于情绪引擎技术的语音交互方法、智能终端及存储介质
US10438586B2 (en) Voice dialog device and voice dialog method
CN107977183A (zh) 语音交互方法、装置及设备
CN108447471A (zh) 语音识别方法及语音识别装置
KR20200004826A (ko) 음성 대화 기반 콘텍스트 획득 방법 및 기기
CN109726265A (zh) 辅助聊天的信息处理方法、设备及计算机可读存储介质
CN110890088B (zh) 语音信息反馈方法、装置、计算机设备和存储介质
CN113094478B (zh) 表情回复方法、装置、设备及存储介质
JP5083033B2 (ja) 感情推定装置及びプログラム
CN113297366A (zh) 多轮对话的情绪识别模型训练方法、装置、设备及介质
CN113327620A (zh) 声纹识别的方法和装置
CN112836521A (zh) 问答匹配方法、装置、计算机设备及存储介质
CN112989008A (zh) 一种多轮对话改写方法、装置和电子设备
CN112632248A (zh) 问答方法、装置、计算机设备和存储介质
CN115174748A (zh) 基于语义识别的语音外呼方法、装置、设备及介质
CN113051384A (zh) 基于对话的用户画像抽取方法及相关装置
CN110503943A (zh) 一种语音交互方法以及语音交互系统
CN111145748B (zh) 音频识别置信度确定方法、装置、设备及存储介质
CN111898363A (zh) 文本长难句的压缩方法、装置、计算机设备及存储介质
CN109344388B (zh) 一种垃圾评论识别方法、装置及计算机可读存储介质
CN115602160A (zh) 基于语音识别的业务办理方法、装置及电子设备
CN111625636B (zh) 一种人机对话的拒绝识别方法、装置、设备、介质
CN114067362A (zh) 基于神经网络模型的手语识别方法、装置、设备及介质
CN112911334A (zh) 基于音视频数据的情绪识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant