CN106055662A - 基于情感的智能对话方法及系统 - Google Patents
基于情感的智能对话方法及系统 Download PDFInfo
- Publication number
- CN106055662A CN106055662A CN201610388800.4A CN201610388800A CN106055662A CN 106055662 A CN106055662 A CN 106055662A CN 201610388800 A CN201610388800 A CN 201610388800A CN 106055662 A CN106055662 A CN 106055662A
- Authority
- CN
- China
- Prior art keywords
- emotion
- dialogue
- response
- user
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
Abstract
本发明提供一种基于情感的智能对话方法,首先获取用户输入的对话,以及识别用户输入所述对话时的第一情感;然后计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;再根据所述第二情感或所述第三情感查询与所述用户输入的对话相匹配的应答对话;最后输出所述应答对话。相较于现有技术,本发明充分考虑了情感在对话中的重要作用,从而能够根据用户的情感选择合适的应答对话,使人机对话过程顺畅、协调,可以有效提升人机对话的准确率,提高用户体验。
Description
技术领域
本发明涉及人机对话技术领域,具体涉及一种基于情感的智能对话方法和一种基于情感的智能对话系统。
背景技术
人机对话系统是当前研究的热点问题,其主要的目标是能够实现机器对自然语言的理解并像“人”一样和人进行对话。人机对话系统具有非常广泛的应用前景,如各种机器人的人机界面、智能客服系统、个人助理等。
现有技术中人机对话的实现主要是利用语料库以及模板来判断用户的对话,进而选取相应的应答对话进行回应。
由于在人与人的自然对话中,情感是一个重要因素,人类会根据对方所表达的情感来调整自己的对话策略,达到沟通的效果。但现有技术中人机对话系统只是根据用户对话的字面含义搜索相关的应答对话,不能根据用户的情感选择合适的应答对话,从而导致人机对话沟通不畅,人机对话准确率较低,用户体验较差。
发明内容
针对现有技术中的缺陷,本发明提供一种基于情感的智能对话方法及系统,以解决现有人机对话系统准确率低、用户体验较差的问题。
第一方面,本发明提供的一种基于情感的智能对话方法,包括:
获取用户输入的对话;
识别用户输入所述对话时的第一情感;
计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;
根据所述第二情感或所述第三情感查询与所述用户输入的对话相匹配的应答对话;
输出所述应答对话。
可选的,所述识别用户输入所述对话时的第一情感,包括:
通过以下至少一种方式提取用户输入所述对话时的至少一种情感特征:
采用图像识别技术提取用户输入所述对话时的表情情感特征;
采用语音识别技术提取用户通过语音输入所述对话时的语音情感特征;
采用文字分析技术提取用户输入的所述对话对应的文本对话的文字情感特征;
将用户输入的上一句对话的情感特征作为用户输入所述对话时的情感特征;
根据提取获得的至少一种情感特征识别用户输入所述对话时的第一情感。
可选的,所述根据提取获得的至少一种情感特征识别用户输入所述对话时的第一情感,包括:
将提取获得的至少一种情感特征输入预先训练好的情感识别神经网络模型中,计算用户输入所述对话时的第一情感。
可选的,所述计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感,包括:
从预设的对话情感映射表中查询与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;和/或
将所述第一情感输入预先训练好的情感匹配神经网络模型中,计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感。
可选的,所述根据所述第二情感或所述第三情感查询与所述用户输入的对话相匹配的应答对话,包括:
在预设的应答对话数据库中查询与所述用户输入的对话对应的多条待选应答对话,其中,每条待选应答对话都有对应的情感标记;
根据所述情感标记,利用所述第二情感从所述多条待选应答对话中筛选出适合的待选应答对话,将筛选出的待选应答对话作为与所述用户输入的对话相匹配的应答对话;
或者
根据所述情感标记,利用所述第三情感从所述多条待选应答对话中过滤掉不适合的待选应答对话,将剩余的待选应答对话作为与所述用户输入的对话相匹配的应答对话。
第二方面,本发明提供的一种基于情感的智能对话系统,包括:
会话获取模块,用于获取用户输入的对话;
第一情感识别模块,用于识别用户输入所述对话时的第一情感;
第二情感计算模块,用于计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;
应答对话查询模块,用于根据所述第二情感或所述第三情感查询与所述用户输入的对话相匹配的应答对话;
应答对话输出模块,用于输出所述应答对话。
可选的,所述第一情感识别模块,包括:
情感特征提取单元,用于通过以下至少一种方式提取用户输入所述对话时的至少一种情感特征:
采用图像识别技术提取用户输入所述对话时的表情情感特征;
采用语音识别技术提取用户通过语音输入所述对话时的语音情感特征;
采用文字分析技术提取用户输入的所述对话对应的文本对话的文字情感特征;
将用户输入的上一句对话的情感特征作为用户输入所述对话时的情感特征;
第一情感识别单元,用于根据提取获得的至少一种情感特征识别用户输入所述对话时的第一情感。
可选的,所述第一情感识别单元,包括:
第一情感神经网络识别子单元,用于将提取获得的至少一种情感特征输入预先训练好的情感识别神经网络模型中,计算用户输入所述对话时的第一情感。
可选的,所述第二情感计算模块,包括:
映射表查询单元,用于从预设的对话情感映射表中查询与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;
和/或
第二情感神经网络匹配单元,用于将所述第一情感输入预先训练好的情感匹配神经网络模型中,计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感。
可选的,所述应答对话查询模块,包括:
待选应答对话查询单元,用于在预设的应答对话数据库中查询与所述用户输入的对话对应的多条待选应答对话,其中,每条待选应答对话都有对应的情感标记;
应答对话选择单元,用于根据所述情感标记,利用所述第二情感从所述多条待选应答对话中筛选出适合的待选应答对话,将筛选出的待选应答对话作为与所述用户输入的对话相匹配的应答对话;或者根据所述情感标记,利用所述第三情感从所述多条待选应答对话中过滤掉不适合的待选应答对话,将剩余的待选应答对话作为与所述用户输入的对话相匹配的应答对话。
由上述技术方案可知,本发明提供的一种基于情感的智能对话方法,首先获取用户输入的对话,以及识别用户输入所述对话时的第一情感;然后计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;再根据所述第二情感或所述第三情感查询与所述用户输入的对话相匹配的应答对话;最后输出所述应答对话。相较于现有技术,本发明利用情感识别技术识别用户输入对话时的第一情感,并计算出与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感,进而根据所述第二情感或所述第三情感选择与用户输入的对话相匹配的应答对话与用户进行对话,本方法充分考虑了情感在对话中的重要作用,从而能够根据用户的情感选择合适的应答对话,使人机对话过程顺畅、协调,可以有效提升人机对话的准确率,提高用户体验。
本发明提供的一种基于情感的智能对话系统,与上述基于情感的智能对话方法出于相同的发明构思,具有相同的有益效果。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1示出了本发明第一实施例所提供的一种基于情感的智能对话方法的流程图;
图2示出了本发明第二实施例所提供的一种基于情感的智能对话系统的示意图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只是作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
鉴于现有人机对话系统只是根据用户对话的字面含义搜索相关的应答对话,不能根据用户的情感选择合适的应答对话,从而导致人机对话沟通不畅,人机对话准确率较低,用户体验较差的问题,本发明提供一种基于情感的智能对话方法和一种基于情感的智能对话系统,以解决上述问题。下面结合附图对本发明的实施例进行说明。
图1示出了本发明第一实施例所提供的一种基于情感的智能对话方法的流程图。如图1所示,本发明第一实施例提供的一种基于情感的智能对话方法包括以下步骤:
步骤S101:获取用户输入的对话。
本步骤中,所述用户输入的对话可以是语音对话,也可以是文本对话,由于机器是依据文本对话进行对话的,因此,若所述用户输入的对话为文本对话,本步骤直接获取即可;若所述用户输入的对话为语音对话,在获取所述语音对话后,还需要将所述语音对话采用语音转文字引擎转换为文本格式的对话,以进行后续应答处理。
步骤S102:识别用户输入所述对话时的第一情感。
本步骤在实施时,可以通过从用户的表情、语音、输入的文本对话中提取出情感特征,进而根据所述情感特征识别用户输入所述对话时的第一情感。
例如,可以通过摄像头采集用户的面部表情图片,然后利用图像识别技术识别出用户的表情情感特征,如皱眉、嘴角上翘、眼睛睁大、嘟嘴等,继而根据所述表情情感特征识别出用户的第一情感,如皱眉对应的第一情感为烦恼、嘴角上翘对应的第一情感为开心等;又如,在用户通过语音输入所述对话时,还可以利用语音识别技术识别出用户的语音情感特征,如音量的变化、音调的高低、语速的快慢等,进而推断出用户的第一情感;再如,在用户通过文本形式输入对话时,还可以利用文字分析技术,从文本对话中识别出文字情感特征,如对话中是否含有“不高兴”、“开心”、“难过”等表达情感的文字情感特征,进而推断出用户的第一情感;另外,在用户上一句对话的情感特征明显而本句对话情感特征不明显时,也可以将用户输入的上一句对话的情感特征作为用户输入所述对话时的情感特征,以推断出用户的第一情感。
需要说明的是,以上几种方式可以择一使用,也可以组合使用,例如,可以同时采用表情情感特征和语音情感特征对用户的第一情感进行综合识别。
其中,根据情感特征识别第一情感的方式,可以是预先设置一情感特征与情感映射表,根据各情感特征查表识别出第一情感,也可以预先利用大量的已区分情感的情感特征样本训练一情感识别神经网络模型,然后将提取获得的至少一种情感特征输入预先训练好的情感识别神经网络模型中,计算用户输入所述对话时的第一情感,其均在本发明的保护范围之内。
其中,所述神经网络模型可以是由以下至少一种神经网络层组成的:
长短时记忆神经网络层、卷积神经网络层、线性神经网络层、逻辑回归神经网络层和柔性化最大值回归神经网络层。
在本申请提供的一个实施例中,所述识别用户输入所述对话时的第一情感,包括:
通过以下至少一种方式提取用户输入所述对话时的至少一种情感特征:
采用图像识别技术提取用户输入所述对话时的表情情感特征;
采用语音识别技术提取用户通过语音输入所述对话时的语音情感特征;
采用文字分析技术提取用户输入的所述对话对应的文本对话的文字情感特征;
将用户输入的上一句对话的情感特征作为用户输入所述对话时的情感特征;
根据提取获得的至少一种情感特征识别用户输入所述对话时的第一情感。
在本申请提供的一个实施例中,所述根据提取获得的至少一种情感特征识别用户输入所述对话时的第一情感,包括:
将提取获得的至少一种情感特征输入预先训练好的情感识别神经网络模型中,计算用户输入所述对话时的第一情感。
步骤S103:计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感。
本步骤,可以根据用户的第一情感计算与其匹配的适用于应答对话的第二情感,以便于后续根据所述第二情感筛选出合适的应答对话,所述第二情感与所述第一情感可能一致,如都为“高兴”或都为“难过”,以使对话氛围和谐一致,所述第二情感也可以结合实际情况与所述第一情感不一致,如在客服应答系统中,用户的情感为“愤怒”,那与其匹配的第二情感应该是“平和”或“饱含歉意”的,等等。
此外,本步骤也可以根据用户的第一情感计算与其排斥的不适用于应答对话的第三情感,以便于后续根据所述第三情感过滤掉不合适的应答对话,从而筛选出合适的应答对话,例如,用户的第一情感为“高兴”,与其排斥的不适用于应答对话的第三情感可能是“愤怒”、“悲伤”等情感,后续步骤中即可过滤掉带有“愤怒”“悲伤”等情感标记的应答对话。
在具体实施时,所述计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感,可以是从预设的对话情感映射表中查询与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;也可以是将所述第一情感输入预先训练好的情感匹配神经网络模型中,计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;还可以是上述两种方式综合使用,其均在本发明的保护范围之内。
步骤S104:根据所述第二情感或所述第三情感查询与所述用户输入的对话相匹配的应答对话。
在获得与用户的第一情感相匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感后,即可根据所述第二情感或所述第三情感查询与所述用户输入的对话相匹配的应答对话,本步骤在实施时,可以是首先在预设的应答对话数据库中查询与所述用户输入的对话对应的多条待选应答对话,其中,每条待选应答对话都有对应的情感标记;然后根据所述情感标记,利用所述第二情感从所述多条待选应答对话中筛选出适合的待选应答对话,将筛选出的待选应答对话作为与所述用户输入的对话相匹配的应答对话;或者根据所述情感标记,利用所述第三情感从所述多条待选应答对话中过滤掉不适合的待选应答对话,将剩余的待选应答对话作为与所述用户输入的对话相匹配的应答对话。
步骤S105:输出所述应答对话。
本步骤,可以直接以文本形式输出所述应答对话,考虑到语音对话的情形,在本发明提供的一个实施例中,所述输出所述应答对话,包括:
将所述应答对话采用文字转语音引擎转换为应答对话音频;
播放所述应答对话音频。
至此,通过步骤S101至步骤S105,完成了本发明第一实施例所提供的一种基于情感的智能对话方法的流程。相较于现有技术,本发明利用情感识别技术识别用户输入对话时的第一情感,并计算出与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感,进而根据所述第二情感或所述第三情感选择与用户输入的对话相匹配的应答对话与用户进行对话,本方法充分考虑了情感在对话中的重要作用,从而能够根据用户的情感选择合适的应答对话,使人机对话过程顺畅、协调,可以有效提升人机对话的准确率,提高用户体验。
在上述的第一实施例中,提供了一种基于情感的智能对话方法,与之相对应的,本申请还提供一种基于情感的智能对话系统。请参考图2,其为本发明第二实施例提供的一种基于情感的智能对话系统的示意图。由于系统实施例基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。下述描述的系统实施例仅仅是示意性的。
本发明第二实施例提供的一种基于情感的智能对话系统,包括:
会话获取模块101,用于获取用户输入的对话;
第一情感识别模块102,用于识别用户输入所述对话时的第一情感;
第二情感计算模块103,用于计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;
应答对话查询模块104,用于根据所述第二情感或所述第三情感查询与所述用户输入的对话相匹配的应答对话;
应答对话输出模块105,用于输出所述应答对话。
在本发明提供的一个实施例中,所述第一情感识别模块102,包括:
情感特征提取单元,用于通过以下至少一种方式提取用户输入所述对话时的至少一种情感特征:
采用图像识别技术提取用户输入所述对话时的表情情感特征;
采用语音识别技术提取用户通过语音输入所述对话时的语音情感特征;
采用文字分析技术提取用户输入的所述对话对应的文本对话的文字情感特征;
将用户输入的上一句对话的情感特征作为用户输入所述对话时的情感特征;
第一情感识别单元,用于根据提取获得的至少一种情感特征识别用户输入所述对话时的第一情感。
在本发明提供的一个实施例中,所述第一情感识别单元,包括:
第一情感神经网络识别子单元,用于将提取获得的至少一种情感特征输入预先训练好的情感识别神经网络模型中,计算用户输入所述对话时的第一情感。
在本发明提供的一个实施例中,所述第二情感计算模块103,包括:
映射表查询单元,用于从预设的对话情感映射表中查询与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;
和/或
第二情感神经网络匹配单元,用于将所述第一情感输入预先训练好的情感匹配神经网络模型中,计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感。
在本发明提供的一个实施例中,所述应答对话查询模块104,包括:
待选应答对话查询单元,用于在预设的应答对话数据库中查询与所述用户输入的对话对应的多条待选应答对话,其中,每条待选应答对话都有对应的情感标记;
应答对话选择单元,用于根据所述情感标记,利用所述第二情感从所述多条待选应答对话中筛选出适合的待选应答对话,将筛选出的待选应答对话作为与所述用户输入的对话相匹配的应答对话;或者根据所述情感标记,利用所述第三情感从所述多条待选应答对话中过滤掉不适合的待选应答对话,将剩余的待选应答对话作为与所述用户输入的对话相匹配的应答对话。
以上,为本发明第二实施例提供的一种基于情感的智能对话系统的实施例说明。
本发明提供的一种基于情感的智能对话系统与上述基于情感的智能对话方法出于相同的发明构思,具有相同的有益效果,此处不再赘述。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
需要说明的是,附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本发明实施例所提供的基于情感的智能对话系统可以是计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。
Claims (10)
1.一种基于情感的智能对话方法,其特征在于,包括:
获取用户输入的对话;
识别用户输入所述对话时的第一情感;
计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;
根据所述第二情感或所述第三情感查询与所述用户输入的对话相匹配的应答对话;
输出所述应答对话。
2.根据权利要求1所述的基于情感的智能对话方法,其特征在于,所述识别用户输入所述对话时的第一情感,包括:
通过以下至少一种方式提取用户输入所述对话时的至少一种情感特征:
采用图像识别技术提取用户输入所述对话时的表情情感特征;
采用语音识别技术提取用户通过语音输入所述对话时的语音情感特征;
采用文字分析技术提取用户输入的所述对话对应的文本对话的文字情感特征;
将用户输入的上一句对话的情感特征作为用户输入所述对话时的情感特征;
根据提取获得的至少一种情感特征识别用户输入所述对话时的第一情感。
3.根据权利要求1所述的基于情感的智能对话方法,其特征在于,所述根据提取获得的至少一种情感特征识别用户输入所述对话时的第一情感,包括:
将提取获得的至少一种情感特征输入预先训练好的情感识别神经网络模型中,计算用户输入所述对话时的第一情感。
4.根据权利要求1所述的基于情感的智能对话方法,其特征在于,所述计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感,包括:
从预设的对话情感映射表中查询与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;
和/或
将所述第一情感输入预先训练好的情感匹配神经网络模型中,计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感。
5.根据权利要求1所述的基于情感的智能对话方法,其特征在于,所述根据所述第二情感或所述第三情感查询与所述用户输入的对话相匹配的应答对话,包括:
在预设的应答对话数据库中查询与所述用户输入的对话对应的多条待选应答对话,其中,每条待选应答对话都有对应的情感标记;
根据所述情感标记,利用所述第二情感从所述多条待选应答对话中筛选出适合的待选应答对话,将筛选出的待选应答对话作为与所述用户输入的对话相匹配的应答对话;
或者
根据所述情感标记,利用所述第三情感从所述多条待选应答对话中过滤掉不适合的待选应答对话,将剩余的待选应答对话作为与所述用户输入的对话相匹配的应答对话。
6.一种基于情感的智能对话系统,其特征在于,包括:
会话获取模块,用于获取用户输入的对话;
第一情感识别模块,用于识别用户输入所述对话时的第一情感;
第二情感计算模块,用于计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;
应答对话查询模块,用于根据所述第二情感或所述第三情感查询与所述用户输入的对话相匹配的应答对话;
应答对话输出模块,用于输出所述应答对话。
7.根据权利要求6所述的基于情感的智能对话系统,其特征在于,所述第一情感识别模块,包括:
情感特征提取单元,用于通过以下至少一种方式提取用户输入所述对话时的至少一种情感特征:
采用图像识别技术提取用户输入所述对话时的表情情感特征;
采用语音识别技术提取用户通过语音输入所述对话时的语音情感特征;
采用文字分析技术提取用户输入的所述对话对应的文本对话的文字情感特征;
将用户输入的上一句对话的情感特征作为用户输入所述对话时的情感特征;
第一情感识别单元,用于根据提取获得的至少一种情感特征识别用户输入所述对话时的第一情感。
8.根据权利要求7所述的基于情感的智能对话系统,其特征在于,所述第一情感识别单元,包括:
第一情感神经网络识别子单元,用于将提取获得的至少一种情感特征输入预先训练好的情感识别神经网络模型中,计算用户输入所述对话时的第一情感。
9.根据权利要求6所述的基于情感的智能对话系统,其特征在于,所述第二情感计算模块,包括:
映射表查询单元,用于从预设的对话情感映射表中查询与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感;
和/或
第二情感神经网络匹配单元,用于将所述第一情感输入预先训练好的情感匹配神经网络模型中,计算与所述第一情感匹配的适用于应答对话的第二情感或与所述第一情感排斥的不适用于应答对话的第三情感。
10.根据权利要求6所述的基于情感的智能对话系统,其特征在于,所述应答对话查询模块,包括:
待选应答对话查询单元,用于在预设的应答对话数据库中查询与所述用户输入的对话对应的多条待选应答对话,其中,每条待选应答对话都有对应的情感标记;
应答对话选择单元,用于根据所述情感标记,利用所述第二情感从所述多条待选应答对话中筛选出适合的待选应答对话,将筛选出的待选应答对话作为与所述用户输入的对话相匹配的应答对话;或者根据所述情感标记,利用所述第三情感从所述多条待选应答对话中过滤掉不适合的待选应答对话,将剩余的待选应答对话作为与所述用户输入的对话相匹配的应答对话。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610388800.4A CN106055662A (zh) | 2016-06-02 | 2016-06-02 | 基于情感的智能对话方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610388800.4A CN106055662A (zh) | 2016-06-02 | 2016-06-02 | 基于情感的智能对话方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106055662A true CN106055662A (zh) | 2016-10-26 |
Family
ID=57170038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610388800.4A Pending CN106055662A (zh) | 2016-06-02 | 2016-06-02 | 基于情感的智能对话方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106055662A (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106559321A (zh) * | 2016-12-01 | 2017-04-05 | 竹间智能科技(上海)有限公司 | 动态调整对话策略的方法及系统 |
CN106599196A (zh) * | 2016-12-14 | 2017-04-26 | 竹间智能科技(上海)有限公司 | 一种人工智能对话方法及系统 |
CN106599124A (zh) * | 2016-11-30 | 2017-04-26 | 竹间智能科技(上海)有限公司 | 主动引导用户持续对话的系统及方法 |
CN106683672A (zh) * | 2016-12-21 | 2017-05-17 | 竹间智能科技(上海)有限公司 | 一种基于情感和语义的智能对话方法及系统 |
CN106682642A (zh) * | 2017-01-06 | 2017-05-17 | 竹间智能科技(上海)有限公司 | 多面向语言行为识别方法及系统 |
CN106777257A (zh) * | 2016-12-28 | 2017-05-31 | 厦门快商通科技股份有限公司 | 基于话术的智能对话模型的构建系统及方法 |
CN106844646A (zh) * | 2017-01-22 | 2017-06-13 | 竹间智能科技(上海)有限公司 | 基于情绪预测的人工智能回话方法及装置 |
CN106875940A (zh) * | 2017-03-06 | 2017-06-20 | 吉林省盛创科技有限公司 | 一种基于神经网络的机器自学习构建知识图谱训练方法 |
CN106991124A (zh) * | 2017-03-02 | 2017-07-28 | 竹间智能科技(上海)有限公司 | 基于多互动情境编辑的回答方法及系统 |
CN107016046A (zh) * | 2017-02-20 | 2017-08-04 | 北京光年无限科技有限公司 | 基于视觉场景化的智能机器人对话方法及系统 |
CN107168990A (zh) * | 2017-03-28 | 2017-09-15 | 厦门快商通科技股份有限公司 | 基于用户性格的智能客服系统及对话方法 |
CN108460111A (zh) * | 2018-02-08 | 2018-08-28 | 合肥工业大学 | 基于对话的个人性格建模与生成方法及装置 |
CN108563628A (zh) * | 2018-03-07 | 2018-09-21 | 中山大学 | 基于hred和内外记忆网络单元的情感对话生成方法 |
CN108605076A (zh) * | 2016-12-30 | 2018-09-28 | 谷歌有限责任公司 | 用于数据传输的反馈控制器 |
CN108833941A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 人机交互处理方法、装置、用户终端、处理服务器及系统 |
CN109299267A (zh) * | 2018-10-16 | 2019-02-01 | 山西大学 | 一种文本对话的情绪识别与预测方法 |
CN111178489A (zh) * | 2019-12-30 | 2020-05-19 | 深圳集智数字科技有限公司 | 一种对话机器人引擎流量分配方法及装置 |
CN111309862A (zh) * | 2020-02-10 | 2020-06-19 | 贝壳技术有限公司 | 具有情感的用户交互方法和装置、存储介质、设备 |
CN112527975A (zh) * | 2019-09-02 | 2021-03-19 | 科沃斯商用机器人有限公司 | 人机交互方法、装置、智能机器人和存储介质 |
CN116228252A (zh) * | 2023-02-10 | 2023-06-06 | 广东盛迪嘉电子商务股份有限公司 | 一种后台客服服务终端 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001038959A2 (en) * | 1999-11-22 | 2001-05-31 | Talkie, Inc. | An apparatus and method for determining emotional and conceptual context from a user input |
CN1581149A (zh) * | 2004-03-25 | 2005-02-16 | 东南大学 | 运用人的情绪和情绪变化信息构建人机界面的方法 |
CN103593054A (zh) * | 2013-11-25 | 2014-02-19 | 北京光年无限科技有限公司 | 一种结合情绪识别及输出的问答系统 |
CN104809103A (zh) * | 2015-04-29 | 2015-07-29 | 北京京东尚科信息技术有限公司 | 一种人机对话的语义分析方法及系统 |
-
2016
- 2016-06-02 CN CN201610388800.4A patent/CN106055662A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001038959A2 (en) * | 1999-11-22 | 2001-05-31 | Talkie, Inc. | An apparatus and method for determining emotional and conceptual context from a user input |
CN1581149A (zh) * | 2004-03-25 | 2005-02-16 | 东南大学 | 运用人的情绪和情绪变化信息构建人机界面的方法 |
CN103593054A (zh) * | 2013-11-25 | 2014-02-19 | 北京光年无限科技有限公司 | 一种结合情绪识别及输出的问答系统 |
CN104809103A (zh) * | 2015-04-29 | 2015-07-29 | 北京京东尚科信息技术有限公司 | 一种人机对话的语义分析方法及系统 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599124A (zh) * | 2016-11-30 | 2017-04-26 | 竹间智能科技(上海)有限公司 | 主动引导用户持续对话的系统及方法 |
CN106559321A (zh) * | 2016-12-01 | 2017-04-05 | 竹间智能科技(上海)有限公司 | 动态调整对话策略的方法及系统 |
CN106599196A (zh) * | 2016-12-14 | 2017-04-26 | 竹间智能科技(上海)有限公司 | 一种人工智能对话方法及系统 |
CN106683672A (zh) * | 2016-12-21 | 2017-05-17 | 竹间智能科技(上海)有限公司 | 一种基于情感和语义的智能对话方法及系统 |
CN106683672B (zh) * | 2016-12-21 | 2020-04-03 | 竹间智能科技(上海)有限公司 | 一种基于情感和语义的智能对话方法及系统 |
CN106777257A (zh) * | 2016-12-28 | 2017-05-31 | 厦门快商通科技股份有限公司 | 基于话术的智能对话模型的构建系统及方法 |
CN106777257B (zh) * | 2016-12-28 | 2020-06-05 | 厦门快商通科技股份有限公司 | 基于话术的智能对话模型的构建系统及方法 |
CN108605076A (zh) * | 2016-12-30 | 2018-09-28 | 谷歌有限责任公司 | 用于数据传输的反馈控制器 |
CN106682642A (zh) * | 2017-01-06 | 2017-05-17 | 竹间智能科技(上海)有限公司 | 多面向语言行为识别方法及系统 |
CN106844646A (zh) * | 2017-01-22 | 2017-06-13 | 竹间智能科技(上海)有限公司 | 基于情绪预测的人工智能回话方法及装置 |
CN107016046A (zh) * | 2017-02-20 | 2017-08-04 | 北京光年无限科技有限公司 | 基于视觉场景化的智能机器人对话方法及系统 |
CN106991124A (zh) * | 2017-03-02 | 2017-07-28 | 竹间智能科技(上海)有限公司 | 基于多互动情境编辑的回答方法及系统 |
CN106875940B (zh) * | 2017-03-06 | 2020-08-14 | 吉林省盛创科技有限公司 | 一种基于神经网络的机器自学习构建知识图谱训练方法 |
CN106875940A (zh) * | 2017-03-06 | 2017-06-20 | 吉林省盛创科技有限公司 | 一种基于神经网络的机器自学习构建知识图谱训练方法 |
CN107168990A (zh) * | 2017-03-28 | 2017-09-15 | 厦门快商通科技股份有限公司 | 基于用户性格的智能客服系统及对话方法 |
CN108460111B (zh) * | 2018-02-08 | 2020-10-16 | 合肥工业大学 | 基于对话的个人性格建模与生成方法及装置 |
CN108460111A (zh) * | 2018-02-08 | 2018-08-28 | 合肥工业大学 | 基于对话的个人性格建模与生成方法及装置 |
CN108563628A (zh) * | 2018-03-07 | 2018-09-21 | 中山大学 | 基于hred和内外记忆网络单元的情感对话生成方法 |
CN108833941A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 人机交互处理方法、装置、用户终端、处理服务器及系统 |
US11282516B2 (en) | 2018-06-29 | 2022-03-22 | Beijing Baidu Netcom Science Technology Co., Ltd. | Human-machine interaction processing method and apparatus thereof |
CN109299267A (zh) * | 2018-10-16 | 2019-02-01 | 山西大学 | 一种文本对话的情绪识别与预测方法 |
CN112527975A (zh) * | 2019-09-02 | 2021-03-19 | 科沃斯商用机器人有限公司 | 人机交互方法、装置、智能机器人和存储介质 |
CN111178489A (zh) * | 2019-12-30 | 2020-05-19 | 深圳集智数字科技有限公司 | 一种对话机器人引擎流量分配方法及装置 |
CN111309862A (zh) * | 2020-02-10 | 2020-06-19 | 贝壳技术有限公司 | 具有情感的用户交互方法和装置、存储介质、设备 |
CN116228252A (zh) * | 2023-02-10 | 2023-06-06 | 广东盛迪嘉电子商务股份有限公司 | 一种后台客服服务终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106055662A (zh) | 基于情感的智能对话方法及系统 | |
Wang et al. | Mead: A large-scale audio-visual dataset for emotional talking-face generation | |
Alexanderson et al. | Style‐controllable speech‐driven gesture synthesis using normalising flows | |
CN106095834A (zh) | 基于话题的智能对话方法及系统 | |
CN106570496B (zh) | 情绪识别方法和装置以及智能交互方法和设备 | |
CN105895087B (zh) | 一种语音识别方法及装置 | |
CN108170764B (zh) | 一种基于场景上下文的人机多轮对话模型构建方法 | |
CN112162628A (zh) | 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端 | |
US10923115B2 (en) | Dynamically generated dialog | |
CN109388701A (zh) | 会议记录生成方法、装置、设备和计算机存储介质 | |
CN107340859A (zh) | 多模态虚拟机器人的多模态交互方法和系统 | |
CN108804698A (zh) | 基于人物ip的人机交互方法、系统、介质及设备 | |
CN109740077A (zh) | 基于语义索引的答案搜索方法、装置及其相关设备 | |
CN106250553A (zh) | 一种服务推荐方法及终端 | |
CN107038154A (zh) | 一种文本情感识别方法和装置 | |
CN109117952B (zh) | 一种基于深度学习的机器人情感认知的方法 | |
CN110262665A (zh) | 用于输出信息的方法和装置 | |
CN109343706B (zh) | 一种交互系统及其实现方法 | |
CN108710647A (zh) | 一种用于聊天机器人的数据处理方法及装置 | |
CN106952648A (zh) | 一种用于机器人的输出方法以及机器人 | |
CN107016046A (zh) | 基于视觉场景化的智能机器人对话方法及系统 | |
CN107480766A (zh) | 多模态虚拟机器人的内容生成的方法和系统 | |
CN112632244A (zh) | 一种人机通话的优化方法、装置、计算机设备及存储介质 | |
CN106502382A (zh) | 用于智能机器人的主动交互方法和系统 | |
CN115481679A (zh) | 一种多模态情感分析方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Inventor after: Jian Renxian Inventor after: Weng Jiaken Inventor before: Weng Jiaken |
|
COR | Change of bibliographic data | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20161026 |