CN112667787A - 基于话术标签的智能应答方法、系统及存储介质 - Google Patents

基于话术标签的智能应答方法、系统及存储介质 Download PDF

Info

Publication number
CN112667787A
CN112667787A CN202011345929.XA CN202011345929A CN112667787A CN 112667787 A CN112667787 A CN 112667787A CN 202011345929 A CN202011345929 A CN 202011345929A CN 112667787 A CN112667787 A CN 112667787A
Authority
CN
China
Prior art keywords
text
label
user
original text
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011345929.XA
Other languages
English (en)
Inventor
何亚峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Puhui Enterprise Management Co Ltd
Original Assignee
Ping An Puhui Enterprise Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Puhui Enterprise Management Co Ltd filed Critical Ping An Puhui Enterprise Management Co Ltd
Priority to CN202011345929.XA priority Critical patent/CN112667787A/zh
Publication of CN112667787A publication Critical patent/CN112667787A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Document Processing Apparatus (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例中提供了一种基于话术标签的智能应答方法、系统及存储介质,根据用户语音,进行文本转换,得到用户原始文本;提取用户原始文本中语境特征向量;将语境特征向量输入至语境识别模型中,得到用户原始文本对应的语境识别结果;根据语境识别结果,选择对应的文本标签库;将用户原始文本与文本标签库进行匹配,得到原始文本的至少一个文本标签;根据至少一个文本标签形成标签集,根据标签集得到应对话术。实现了基于话术标签和基于语境的精准查询,并快速找到应对话术,将话术语境进行配合化,增加了应对话术的准确性,解决了现有的智能对话不能准确、快速的适应多个场景进行流畅对话的问题。

Description

基于话术标签的智能应答方法、系统及存储介质
技术领域
本申请属于智能应答技术领域,具体地,涉及一种基于话术标签的智能应答方法、系 统及存储介质。
背景技术
智能对话是AI领域的重要模块之一,随着社会的发展,人们对人工智能的期望逐渐体 现并升高。在与用户交流的过程中,对于某一个产品的交流的话术和流程是基本统一的, 从节约人力成本的角度来看,智能对话就显得比较重要。
智能对话能应用的场景是很多的,比如产品介绍、意向获取、教育、广播、催收、娱乐等。但是现在的智能程度比较有限,基本上都是设计人员预先设定的对话才能生效。而且在场景变化的时候,产品需要进行二次、甚至多次的开发,才能满足某个场景的需求。
由于机器人和用户的问答流程和对话模板是预先设定好的,在不考虑特定语境下进行 统一的话术处理,影响与用户之间的对话质量,因此,现有的智能对话不能准确、快速的 适应多个场景进行流畅对话。
发明内容
本发明提出了一种基于话术标签的智能应答方法、系统及存储介质,旨在解决现有的 智能对话不能准确、快速的适应多个场景进行流畅对话的问题。
根据本申请实施例的第一个方面,提供了一种基于话术标签的智能应答方法,具体包 括以下步骤:
根据用户语音,进行文本转换,得到用户原始文本;
提取用户原始文本中语境特征向量;
将语境特征向量输入至语境识别模型中,得到用户原始文本对应的语境识别结果;
根据语境识别结果,选择对应的文本标签库;
将用户原始文本与文本标签库进行匹配,得到原始文本的至少一个文本标签;
根据至少一个文本标签形成标签集,根据标签集得到应对话术。
在本申请的一些实施方式中,将原始文本与文本标签库进行匹配,得到原始文本的至 少一个文本标签,具体包括:
将用户原始文本进行文本预处理,得到用户标准文本;
根据用户标准文本匹配文本标签库,得到原始文本的至少一个文本标签。
在本申请的一些实施方式中,将用户原始文本与文本标签库进行匹配,得到原始文本 的至少一个文本标签,具体包括:
文本标签库包括多级标签目录;
将用户原始文本与一级标签目录进行匹配,得到一级标签;
将用户原始文本与一级标签对应的二级标签目录进行匹配,得到二级标签;
依次进行多级标签目录匹配,直到得到末极标签。
在本申请的一些实施方式中,根据至少一个文本标签形成标签集,根据标签集得到应 对话术,具体包括:
建立话术库,将话术库内话术与不同标签一一对应。
在本申请的一些实施方式中,语境识别结果包括:
重要用户语境、普通用户语境、成交用户语境、非用户本人语境以及其它用户语境。
在本申请的一些实施方式中,根据至少一个文本标签形成标签集,根据标签集得到应 对话术之后,还包括:
建立包含用户语音、用户原始文本以及标签集与应对话术的对应关系;
当再次接收到包含用户语音或者用户原始文本时,基于对应关系,获取应对话术。
在本申请的一些实施方式中,根据至少一个文本标签形成标签集,根据标签集得到应 对话术之后,还包括:
机器自动播放应对话术;和/或
转接人工产品经理。
根据本申请实施例的第二个方面,提供了一种基于话术标签的智能应答系统,具体包 括:
文本转换单元:用于根据用户语音,进行文本转换,得到用户原始文本;
语境特征提取单元:用于提取用户原始文本中语境特征向量;
语境识别单元:用于将语境特征向量输入至语境识别模型中,得到用户原始文本对应 的语境识别结果;
文本标签库选择单元:用于根据语境识别结果,选择对应的文本标签库;
文本标签匹配单元:用于将用户原始文本与文本标签库进行匹配,得到原始文本的至 少一个文本标签;
应对话术单元:用于根据至少一个文本标签形成标签集,根据标签集得到应对话术。
根据本申请实施例的第三个方面,提供了一种基于话术标签的智能应答设备,包括:
存储器:用于存储可执行指令;以及
处理器:用于与存储器连接以执行可执行指令从而完成基于话术标签的智能应答方法。
根据本申请实施例的第四个方面,提供了一种计算机可读存储介质,其上存储有计算 机程序;计算机程序被处理器执行以实现基于话术标签的智能应答方法。
采用本申请实施例中的基于话术标签的智能应答方法、系统及存储介质,根据用户语 音,进行文本转换,得到用户原始文本;提取用户原始文本中语境特征向量;将语境特征 向量输入至语境识别模型中,得到用户原始文本对应的语境识别结果;根据语境识别结果, 选择对应的文本标签库;将用户原始文本与文本标签库进行匹配,得到原始文本的至少一 个文本标签;根据至少一个文本标签形成标签集,根据标签集得到应对话术。本申请为将 话术语境进行配合化,使产品摆脱多次开发的大坑;实现了基于话术标签和基于语境的精 准查询,并快速找到应对话术,将话术语境进行配合化,增加了应对话术的准确性,同时, 可以实现对整个智能应答的统一管理,包括标签库和话术库的灵活配置应对流程。解决了 现有的智能对话不能准确、快速的适应多个场景进行流畅对话的问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的 示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1中示出了根据本申请实施例的一种基于话术标签的智能应答方法的步骤流程图;
图2中示出了根据本申请实施例的基于话术标签的智能应答系统的结构示意图;
图3中示出了根据本申请实施例的基于话术标签的智能应答设备的结构示意 图。
具体实施方式
在实现本申请的过程中,发明人发现现有的智能对话能应用中,由于机器人和用户的 问答流程和对话模板是预先设定好的,在不考虑特定语境下进行统一的话术处理,影响与 用户之间的对话质量,因此,现有的智能对话不能准确、快速的适应多个场景进行流畅对 话。
相比现有技术,本申请可以通过用户语音识别出具体的语境,通过语境精准选择标签 库,在将用户语音转换的文本匹配并打上选择的标签库内的标签,最后根据匹配的标签调 动对应的应对话术。实现了基于话术标签和基于语境的精准查询,并快速找到应对话术, 将话术语境进行配合化,增加了应对话术的准确性,同时,可以实现对整个智能应答的统 一管理,包括标签库和话术库的灵活配置应对流程。通过将话术语境进行配合化,使产品 摆脱多次开发的大坑。
具体的,首先将用户语音进行转化,得到用户文本,然后根据用户文本,利用语境识 别模型识别出用户语境,将用户文本打上相对应语境的标签,了解用户的意图,通过标签 来对用户的诉求进行处理。然后通过配置标签的话术处理,来指引产品处理特定的标签。
具体流程如下:
1、根据用户语音,进行文本转换,得到用户原始文本;
2、提取用户原始文本中语境特征向量;
3、将语境特征向量输入至语境识别模型中,得到用户原始文本对应的语境识别结果;
4、根据语境识别结果,选择对应的文本标签库;
5、将用户原始文本与文本标签库进行匹配,得到原始文本的至少一个文本标签;
6、至少一个文本标签形成标签集,根据标签集得到应对话术。
为了使本申请实施例中的技术方案及优点更加清楚明白,以下结合附图对本申请的示 例性实施例进行进一步详细的说明,显然,所描述的实施例仅是本申请的一部分实施例, 而不是所有实施例的穷举。需要说明的是,在不冲突的情况下,本申请中的实施例及实施 例中的特征可以相互组合。
实施例1
图1中示出了根据本申请实施例的基于话术标签的智能应答方法的步骤流程图。
如图1所示,本申请的基于话术标签的智能应答方法,具体包括以下步骤:
S101:根据用户语音,进行文本转换,得到用户原始文本。
在接收到用户进线后,实时获取进线用户与坐席的语音。用户语音是用户在讲话时, 通过声音采集设备采集的该用户的语音。可以进一步处理的,去除用户说话时因思考、呼 吸产生的停顿和门窗的开关、物体的碰撞等发出的噪声后保留的用户语音。
本实施例中的语音转文字技术采用的是ASR(Automatic SpeechRecognition,自动语音 识别技术)技术,自动语音识别技术是一种将人的语音转换为文本的技术。
具体的,自动语音识别需要对原始语音进行预加重、分帧和加窗处理,获取标准语音。
获取标准语音的过程如下:
首先,采用预加重处理的公式s'n=sn-a*sn-1对原始语音进行预加重处理,以消除说 话人的声带和嘴唇对说话人语音的影响,提高说话人语音的高频分辨率。
其中,s'n为预加重处理后的n时刻的语音信号幅度,sn为n时刻的语音信号幅度,sn-1为n-1时刻的语音信号幅度,a为预加重系数。
然后,对预加重处理后的原始语音进行分帧处理,在分帧时,每一帧语音的起始点和 末尾点都会出现不连续的地方,分帧越多,与原始语音的误差也就越大。
最后,为了保持每一帧语音的频率特性,还需要进行加窗处理,加窗处理的公式为:
Figure BDA0002799918310000051
和s″n=wn*s′n;
其中,wn为n时刻的汉明窗,N为汉明窗窗长,s'n为n时刻时域上的信号幅度,s″ n为n时刻加窗后时域上的信号幅度。
通过以上步骤对原始语音进行预处理,获取标准语音,为后续对标准语音进行端点检 测处理提供有效的数据来源。
S102:提取用户原始文本中语境特征向量。
通过特征提取方法,对用户原始文本进行特征提取,提取出语境特征向量。
其中,语境特征包括:用户本人特征、非用户本人特征以及其它用户。用户本人特征 又包括重要用户特征、普通用户特征以及成交用户特征等特征。
S103:将语境特征向量输入至语境识别模型中,得到用户原始文本对应的语境识别结 果。
具体的,对语境识别模型的训练过程包括:
S31:获取训练文本,对训练文本进行文本预处理,获取预处理文本。训练用文本包括 大量的用户语音转换文本,文本预处理包括将无意义的词语、符号或者数据进行剔除,并 同时整合语句顺序。
S32:随机选取预处理文本,形成训练集和测试集。采用随机选取函数,选取预处理文 本后,随机生成训练集和测试集。
S33:将训练集和测试集输入至构建的语境识别模型中进行训练,直至得到最终的语境 识别模型。
其中,语境识别模型采用原始双向循环神经网络模型,首先需要获取有效双向循环神 经网络模型。
其中,原始双向循环神经网络模型是由两个循环神经网络(RecurrentNeuralNetworks, RNN)组成的。为了便于描述,本实施例中将其中一个循环神经网络称之为向前循环神经网 络(向前RNN),另外一个循环神经网络称为向后循环神经网络(向后RNN)。原始双向循环神 经网络模型(原始BRNN)中的向前RNN和向后RNN有各自对应的隐藏层,输入层和输出层共 用一个。即原始BRNN是由一个输入层、两个隐藏层和一个输出层组成的神经网络模型。该 原始BRNN包括各层(一个输入层、两个隐藏层和一个输出层)之间的神经元连接的参数(权 值和偏置),这些权值和偏置决定原始BRNN的性质及识别效果。
具体地,在获取有效双向循环神经网络模型后,为了验证有效双向循环神经网络模型 准确性,将测试集输入到有效双向循环神经网络模型中进行测试,获取测试集对应的准确 率,若准确率达到预设阈值,例如阈值设定为90%,则将有效双向循环神经网络模型确定 为目标双向循环神经网络模型。
其中,语境特征包括:用户本人特征、非用户本人特征以及其它用户。用户本人特征 又包括重要用户特征、普通用户特征以及成交用户特征等特征。相对应的,语境识别结果 包括:用户本人语境、非用户语境、以及其它用户语境,其中,用户本人语境包括重要用户语境、普通用户语境以及成交用户语境等语境。
S104:根据语境识别结果,选择对应的文本标签库。
本申请不同的语境对应有多个文本标签库,每一个文本标签库包括大量的文本标签, 而不同的文本标签是智能应答选择的基础,因此,首先选择对应的文本标签库,大大减少 了智能应答的智能应答时间,在特定语境下对应的文本标签库进行后续标签匹配,大大提 高了应答的准确率。
S105:将用户原始文本与文本标签库进行匹配,得到原始文本的至少一个文本标签。
具体的,包括将用户原始文本进行文本预处理,得到用户标准文本;根据用户标准文 本匹配文本标签库,得到原始文本的至少一个文本标签。
进一步的,将用户原始文本进行文本预处理,得到用户标准文本。具体为:原始文本 是采用语音直接转换而成的文本,包含了很多无意义的文字,如感叹词、口音词或者重复 词语等等,还包括数据、特殊符号和停用词。文本预处理将这些无意义的词语、符号或者数据进行剔除,并同时整合语句顺序,形成标准形式的文本。以方便执行后续步骤。
其次,为了方便将文本与标签库进行匹配,需要将文本进行长度切割,本申请实施例 采用目标循环神经网络模型对文本进行识别,在去除无意义的词语、数据以及符号后,按 照预设长度对文本进行切割,使文本满足预设长度的要求,得到切割文本。形成满足匹配 要求长度的标准文本。
然后,根据用户标准文本匹配所述文本标签库,得到所述原始文本的至少一个文本标 签。其中,文本标签库包括多级标签目录;在将用户标准文本与文本标签库进行匹配时,需 要一级一级进行匹配。首先,将用户原始文本与一级标签目录进行匹配,得到一级标签; 然后,将用户原始文本与所述一级标签对应的二级标签目录进行匹配,得到二级标签;以 此类推,进行多级标签目录匹配,直到得到末极标签。最后得到的至少包括一级标签的文 本标签,此时的一级标签即末极标签。
S106:根据至少一个文本标签形成标签集,根据标签集得到应对话术。
在上一步骤S105中,得到的至少一个文本标签形成了一定顺序的标签集后,此时,需 要建立话术库,将所述话术库内话术与不同标签一一对应。确切地说一个标签集对应一个 话术,话术库可进行修改和增加。
进一步的,基于话术标签和语境进行智能应答的方法,还包括建立包含所述用户语音、 用户原始文本以及所述标签集与应对话术的对应关系;当再次接收到包含所述用户语音或 者用户原始文本时,基于所述对应关系,获取所述应对话术。具体的,可通过TTS技术将 应对话术转换成应对语音,并控制机器人播放应对语音,以完成和坐席人员的对话。其中, TTS技术指将计算机自己产生或者外部输入的文字信息转变为汉语口语并输出的技术。通过 建立对应关系,可以在下次接收到相似或者相同的语音时,直接调出对应关系的话术,而 不必进行分析、识别等操作,大大提高了智能应答方法的智能性、效率以及流畅度,提高 了用户的体验度。
进一步的,基于话术标签和语境进行智能应答的方法,还包括在获取用户语音对应的 应对话术后,通过机器自动播放所述应对话术;或者,当识别到需要人工应答时,直接将 通话等转接至人工产品经理。通过自动语音播报,提高了用户的体验感,增加机器和人工 的转换流畅性,补充了智能应答的不足,进一步提升了用户的体验感,以及问题的答复质 量。
例如,用户通过语言表达自己的想法后,由程序接收用户的语言,分析语义,并打上 对应语境内的对应的标签。比方说用户问:“多少钱”,就可以使用“价格咨询”的标签进行标记。然后按照产品经理对标签的配置进入到下一句话,例如价格介绍等;或者下一流程的处理,例如呼叫产品经理等。
在本申请的一些实施方式中,根据至少一个文本标签形成标签集,根据标签集得到应 对话术之后,还包括:
建立包含用户语音、用户原始文本以及标签集与应对话术的对应关系;当再次接收到 包含用户语音或者用户原始文本时,基于对应关系,获取应对话术。
通过建立特定用户语音、用户原始文本以及标签集与应对话术的对应关系,并建立数 据库,在下次接收相同的用户语音或者用户原始文本时,基于对应关系的数据库可直接调 取应对话术,而不需要在进行智能匹配、识别等,大大缩短了应答时间。
本申请实施例中的基于话术标签的智能应答方法,根据用户语音,进行文本转换,得 到用户原始文本;提取用户原始文本中语境特征向量;将语境特征向量输入至语境识别模 型中,得到用户原始文本对应的语境识别结果;根据语境识别结果,选择对应的文本标签 库;将用户原始文本与文本标签库进行匹配,得到原始文本的至少一个文本标签;根据至 少一个文本标签形成标签集,根据标签集得到应对话术。本申请为将话术语境进行配合化, 使产品摆脱多次开发的大坑;实现了基于话术标签和基于语境的精准查询,并快速找到应 对话术,将话术语境进行配合化,增加了应对话术的准确性,同时,可以实现对整个智能 应答的统一管理,包括标签库和话术库的灵活配置应对流程。解决了现有的智能对话不能 准确、快速的适应多个场景进行流畅对话的问题。
相比现有技术,本申请可以包括在获取用户语音对应的应对话术后,通过机器自动播 放所述应对话术;或者,当识别到需要人工应答时,直接将通话等转接至人工产品经理。 通过自动语音播报,提高了用户的体验感,增加机器和人工的转换流畅性,补充了智能应 答的不足,进一步提升了用户的体验感,以及问题的答复质量。另一方面,本申请的技术方案还可以包括建立包含所述用户语音、用户原始文本以及所述标签集与应对话术的对应关系;当再次接收到包含所述用户语音或者用户原始文本时,基于所述对应关系,获取所述应对话术。具体的,可通过TTS技术将应对话术转换成应对语音,并控制机器人播放应 对语音,以完成和坐席人员的对话。其中,TTS技术指将计算机自己产生或者外部输入的文 字信息转变为汉语口语并输出的技术。通过建立对应关系,可以在下次接收到相似或者相 同的语音时,直接调出对应关系的话术,而不必进行分析、识别等操作,大大提高了智能 应答方法的智能性、效率以及流畅度,提高了用户的体验度。
实施例2
本实施例提供了一种基于话术标签的智能应答系统,对于本实施例的基于话术标签的 智能应答系统中未披露的细节,请参照其它实施例中的基于话术标签的智能应答方法的实 施内容。
图2中示出了根据本申请实施例的基于话术标签的智能应答系统的结构示意图。
如图2所示,本申请的基于话术标签的智能应答系统,包括文本转换单元10、语境特 征提取单元20、语境识别单元30、文本标签库选择单元40、文本标签匹配单元50以及应对话术单元60。
具体的,
文本转换单元10:用于根据用户语音,进行文本转换,得到用户原始文本。
在接收到用户进线后,实时获取进线用户与坐席的语音。用户语音是用户在讲话时, 通过声音采集设备采集的该用户的语音。可以进一步处理的,去除用户说话时因思考、呼 吸产生的停顿和门窗的开关、物体的碰撞等发出的噪声后保留的用户语音。
具体的,自动语音识别需要对原始语音进行预加重、分帧和加窗处理,获取标准语音。
获取标准语音的过程如下:
首先,采用预加重处理的公式s'n=sn-a*sn-1对原始语音进行预加重处理,以消除说 话人的声带和嘴唇对说话人语音的影响,提高说话人语音的高频分辨率。
其中,s'n为预加重处理后的n时刻的语音信号幅度,sn为n时刻的语音信号幅度,sn-1为n-1时刻的语音信号幅度,a为预加重系数。
然后,对预加重处理后的原始语音进行分帧处理,在分帧时,每一帧语音的起始点和 末尾点都会出现不连续的地方,分帧越多,与原始语音的误差也就越大。
最后,为了保持每一帧语音的频率特性,还需要进行加窗处理,加窗处理的公式为:
Figure BDA0002799918310000091
和s″n=wn*s′n;
其中,wn为n时刻的汉明窗,N为汉明窗窗长,s'n为n时刻时域上的信号幅度,s″ n为n时刻加窗后时域上的信号幅度。
通过以上步骤对原始语音进行预处理,获取标准语音,为后续对标准语音进行端点检 测处理提供有效的数据来源。
语境特征提取单元20:用于提取用户原始文本中语境特征向量。
其中,语境特征包括:用户本人特征、非用户本人特征以及其它用户。用户本人特征 又包括重要用户特征、普通用户特征以及成交用户特征等特征。
语境识别单元30:用于将语境特征向量输入至语境识别模型中,得到用户原始文本对 应的语境识别结果。
相对应的,语境识别结果包括:用户本人语境、非用户语境、以及其它用户语境,其中,用户本人语境包括重要用户语境、普通用户语境以及成交用户语境等语境。
文本标签库选择单元40:用于根据语境识别结果,选择对应的文本标签库。
文本标签匹配单元50:用于将用户原始文本与文本标签库进行匹配,得到原始文本的 至少一个文本标签。
具体的,进一步的,将用户原始文本进行文本预处理,得到用户标准文本。具体为:原始文本是采用语音直接转换而成的文本,包含了很多无意义的文字,如感叹词、口音词或者重复词语等等,还包括数据、特殊符号和停用词。文本预处理将这些无意义的词语、 符号或者数据进行剔除,并同时整合语句顺序,形成标准形式的文本。以方便执行后续步 骤。
其次,为了方便将文本与标签库进行匹配,需要将文本进行长度切割,本申请实施例 采用目标循环神经网络模型对文本进行识别,在去除无意义的词语、数据以及符号后,按 照预设长度对文本进行切割,使文本满足预设长度的要求,得到切割文本。形成满足匹配 要求长度的标准文本。
然后,根据用户标准文本匹配所述文本标签库,得到所述原始文本的至少一个文本标 签。其中,文本标签库包括多级标签目录;在将用户标准文本与文本标签库进行匹配时,需 要一级一级进行匹配。首先,将用户原始文本与一级标签目录进行匹配,得到一级标签; 然后,将用户原始文本与所述一级标签对应的二级标签目录进行匹配,得到二级标签;以 此类推,进行多级标签目录匹配,直到得到末极标签。最后得到的至少包括一级标签的文 本标签,此时的一级标签即末极标签。
应对话术单元60:用于根据至少一个文本标签形成标签集,根据标签集得到应对话术。
在通过文本标签匹配单元50得到的至少一个文本标签形成了一定顺序的标签集后,此 时,需要建立话术库,将所述话术库内话术与不同标签一一对应。确切地说一个标签集对 应一个话术,话术库可进行修改和增加。
进一步的,基于话术标签和语境进行智能应答的方法,还包括建立包含所述用户语音、 用户原始文本以及所述标签集与应对话术的对应关系;当再次接收到包含所述用户语音或 者用户原始文本时,基于所述对应关系,获取所述应对话术。具体的,可通过TTS技术将 应对话术转换成应对语音,并控制机器人播放应对语音,以完成和坐席人员的对话。其中, TTS技术指将计算机自己产生或者外部输入的文字信息转变为汉语口语并输出的技术。通过 建立对应关系,可以在下次接收到相似或者相同的语音时,直接调出对应关系的话术,而 不必进行分析、识别等操作,大大提高了智能应答方法的智能性、效率以及流畅度,提高 了用户的体验度。
进一步的,基于话术标签和语境进行智能应答的方法,还包括在获取用户语音对应的 应对话术后,通过机器自动播放所述应对话术;或者,当识别到需要人工应答时,直接将 通话等转接至人工产品经理。通过自动语音播报,提高了用户的体验感,增加机器和人工 的转换流畅性,补充了智能应答的不足,进一步提升了用户的体验感,以及问题的答复质 量。
例如,用户通过语言表达自己的想法后,由程序接收用户的语言,分析语义,并打上 对应语境内的对应的标签。比方说用户问:“多少钱”,就可以使用“价格咨询”的标签进行标记。然后按照产品经理对标签的配置进入到下一句话,例如价格介绍等;或者下一流程的处理,例如呼叫产品经理等。
相比现有技术,本申请可以包括在获取用户语音对应的应对话术后,通过机器自动播 放所述应对话术;或者,当识别到需要人工应答时,直接将通话等转接至人工产品经理。 通过自动语音播报,提高了用户的体验感,增加机器和人工的转换流畅性,补充了智能应 答的不足,进一步提升了用户的体验感,以及问题的答复质量。另一方面,本申请的技术方案还可以包括建立包含所述用户语音、用户原始文本以及所述标签集与应对话术的对应关系;当再次接收到包含所述用户语音或者用户原始文本时,基于所述对应关系,获取所述应对话术。具体的,可通过TTS技术将应对话术转换成应对语音,并控制机器人播放应 对语音,以完成和坐席人员的对话。其中,TTS技术指将计算机自己产生或者外部输入的文 字信息转变为汉语口语并输出的技术。通过建立对应关系,可以在下次接收到相似或者相 同的语音时,直接调出对应关系的话术,而不必进行分析、识别等操作,大大提高了智能 应答方法的智能性、效率以及流畅度,提高了用户的体验度。
本申请实施例中的基于话术标签的智能应答系统,通过文本转换单元10根据用户语音, 进行文本转换,得到用户原始文本;语境特征提取单元20提取用户原始文本中语境特征向 量;语境识别单元30将语境特征向量输入至语境识别模型中,得到用户原始文本对应的语 境识别结果;文本标签库选择单元40根据语境识别结果,选择对应的文本标签库;文本标 签匹配单元50将用户原始文本与文本标签库进行匹配,得到原始文本的至少一个文本标签; 应对话术单元60根据至少一个文本标签形成标签集,根据标签集得到应对话术。本申请为 将话术语境进行配合化,使产品摆脱多次开发的大坑;实现了基于话术标签和基于语境的 精准查询,并快速找到应对话术,将话术语境进行配合化,增加了应对话术的准确性,同 时,可以实现对整个智能应答的统一管理,包括标签库和话术库的灵活配置应对流程。解 决了现有的智能对话不能准确、快速的适应多个场景进行流畅对话的问题。
实施例3
本实施例提供了一种基于话术标签的智能应答设备,对于本实施例的基于话术标签的 智能应答设备中未披露的细节,请参照其它实施例中的基于话术标签的智能应答方法或系 统具体的实施内容。
图3中示出了根据本申请实施例的基于话术标签的智能应答设备400的结构示意图。
如图3所示,智能应答400,包括:
存储器402:用于存储可执行指令;以及
处理器401:用于与存储器402连接以执行可执行指令从而完成基于模板生成PDF的电 子签章方法。
本领域技术人员可以理解,所述示意图3仅仅是智能应答设备400的示例,并不构成 对智能应答设备400的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如智能应答设备400还可以包括输入输出设备、网络接入设备、总线等。
所称处理器401(Central Processing Unit,CPU),还可以是其他通用处理器、数字信 号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器401也可以是任何常规的处理器等,处理器401是智能应答设备400的控制中心,利用各种接口和线路连接整个智能应答设备400的各个部分。
存储器402可用于存储所述计算机可读指令,处理器401通过运行或执行存储在存储 器402内的计算机可读指令或模块,以及调用存储在存储器402内的数据,实现智能应答设备400的各种功能。存储器402可主要包括存储程序区和存储数据区,其中,存储程序 区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据智能应答设备400计算机设备30的使用所创建的数据等。此外,存储器402可以包括硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC), 安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、 闪存器件、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory, RAM)或其他非易失性/易失性存储器件。
所述智能应答设备400集成的模块如果以软件功能模块的形式实现并作为独立的产品 销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现 上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完 成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处 理器执行时,可实现上述各个方法实施例的步骤。
实施例4
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序;计算机程序被处 理器执行以实现其他实施例中的基于话术标签的智能应答方法。
采用本申请实施例中的基于话术标签的智能应答设备及存储介质,根据用户语音,进 行文本转换,得到用户原始文本;提取用户原始文本中语境特征向量;将语境特征向量输 入至语境识别模型中,得到用户原始文本对应的语境识别结果;根据语境识别结果,选择 对应的文本标签库;将用户原始文本与文本标签库进行匹配,得到原始文本的至少一个文 本标签;根据至少一个文本标签形成标签集,根据标签集得到应对话术。本申请为将话术 语境进行配合化,使产品摆脱多次开发的大坑;实现了基于话术标签和基于语境的精准查 询,并快速找到应对话术,将话术语境进行配合化,增加了应对话术的准确性,同时,可 以实现对整个智能应答的统一管理,包括标签库和话术库的灵活配置应对流程。解决了现 有的智能对话不能准确、快速的适应多个场景进行流畅对话的问题。
相比现有技术,本申请可以包括在获取用户语音对应的应对话术后,通过机器自动播 放所述应对话术;或者,当识别到需要人工应答时,直接将通话等转接至人工产品经理。 通过自动语音播报,提高了用户的体验感,增加机器和人工的转换流畅性,补充了智能应 答的不足,进一步提升了用户的体验感,以及问题的答复质量。另一方面,本申请的技术方案还可以包括建立包含所述用户语音、用户原始文本以及所述标签集与应对话术的对应关系;当再次接收到包含所述用户语音或者用户原始文本时,基于所述对应关系,获取所述应对话术。具体的,可通过TTS技术将应对话术转换成应对语音,并控制机器人播放应 对语音,以完成和坐席人员的对话。其中,TTS技术指将计算机自己产生或者外部输入的文 字信息转变为汉语口语并输出的技术。通过建立对应关系,可以在下次接收到相似或者相 同的语音时,直接调出对应关系的话术,而不必进行分析、识别等操作,大大提高了智能 应答方法的智能性、效率以及流畅度,提高了用户的体验度。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产 品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序 产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和 /或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程 和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程 序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以 产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于 实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式 工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置 的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方 框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机 或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他 可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方 框或多个方框中指定的功能的步骤。
在本发明使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本 发明和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数 形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明可能采用术语第一、第二、第三等来描述各种信息,但这些 信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离 本发明范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为 第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当…… 时”或“响应于确定”。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概 念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选 实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和 范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内, 则本申请也意图包含这些改动和变型在内。

Claims (10)

1.一种基于话术标签的智能应答方法,其特征在于,具体包括以下步骤:
根据用户语音,进行文本转换,得到用户原始文本;
提取所述用户原始文本中语境特征向量;
将所述语境特征向量输入至语境识别模型中,得到所述用户原始文本对应的语境识别结果;
根据所述语境识别结果,选择对应的文本标签库;
将所述用户原始文本与所述文本标签库进行匹配,得到所述原始文本的至少一个文本标签;
根据所述至少一个文本标签形成标签集,根据所述标签集得到应对话术。
2.根据权利要求1所述的智能应答方法,其特征在于,所述将所述原始文本与所述文本标签库进行匹配,得到所述原始文本的至少一个文本标签,具体包括:
将所述用户原始文本进行文本预处理,得到用户标准文本;
根据所述用户标准文本匹配所述文本标签库,得到所述原始文本的至少一个文本标签。
3.根据权利要求1或2所述的智能应答方法,其特征在于,所述将所述用户原始文本与所述文本标签库进行匹配,得到所述原始文本的至少一个文本标签,具体包括:
所述文本标签库包括多级标签目录;
将所述用户原始文本与一级标签目录进行匹配,得到一级标签;
将所述用户原始文本与所述一级标签对应的二级标签目录进行匹配,得到二级标签;
依次进行多级标签目录匹配,直到得到末极标签。
4.根据权利要求1所述的智能应答方法,其特征在于,所述根据至少一个文本标签形成标签集,根据所述标签集得到应对话术,具体包括:
建立话术库,将所述话术库内话术与不同标签一一对应。
5.根据权利要求1所述的智能应答方法,其特征在于,所述语境识别结果包括:
重要用户语境、普通用户语境、成交用户语境、非用户本人语境以及其它用户语境。
6.根据权利要求1、2、4或5任一项所述的智能应答方法,其特征在于,在所述根据至少一个文本标签形成标签集,根据所述标签集得到应对话术之后,还包括:
建立包含所述用户语音、用户原始文本以及所述标签集与应对话术的对应关系;
当再次接收到包含所述用户语音或者用户原始文本时,基于所述对应关系,获取所述应对话术。
7.根据权利要求2、3、4或6所述的智能应答方法,其特征在于,在所述根据至少一个文本标签形成标签集,根据所述标签集得到应对话术之后,还包括:
机器自动播放所述应对话术;和/或
转接人工产品经理。
8.一种基于话术标签的智能应答系统,其特征在于,具体包括:
文本转换单元:用于根据用户语音,进行文本转换,得到用户原始文本;
语境特征提取单元:用于提取所述用户原始文本中语境特征向量;
语境识别单元:用于将所述语境特征向量输入至语境识别模型中,得到所述用户原始文本对应的语境识别结果;
文本标签库选择单元:用于根据所述语境识别结果,选择对应的文本标签库;
文本标签匹配单元:用于将所述用户原始文本与所述文本标签库进行匹配,得到所述原始文本的至少一个文本标签;
应对话术单元:用于根据所述至少一个文本标签形成标签集,根据所述标签集得到应对话术。
9.一种基于话术标签的智能应答设备,其特征在于,包括:
存储器:用于存储可执行指令;以及
处理器:用于与所述存储器连接以执行所述可执行指令从而完成权利要求1-7中任一项所述的基于话术标签的智能应答方法。
10.一种计算机可读存储介质,其特征在于,其上存储有计算机程序;计算机程序被处理器执行以实现如权利要求1-7任一项所述的基于话术标签的智能应答方法。
CN202011345929.XA 2020-11-26 2020-11-26 基于话术标签的智能应答方法、系统及存储介质 Pending CN112667787A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011345929.XA CN112667787A (zh) 2020-11-26 2020-11-26 基于话术标签的智能应答方法、系统及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011345929.XA CN112667787A (zh) 2020-11-26 2020-11-26 基于话术标签的智能应答方法、系统及存储介质

Publications (1)

Publication Number Publication Date
CN112667787A true CN112667787A (zh) 2021-04-16

Family

ID=75403683

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011345929.XA Pending CN112667787A (zh) 2020-11-26 2020-11-26 基于话术标签的智能应答方法、系统及存储介质

Country Status (1)

Country Link
CN (1) CN112667787A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113934819A (zh) * 2021-10-14 2022-01-14 陈鹏 基于context的标签管理方法、装置、服务器及存储介质
CN117573896A (zh) * 2023-12-05 2024-02-20 苏州中格软件有限公司 基于意图识别的事项筛查方法、平台、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107808124A (zh) * 2017-10-09 2018-03-16 平安科技(深圳)有限公司 电子装置、医疗文本实体命名的识别方法及存储介质
CN110162610A (zh) * 2019-04-16 2019-08-23 平安科技(深圳)有限公司 机器人智能应答方法、装置、计算机设备及存储介质
CN110532361A (zh) * 2019-08-09 2019-12-03 深圳追一科技有限公司 用户意图的识别方法、装置、计算机设备和存储介质
CN110890088A (zh) * 2019-10-12 2020-03-17 中国平安财产保险股份有限公司 语音信息反馈方法、装置、计算机设备和存储介质
CN111680086A (zh) * 2020-05-25 2020-09-18 泰康保险集团股份有限公司 数据处理方法及系统、计算机设备及计算机可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107808124A (zh) * 2017-10-09 2018-03-16 平安科技(深圳)有限公司 电子装置、医疗文本实体命名的识别方法及存储介质
CN110162610A (zh) * 2019-04-16 2019-08-23 平安科技(深圳)有限公司 机器人智能应答方法、装置、计算机设备及存储介质
CN110532361A (zh) * 2019-08-09 2019-12-03 深圳追一科技有限公司 用户意图的识别方法、装置、计算机设备和存储介质
CN110890088A (zh) * 2019-10-12 2020-03-17 中国平安财产保险股份有限公司 语音信息反馈方法、装置、计算机设备和存储介质
CN111680086A (zh) * 2020-05-25 2020-09-18 泰康保险集团股份有限公司 数据处理方法及系统、计算机设备及计算机可读存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113934819A (zh) * 2021-10-14 2022-01-14 陈鹏 基于context的标签管理方法、装置、服务器及存储介质
CN117573896A (zh) * 2023-12-05 2024-02-20 苏州中格软件有限公司 基于意图识别的事项筛查方法、平台、设备及存储介质

Similar Documents

Publication Publication Date Title
US10074363B2 (en) Method and apparatus for keyword speech recognition
JP6954680B2 (ja) 話者の確認方法及び話者の確認装置
CN106710586B (zh) 一种语音识别引擎自动切换方法和装置
CN113239147B (zh) 基于图神经网络的智能会话方法、系统及介质
CN110570853A (zh) 基于语音数据的意图识别方法和装置
CN110704590B (zh) 扩充训练样本的方法和装置
CN113707125A (zh) 一种多语言语音合成模型的训练方法及装置
CN112507311A (zh) 一种基于多模态特征融合的高安全性身份验证方法
CN110853616A (zh) 一种基于神经网络的语音合成方法、系统与存储介质
CN110600013A (zh) 非平行语料声音转换数据增强模型训练方法及装置
CN114121006A (zh) 虚拟角色的形象输出方法、装置、设备以及存储介质
CN111986675A (zh) 语音对话方法、设备及计算机可读存储介质
CN112581963A (zh) 一种语音意图识别方法及系统
CN112667787A (zh) 基于话术标签的智能应答方法、系统及存储介质
US20220392485A1 (en) System and Method For Identifying Sentiment (Emotions) In A Speech Audio Input
KR20190135853A (ko) 텍스트- 다중 음성 변환 방법 및 시스템
CN107886940B (zh) 语音翻译处理方法及装置
CN114944149A (zh) 语音识别方法、语音识别设备及计算机可读存储介质
CN114373443A (zh) 语音合成方法和装置、计算设备、存储介质及程序产品
KR20190140803A (ko) 감정 임베딩과 순환형 신경망을 이용한 대화 시스템 및 방법
Barnard et al. Real-world speech recognition with neural networks
KR102684930B1 (ko) 인공지능을 통해 학습자 식별이 가능한 화상 학습 시스템 및 그 방법
CN114283781A (zh) 语音合成方法及相关装置、电子设备和存储介质
CN113658599A (zh) 基于语音识别的会议记录生成方法、装置、设备及介质
Afshan et al. Attention-based conditioning methods using variable frame rate for style-robust speaker verification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination