CN110610705B - 一种基于人工智能的语音交互提示器 - Google Patents
一种基于人工智能的语音交互提示器 Download PDFInfo
- Publication number
- CN110610705B CN110610705B CN201910890526.4A CN201910890526A CN110610705B CN 110610705 B CN110610705 B CN 110610705B CN 201910890526 A CN201910890526 A CN 201910890526A CN 110610705 B CN110610705 B CN 110610705B
- Authority
- CN
- China
- Prior art keywords
- voice
- telephone
- module
- matching
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0635—Training updating or merging of old and new templates; Mean values; Weighting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Abstract
一种基于人工智能的语音交互提示器,其包括数据接口模块、语音交互话术库和话术匹配模块;语音交互话术库用于存储至少两条以上的话术信息;话术匹配模块与用户画像、语音交互话术库和数据接口模块相连,其包括初始话术产生单元、后续话术产生单元、语音识别和分析单元和话术匹配模型。本发明通过大数据进行用户画像,并通过受限玻尔兹曼机模型根据用户画像特征匹配最优话术提示话务人员,通过语音识别和语义分析确认话务人员所选择的话术并自动进行记录,通过对客户反馈的语句进行语音识别和语义分析,并进行后续话术的匹配并提示话务人员。
Description
技术领域
本发明涉及人工智能的技术领域,更具体地,涉及一种基于人工智能的语音交互提示器。
背景技术
目前,营销类人工话务中心的话务人员在企业的发展中不可或缺,营销类人工话务中心对于话务人员与客户在电话沟通中的话术只会有前期培训和过程总结等,但并不会针对每一通电话、每一个客户进行实时相关指导,导致话务人员在与客户交互时遇到超出其经验范畴的客户反馈时,无法快速提供准确信息,难以保证营销的质量、效率,甚至会引致客户投诉。
随着科技的日新月异,人工智能逐渐融入且改变着人们的生活方式。各行各业的智能化发展,使得人工智能在营销类人工话务领域越来越受到人们的关注。
然而,近期兴起的人工智能(AI)语音交互营销则严重受限于人工智能本身在自然语言分析方面的瓶颈,尤其是对于一些非常规提问和指代错误等情况无法做出准确的应答,如此,电话营销的质量、效率亦难以保障,极端情况下会引至客户投诉。
发明内容
本发明的目的在于克服现有技术存在的上述缺陷,提供一种基于人工智能的语音交互提示器,其可以实时采集话务人员与客户声音,并对采集到的声音进行语音识别、语义分析,利用大数据用户画像、语音识别、语义分析受限玻尔兹曼机优化算法等人工智能手段,为话务人员进行话术提示的提示设备。
为实现上述目的,本发明的技术方案如下:
一种基于人工智能的语音交互提示器,其包括显示屏、目标用户分配模块、声音采集模块和客户反馈模块;所述声音采集模块用于收集所述话务人员的语音,所述显示屏给所述话务人员提供话术组和接收所述话务人员在所述话术组中所选择的话术信息,所述客户反馈模块用于接收所述客户的应答语音信息,所述目标用户分配模块的输入为运营商侧客户编码,其输出为用户画像;其中,所述话术组至少包括两条以上的话术信息及其所对应的成功率;所述用户画像包括至少一个与所述客户编码相对应的特征标签;
语音交互话术库,用于存储至少两条以上的话术信息;
话术匹配模块,与所述用户画像模块、所述语音交互话术库和所述数据接口模块相连;其包括初始话术产生单元、语音识别和分析单元和话术匹配模型,所述初始话术产生单元根据用户画像和话术匹配模型,从所述语音交互话术库选择一所述话术组,供所述话务人员选择所述话术组中的一条话术信息向所述客户提问,所述声音采集模块收集所述话务人员的语音,所述语音识别和语义分析单元对所述话术信息进行语音识别和语义分析并产生当前提问/回复过程的第一匹配参考因子。
优选地,所述话术匹配模块还包括后续话术提示单元,当所述客户反馈模块接收到所述客户的应答语音信息后,所述语音识别和语义分析单元对所述应答语音信息进行语音识别和语义分析并产生当前提问/回复过程的第二匹配参考因子,所述后续话术提示单元根据话术匹配模型、所述当前提问/回复过程的第一匹配参考因子和当前提问/回复过程的所述第二匹配参考因子对所述语音交互话术库中的话术信息进行匹配,以产生下一轮所述话务人员可选择的所述话术组。
优选地,所述话务人员在之前历次会话中所使用的所述话术信息形成了第一匹配参考因子组,所述客户之前历次会话中所反馈的应答语音信息形成了第二匹配参考因子组。
优选地,所述话术匹配模块还包括权重分配单元,所述权重分配单元对用户画像、每一轮产生的第一匹配参考因子和/或第二匹配参考因子设置权重。
优选地,所述权重分配单元将最近一轮产生的第一匹配参考因子和第二匹配参考因子设置为最高权重。
优选地,所述话术提示器还包括电话呼出脱敏模块,所述电话呼出模块的输入为运营商侧的客户编码,输出为通过运营商所给渠道拨打该客户的电话号码。
优选地,还包括存储模块和评价模块,所述评价模块在每次客户挂断电话后,话务人员对话术提示器的服务给出评价结果,并记录话务结果;所述存储模块在每次客户挂断电话后,存储一组结构化数据放入样本数据库,所述结构化数据包括用户画像、含有话务人员在之前历次会话中所使用的所述话术信息的所述第一匹配参考因子、含有所述客户之前历次会话中所反馈的应答语音信息的所述第二匹配参考因子、所述话务结果以及所述评价结果;其中,所述话务结果为成功或不成功。
优选地,还包括模型优化模块,所述模型优化模块根据所述存储模块存储的结构化数据与所述话务结果,优化所述话术匹配模型;其中,包括如下步骤:
步骤S1:收集样本数据组,并形成样本数据组集合;对所述样本数据组集合进行清洗,筛去对所述话术匹配模型产生误导的无效样本,形成有效样本集合;
步骤S2:随机选择所述有效样本集合中的一部分作为训练集,剩余部分作为验证集;
步骤S3:将训练集中营销成功率较高的话术信息进行校对,并通过对部分高评分成功、高评分失败、低评分成功、低评分失败案例的整体语音的交互过程抽样复盘分析,对部分话术信息局部进行优化后,用该训练集重新训练话术匹配模型,得到新话术匹配模型;
步骤S4:根据验证集对新话术匹配模型进行测试检验。
优选地,所述话术匹配模型为受限玻尔兹曼机神经网络模型。
从上述技术方案可以看出,本发明的语音交互话术提示器,其通过大数据进行用户画像,并通过受限玻尔兹曼机模型根据用户画像特征匹配最优话术提示话务人员,通过语音识别和语义分析确认话务人员所选择的话术并自动进行记录,通过对客户反馈的语句进行语音识别、语义分析并进行后续话术的匹配并提示话务人员。此外,由于客户话务人员并未接触任何客户信息,因此可在实现定制化营销的同时充分保护客户隐私。
附图说明
图1所示为本发明基于人工智能的语音交互提示器的外观示意图
图2所示为本发明实施例中语音交互话术提示器的功能框图
图3所示为本发明实施例中语音交互话术提示器的工作流程示意图
图4所示为本发明实施例中语音交互话术提示器的系统示意图
图5所示为本发明实施例中语音交互话术提示器的
具体实施方式
下面结合附图,对本发明的具体实施方式作进一步的详细说明。
需要说明的是,在下述的具体实施方式中,在详述本发明的实施方式时,为了清楚地表示本发明的结构以便于说明,特对附图中的结构不依照一般比例绘图,并进行了局部放大、变形及简化处理,因此,应避免以此作为对本发明的限定来加以理解。
在以下本发明的具体实施方式中,请参阅图1,图1所示为本发明一种基于人工智能的语音交互提示器的外观示意图。如图所示,该语音交互话术提示器机身主体和数据接口模块组成,该机身主体包括玻璃面板1、机身外壳3和电源开关5等构成。
数据接口模块通常位于所述机身主体上,其包括显示屏2、目标用户分配模块、声音采集模块(例如耳麦插口)4和客户反馈模块。声音采集模块4用于收集话务人员的语音,显示屏2用于给话务人员输出交互话术组和接收话务人员在所述话术组中所选择的话术信息,客户反馈模块用于接收客户的应答语音信息,目标用户分配模块的输入为运营商侧客户编码,其输出为用户画像。
该话术提示器可以针对每一通电话和每一个客户给话务人员提供相关指导,即话务人员可以在首次提问和/或面对客户的反馈时能参考在该话术提示器显示的多条话术信息及其所对应的成功率,结合自己的经验选择一条话术信息,以保证话务的质量和效率。
在本发明的实施例中,语音交互话术提示器显示的多条话术信息来自语音交互话术库,该语音交互话术库包括至少两条以上的话术信息。在语音交互话术库初始建设时,该语音交互话术库所包含的话术信息由话术专家通过实践经验总结出来的。在后续的使用过程中,可以通过实时采集话务人员与客户声音,并对采集到的声音进行语音识别和语义分析,利用大数据用户画像、语音识别、语义分析和受限玻尔兹曼机优化算法(受限玻尔兹曼机是基于热力学概率分布的一种随机神经网络模型,相较其他人工智能模型具有更强大的特征提取能力,广泛应用与数据降维、分类、协同过滤、推荐等领域)等人工智能手段,其在引入了吉布斯采样和对比散度算法后,极大地提升了收敛速度,降低了训练时间。同时在语音交互营销的短文本特定环境下,对语义分析的维度、窗口进行了针对性调优后,进一步引入了惩罚函数优化受限玻尔兹曼机模型,使其可以在极短时间内完成提示话术匹配并提示话务人员。此外,上述体系可用于进一步优化语音交互话术库,优化语音交互话术库的方案后续详述。
在使用语音话术提示器时,话务人员只需打开电源并戴好、插入耳麦,即可通过语音进行电话呼出操作。电话呼出模块通常由运营商所提供的模块,其输入为运营商侧客户编码,输出为通过运营商所给渠道拨打该客户的电话号码。该客户编码相对于话务人员来说,可以在不接触任何客户信息的情况下,在实现定制化营销的同时充分保护客户隐私。上述功能是通过电话呼出脱敏模块实现,所述电话呼出模块的输入为运营商侧的客户编码,输出为通过运营商所给渠道拨打该客户的电话号码。
在本发明的实施例中,用户画像模块可以为在运营商数据库测布署的大数据分析模型,其输入为运营商侧客户编码,输出为用户画像标签,其输入为运营商侧至少一个客户编码,输出为用户画像,所述用户画像的标签可以包括至少一个与所述客户编码相对应的特征标签;例如,性别、年龄、国籍、出生地、具备强金融属性,网络购物达人、可能有较强贷款需求和可能有购房意愿等。
请参阅图2和图3,图2所示为本发明实施例中语音交互话术提示器的功能框图,图3所示为本发明实施例中语音交互话术提示器的工作流程示意图。如图所示,该话术提示器的核心模块是话术匹配模块,其与用户画像模块、语音交互话术库和数据接口模块相连。该话术匹配模块可以包括初始话术产生单元、后续话术产生单元、语音识别和分析单元、话术匹配模型和权重分配单元。
需要说明的是,语音识别和分析单元为基于google的公开技术Word2vec词向量模型的基础上开发的专用于银行零售领域的词袋库模型,特别适用于营销场景等短文本的语义识别,其在单一领域的识别速度和准确率可充分满足本专利使用要求。Word2vec是google的Mikolov等人在2013年6月开放的一款开源的,基于distributed representation(分布式表征)这种词向量表达方式的一种模型,作用是将自然语言中的字词转为计算机可以理解的稠密向量。
在本发明的实施例中,话务人员接收到目标用户分配模块所分配的客户时,目标用户分配模块根据用户画像和话术匹配模型,从语音交互话术库选择至少两条以上的话术信息及其对应的成功率作为话务人员向所述客户的话术提示,话务人员选择话术提示中的一条话术信息向客户提问,较佳地,话术匹配模型可以为受限玻尔兹曼机神经网络模型。
如图3所示,声音采集模块收集话务人员选择话术提示中的一条话术信息语音识别和语义分析单元对话术信息进行语音识别和语义分析并产生当前提问过程的第一匹配参考因子。该第一匹配参考因子是该轮提问过程从话务人员的话术信息中提取出来的,其代表话务人员所选择的话术方案,该第一匹配参考因子之后由存储模块记录。
在本发明的实施例中,客户在接收话务人员的话术信息后,会反馈应答语音信息。即当所述客户反馈模块接收到客户的应答语音信息后,语音识别和语义分析单元对应答语音信息进行语音识别和语义分析并产生当前回复过程的第二匹配参考因子。该第二匹配参考因子是该轮回复过程从客户的应答语音信息中提取出来的,其代表客户所选择的话术方案,该第二匹配参考因子之后由存储模块记录。
需要说明的是,话务人员在之前历次会话中所使用的所述话术信息形成了第一匹配参考因子组,客户之前历次会话中所反馈的应答语音信息形成了第二匹配参考因子组。
接下来,再请参阅图2,后续话术产生单元根据话术匹配模型、当前提问/回复过程的第一匹配参考因子与当前提问/回复过程的第二匹配参考因子对所述语音交互话术库中的话术信息进行匹配,以产生下一轮话务人员可选择的话术信息。
在本发明实施例中,该话术匹配模块还可以包括权重分配单元,该权重分配单元对用户画像、每一轮产生的第一匹配参考因子和/或第二匹配参考因子设置权重。较佳地,该权重分配单元将最近一轮产生的第一匹配参考因子和第二匹配参考因子设置为最高权重。
较佳地,在语音交互话术提示器还可以包括话务人员匹配模块、存储模块和评价模块,话务人员匹配模块接收目标用户分配模块给出的客户运营商侧的客户编码。
评价模块在每次客户挂断电话后,话务人员对话术提示器的服务给出评价结果,并记录话务结果。存储模块在每次客户挂断电话后,存储一组结构化数据放入样本数据库,结构化数据包括用户画像、含有话务人员在之前历次会话中所使用的话术信息的第一匹配参考因子、含有客户之前历次会话中所反馈的应答语音信息的第二匹配参考因子、话务结果以及评价结果。
具体地,当话务人员将交互话术提示器关机时,各提示器将此前各段语音交互的全程录音、语义分析结果和话务人员评价等结构化数据上传至主服务器后关闭电源。主服务器将后续收集的话务结果与话术提示器上传的结构化文档匹配后,作为一组样本数据进行存储。
当成功营销的样本数据达一定数量(例如,10000)组后,就可以对话术匹配模型进行优化,即由图2中的模型优化模块实现,模型优化模块根据所述存储模块存储的结构化数据与所述话务结果,优化所述话术匹配模型;其中,包括如下步骤:
步骤S1:收集样本数据组,并形成样本数据组集合;对所述样本数据组集合进行清洗,筛去对所述话术匹配模型产生误导的无效样本,形成有效样本集合。
从收集到的样本数据组中可以看出,其中有一部分是无效样本(例如,用户接通后不到三秒就挂机,此时话务人员往往仅说完“喂,您好”),此类样本如果具备较大规模,可能对模型产生误导,因此,需对该样本数据组进行分析清洗,筛去其中的无效样本。
步骤S2:随机选择所述有效样本集合中的一部分作为训练集,剩余部分作为验证集。
在本实施例中,可以随机选择其中三分之一的样本数据作为训练集,剩余三分之二样本数据作为验证集。
步骤S3:将训练集中营销成功率较高的话术信息进行校对,并通过对部分高评分成功、高评分失败、低评分成功、低评分失败案例的整体语音的交互过程抽样复盘分析,对部分话术信息局部或整体进行优化后,用该训练集重新训练话术匹配模型,得到新话术匹配模型。
步骤S4:根据验证集对新话术匹配模型进行测试检验。
在本发明的实施例中,还可以根据验证集对新话术匹配模型进行测试,以判断新话术匹配模型是否优于旧话术匹配模型。即对新旧话术匹配模型进行盲测,以测试新话术匹配模型是否显著优于旧话术匹配模型。
测试的方法具体为:
在上述验证集中随机抽取20组成功营销的且话务人员对话术提示器给予高评分的样本,保留其中客户应答语音信息部分,删除其中话务人员话术信息。
模拟真实使用交互话术提示器营销的场景由多人(例如,30人话术专家团队)各自独立完成测试,每次话术提示器将同时给出新旧模型所提供的各三句话术提示及成功概率,但不告知专家该三句话术提示信息及成功概率属于新话术匹配模型或旧话术匹配模型,专家需选择其中他认为最合适的一句提示信息以继续测试。
各专家在完成20组样本的测试后,系统将自动去除新旧模型中完全一致的话术信息,随后统计新、旧模型中的话术采用数量,形成如下样本:(专家A,新模型XX,旧模型YY),其中XX与YY分别是专家A所选取的去重后新模型、旧模型中话术的数量。
得到30个样本数据后,用Student T-test对样本进行统计分析,若新模型话术选取数量统计上显著大于旧模型话术选取数量(95%confidence level)则采用新模型,反之则继续沿用旧模型。
以上所述的仅为本发明的优选实施例,所述实施例并非用以限制本发明的专利保护范围,因此凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。
Claims (8)
1.一种基于人工智能的语音交互提示器,其特征在于,包括:
数据接口模块,包括显示屏、目标用户分配模块、声音采集模块和客户反馈模块;所述声音采集模块用于收集话务人员的语音,所述显示屏给所述话务人员提供话术组和接收所述话务人员在所述话术组中所选择的话术信息,所述客户反馈模块用于接收所述客户的应答语音信息,所述目标用户分配模块的输入为运营商侧客户编码,其输出为用户画像;其中,所述话术组至少包括两条以上的话术信息及其所对应的成功率;所述用户画像包括至少一个与所述客户编码相对应的特征标签;
语音交互话术库,其用于存储至少两条以上的话术信息;
话术匹配模块,与所述用户画像、所述语音交互话术库和所述数据接口模块相连;其包括初始话术产生单元、语音识别和分析单元和话术匹配模型,所述初始话术产生单元根据用户画像和话术匹配模型,从所述语音交互话术库选择一所述话术组,供所述话务人员选择所述话术组中的一条话术信息向所述客户提问,所述声音采集模块收集所述话务人员的语音,所述语音识别和语义分析单元对所述话务人员的所述话术信息进行语音识别和语义分析并产生当前提问过程的第一匹配参考因子;
后续话术产生单元,当所述客户反馈模块接收到所述客户的应答语音信息后,所述语音识别和语义分析单元对所述客户的所述应答语音信息进行语音识别和语义分析并产生当前回复过程的第二匹配参考因子,所述后续话术产生单元根据话术匹配模型、所述当前提问过程的第一匹配参考因子和当前回复过程的所述第二匹配参考因子对所述语音交互话术库中的话术信息进行匹配,以产生下一轮所述话务人员可选择的所述话术组。
2.根据权利要求1所述的基于人工智能的语音交互提示器,其特征在于,所述话务人员在之前历次会话中所使用的所述话术信息形成了第一匹配参考因子组,所述客户之前历次会话中所反馈的应答语音信息形成了第二匹配参考因子组。
3.根据权利要求1所述的基于人工智能的语音交互提示器,其特征在于,所述话术匹配模块还包括权重分配单元,所述权重分配单元对用户画像、每一轮产生的第一匹配参考因子和/或第二匹配参考因子设置权重。
4.根据权利要求3所述的基于人工智能的语音交互提示器,其特征在于,所述权重分配单元将最近一轮产生的第一匹配参考因子和第二匹配参考因子设置为最高权重。
5.权利要求1所述的基于人工智能的语音交互提示器,其特征在于,还包括电话呼出脱敏模块,所述电话呼出模块的输入为运营商侧的客户编码,输出为通过运营商所给渠道拨打该客户的电话号码。
6.根据权利要求1所述的基于人工智能的语音交互提示器,其特征在于,还包括存储模块和评价模块,所述评价模块在每次客户挂断电话后,话务人员对话术提示器的服务给出评价结果,并记录语音交互结果;所述存储模块在每次客户挂断电话后,存储一组结构化数据放入样本数据库,所述结构化数据包括用户画像、含有话务人员在之前历次会话中所使用的所述话术信息的所述第一匹配参考因子、含有所述客户之前历次会话中所反馈的应答语音信息的所述第二匹配参考因子、所述语音交互结果以及所述评价结果;其中,所述语音交互结果为成功或不成功。
7.根据权利要求6所述的基于人工智能的语音交互提示器,其特征在于,还包括模型优化模块,所述模型优化模块根据所述存储模块存储的结构化数据与所述语音交互结果,优化所述话术匹配模型;其中,包括如下步骤:
步骤S1:收集样本数据组,并形成样本数据组集合;对所述样本数据组集合进行清洗,筛去对所述话术匹配模型产生误导的无效样本,形成有效样本集合;
步骤S2:随机选择所述有效样本集合中的一部分作为训练集,剩余部分作为验证集;
步骤S3:将训练集中语音交互成功率较高的话术信息进行校对,并通过对部分高评分成功、高评分失败、低评分成功、低评分失败案例的整体语音的交互过程抽样复盘分析,对部分话术信息局部进行优化后,用该训练集重新训练话术匹配模型,得到新话术匹配模型;
步骤S4:对新话术匹配模型进行测试检验。
8.根据权利要求1-7任意一个所述的基于人工智能的语音交互提示器,其特征在于,所述话术匹配模型为受限玻尔兹曼机神经网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910890526.4A CN110610705B (zh) | 2019-09-20 | 2019-09-20 | 一种基于人工智能的语音交互提示器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910890526.4A CN110610705B (zh) | 2019-09-20 | 2019-09-20 | 一种基于人工智能的语音交互提示器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110610705A CN110610705A (zh) | 2019-12-24 |
CN110610705B true CN110610705B (zh) | 2023-07-25 |
Family
ID=68891687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910890526.4A Active CN110610705B (zh) | 2019-09-20 | 2019-09-20 | 一种基于人工智能的语音交互提示器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110610705B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111179572A (zh) * | 2019-12-31 | 2020-05-19 | 四川声达创新科技有限公司 | 一种引导式智能语音系统 |
CN111507774A (zh) * | 2020-04-28 | 2020-08-07 | 上海依图网络科技有限公司 | 一种数据处理方法及装置 |
CN111858874A (zh) * | 2020-05-06 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 对话服务处理方法、装置、设备及计算机可读存储介质 |
CN112346567B (zh) * | 2020-11-03 | 2022-12-06 | 平安科技(深圳)有限公司 | 基于ai的虚拟交互模型生成方法、装置及计算机设备 |
CN112397061B (zh) * | 2020-11-04 | 2023-10-27 | 中国平安人寿保险股份有限公司 | 线上互动方法、装置、设备和存储介质 |
CN112686448B (zh) * | 2020-12-31 | 2024-02-13 | 重庆富民银行股份有限公司 | 基于属性数据的流失预警方法及系统 |
CN113035220A (zh) * | 2021-03-31 | 2021-06-25 | 华晨鑫源重庆汽车有限公司 | 车内噪声环境下的声音提取设备及提取方法 |
CN116955590B (zh) * | 2023-09-20 | 2023-12-08 | 成都明途科技有限公司 | 训练数据筛选方法、模型训练方法、文本生成方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0895396A2 (en) * | 1997-07-03 | 1999-02-03 | Texas Instruments Incorporated | Spoken dialogue system for information access |
JP2001188780A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
WO2006111952A2 (en) * | 2005-04-20 | 2006-10-26 | Massive Impact International Limited | Customer discovery and identification system and method |
WO2017084591A1 (zh) * | 2015-11-20 | 2017-05-26 | 北京奇虎科技有限公司 | 恶意电话的识别方法和装置 |
CN106934000A (zh) * | 2017-03-03 | 2017-07-07 | 深圳市彬讯科技有限公司 | 一种呼叫系统的语音自动质检方法及系统 |
CN108989592A (zh) * | 2018-07-25 | 2018-12-11 | 南京瓦尔基里网络科技有限公司 | 一种用于呼叫中心的智能话术交互系统及方法 |
CN109739971A (zh) * | 2019-01-03 | 2019-05-10 | 浙江百应科技有限公司 | 一种基于微信小程序实现全双工智能语音对话的方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7248678B2 (en) * | 2003-02-07 | 2007-07-24 | Avaya Technology Corp. | Methods and apparatus for routing and accounting of revenue generating calls using natural language voice recognition |
JP2006245758A (ja) * | 2005-03-01 | 2006-09-14 | Nec Fielding Ltd | コールセンタシステム及びオペレータ評価方法並びにプログラム |
JP5152314B2 (ja) * | 2010-12-16 | 2013-02-27 | 沖電気工業株式会社 | 対話管理装置、方法及びプログラム、並びに意識抽出システム |
CN102868836B (zh) * | 2012-09-17 | 2015-08-05 | 北京讯鸟软件有限公司 | 用于呼叫中心的真人话术系统及其实现方法 |
CN105512228B (zh) * | 2015-11-30 | 2018-12-25 | 北京光年无限科技有限公司 | 一种基于智能机器人的双向问答数据处理方法和系统 |
CN109033257A (zh) * | 2018-07-06 | 2018-12-18 | 中国平安人寿保险股份有限公司 | 话术推荐方法、装置、计算机设备和存储介质 |
CN109272129B (zh) * | 2018-09-20 | 2022-03-18 | 重庆先特服务外包产业有限公司 | 呼叫中心业务管理系统 |
CN109215654A (zh) * | 2018-10-22 | 2019-01-15 | 北京智合大方科技有限公司 | 实时语音识别和自然语言处理的移动端智能客服辅助系统 |
-
2019
- 2019-09-20 CN CN201910890526.4A patent/CN110610705B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0895396A2 (en) * | 1997-07-03 | 1999-02-03 | Texas Instruments Incorporated | Spoken dialogue system for information access |
JP2001188780A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
WO2006111952A2 (en) * | 2005-04-20 | 2006-10-26 | Massive Impact International Limited | Customer discovery and identification system and method |
WO2017084591A1 (zh) * | 2015-11-20 | 2017-05-26 | 北京奇虎科技有限公司 | 恶意电话的识别方法和装置 |
CN106934000A (zh) * | 2017-03-03 | 2017-07-07 | 深圳市彬讯科技有限公司 | 一种呼叫系统的语音自动质检方法及系统 |
CN108989592A (zh) * | 2018-07-25 | 2018-12-11 | 南京瓦尔基里网络科技有限公司 | 一种用于呼叫中心的智能话术交互系统及方法 |
CN109739971A (zh) * | 2019-01-03 | 2019-05-10 | 浙江百应科技有限公司 | 一种基于微信小程序实现全双工智能语音对话的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110610705A (zh) | 2019-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110610705B (zh) | 一种基于人工智能的语音交互提示器 | |
EP3893477A1 (en) | Human-in-the-loop voice communication system and method | |
CN109151218A (zh) | 通话语音质检方法、装置、计算机设备及存储介质 | |
US8798255B2 (en) | Methods and apparatus for deep interaction analysis | |
CN112346567B (zh) | 基于ai的虚拟交互模型生成方法、装置及计算机设备 | |
CN107818798A (zh) | 客服服务质量评价方法、装置、设备及存储介质 | |
CN111241357A (zh) | 对话训练方法、装置、系统及存储介质 | |
CN110704618B (zh) | 确定对话数据对应的标准问题的方法及装置 | |
CN110377726B (zh) | 一种人工智能实现自然语言文本情绪识别方法与装置 | |
KR20200092499A (ko) | 대화형 인공지능 기술을 이용한 상담 지원 방법 및 그 장치 | |
CN111475633B (zh) | 基于座席语音的话术支持系统 | |
CN111429157A (zh) | 投诉工单的评价处理方法、装置、设备及存储介质 | |
US10701006B2 (en) | Method and system for facilitating computer-generated communication with user | |
WO2020144636A1 (en) | Artificial intelligence system for business processes | |
CN113505606B (zh) | 一种培训信息获取方法、装置、电子设备及存储介质 | |
CN110765242A (zh) | 一种客服信息的提供方法,装置及系统 | |
CN113573029B (zh) | 一种基于iot的多方音视频交互方法及系统 | |
CN109670030A (zh) | 问答交互方法及装置 | |
US11196864B1 (en) | Analyzing voice response to telephone call to assign appropriate agent | |
CN114328867A (zh) | 一种人机对话中智能打断的方法及装置 | |
CN112185383A (zh) | 一种用于客服回访的处理方法及系统 | |
CN113990288B (zh) | 一种语音客服自动生成部署语音合成模型的方法 | |
CN112714220B (zh) | 业务处理方法、装置、计算设备及计算机可读存储介质 | |
JP7184831B2 (ja) | 音声の言語特徴と感情特徴を結合させて感情推定を行うモデル及び装置、並びに当該モデルの生成方法 | |
CN117648408B (zh) | 基于大模型的智能问答方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 200436 room 406, 1256 and 1258 Wanrong Road, Jing'an District, Shanghai Applicant after: Shanghai Shuming Artificial Intelligence Technology Co.,Ltd. Address before: Room 1601-026, 238 JIANGCHANG Third Road, Jing'an District, Shanghai, 200436 Applicant before: Shanghai Shuming Artificial Intelligence Technology Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |