CN112800743A - 一种基于特定领域的语音打分模型构建系统及方法 - Google Patents
一种基于特定领域的语音打分模型构建系统及方法 Download PDFInfo
- Publication number
- CN112800743A CN112800743A CN202110054518.3A CN202110054518A CN112800743A CN 112800743 A CN112800743 A CN 112800743A CN 202110054518 A CN202110054518 A CN 202110054518A CN 112800743 A CN112800743 A CN 112800743A
- Authority
- CN
- China
- Prior art keywords
- voice
- scoring
- terminal
- time length
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000010276 construction Methods 0.000 title claims abstract description 48
- 238000004458 analytical method Methods 0.000 claims abstract description 60
- 238000012545 processing Methods 0.000 claims abstract description 53
- 238000007405 data analysis Methods 0.000 claims abstract description 34
- 238000012360 testing method Methods 0.000 claims abstract description 16
- 238000007689 inspection Methods 0.000 claims description 48
- 238000009434 installation Methods 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 31
- 238000010219 correlation analysis Methods 0.000 claims description 17
- 238000012937 correction Methods 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 210000002268 wool Anatomy 0.000 claims description 3
- 230000006854 communication Effects 0.000 abstract description 3
- 238000012549 training Methods 0.000 abstract description 3
- 230000002996 emotional effect Effects 0.000 abstract 1
- 238000010606 normalization Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/01—Customer relationship services
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/60—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Accounting & Taxation (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Quality & Reliability (AREA)
- Probability & Statistics with Applications (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明公开了一种基于特定领域的语音打分模型构建系统及方法,用于解决的是在培训过程中,通过对坐席沟通过程的语音进行打分,从而准确的评估坐席对话术的掌握程度的问题,包括测试采集模块、服务器、数据分析模块和模型构建模块;本发明服务器将采集到语音流文件调用语言识别引擎识别,并结合语音信号的特征,融合在一起进行分析处理,从而全方位的评估坐席对话术的掌握程度,以及坐席在沟通过程中的情感变化是否满足要求,通过评估,针对不同的分析结果,采取不同的培训手段进行干预,从而让坐席能够经过短时间的培训迅速掌握沟通的技能,提升新员工的产能。
Description
技术领域
本发明涉及语音分析处理技术领域,具体为一种基于特定领域的语音打分模型构建系统及方法。
背景技术
坐席员主要是指公司企业中在呼叫中心或客服部门工作,主要工作内容为通过接听电话或者外拨电话来处理服务、销售、数据采集、信息调查、业务回访等事务。此类工作人员均被称为坐席员。
现有的语音处理系统,存在不能对坐席员的语音进行分配,合理的对坐席员语音进行分析评估,便于让坐席熟悉并能够背诵标准话术的说法,限定文本的问题。
发明内容
本发明的目的就在于为了解决的是在培训过程中,通过对坐席沟通过程的语音进行打分,从而准确的评估坐席对话术的掌握程度的问题,而提出一种基于特定领域的语音打分模型构建系统及方法。
本发明的目的可以通过以下技术方案实现:一种基于特定领域的语音打分模型构建系统,包括测试采集模块、服务器、数据分析模块和模型构建模块;
所述测试采集模块用于采集在特定领域下测试的语音并将语音发送至服务器内;其中,特定领域测试的语音包括跟读场景下测试的语音及情景对练模式下测试的语音;
所述服务器将接收到的语音分配至对应工作人员电脑终端上,工作人员电脑终端内安装有数据分析模块;
所述数据分析模块用于分析特定领域下测试的语音得到评分维度,数据分析模块将分析的评分维度发送至模型构建模块;模型构建模块将接收到评分维度的时刻标记为分析完成时刻;其中,数据分析模块分析包括内容相关性分析、表达流利性分析和场景流畅性分析;
所述模型构建模块用于对评分维度进行模型构建,具体为:获取模型对应的评分维度,每个评分维度均对应一个预设分,将模型对应的评分维度与所有评分维度进行匹配获取得到对应的预设分,将模型匹配到的所有预设分进行求和得到总分;其中,评分维度包括关键词覆盖率、语义覆盖率、质检差错值、语量、字错率和停顿频率。
优选的,所述跟读场景下测试的语音为应答者大声朗读测试提示中提示的所有内容的语音;客户回答与坐席回答一一对应;所述情景对练模式下测试的语音为限定某个场景下,坐席员按照指定的对话流程进行沟通的语音,当坐席员对话第一次偏离流程时,提示坐席员应该说话的关键信息;若在提示关键信息后,坐席员仍偏离流程,则对坐席员应该说的话进行完整信息提示;若第三次仍然未通过,则停止当前对话,结束流程。
优选的,所述内容相关性分析包括关键词覆盖率计算、语义覆盖率计算、质检差错值计算和语量计算;
所述关键词覆盖率计算的具体过程为:识别语音中出现关键词,将语音中出现关键词的数量与预设关键词数量进行比值计算得到关键词覆盖率KCR;取值范围为[0,1],具体表现为:给定一组关键词,关键词的数量为n个,采用语音关键词检索技术检索应答者答题语音中是否存在与其发音相同的词语,发音相同词语的数量m个,然后通过式子KCR=m/n获取得到关键词覆盖率KCR;
所述语义覆盖率计算的具体过程为:对坐席员的语音进行语义标签标记,语义标签包括策略、施压类型、针对客户问题的回答、核身身份和三方转告;具体表现为:当某轮对话中坐席话术预先设置了A个语义标签时,而应答者回答的内容中监听了B个语义标签;则语义覆盖率KCS=A/B;
所述质检差错值计算的具体过程为:将坐席员的语音转写为文本,将撰写的文本与质检数据库进行比对,质检数据库内包括若干个质检项;每个质检项均对应预设评分项;将文本与质检项进行比对,当文本匹配到对应的质检项,则将所有匹配到的质检项进行求和得到质检差错值;
所述语量计算的的具体过程为:将坐席员的语音转换成文字并统计文字的字数得到语量;
所述相似度计算的具体过程为:将坐席员语音的文本与参考答案进行比对处理得到。
所述表达流利性分析包括发音标准分析、停顿分析和重复纠正分析;所述发音标准分析的具体过程为:通过ASR对语音识别,统计ASR识别后的字错率;
所述停顿分析的具体过程为:对坐席员的一段语音进行有填补性停顿识别,填补性停顿识别为嗯、啊、呢填充音出现的数量;同时统计一段语音中静音时长超过或等于0.3秒的次数;将填充音出现的数量加上静音时长超过或等于0.3秒的次数等于总停顿个数,利用公式停顿频率=总停顿个数/发音持续的总时间得到停顿频率;
所述重复纠正分析的具体过程为:对语音中的单词、词组或句子进行识别,统计被重新说一遍且不对句法、词形或词序有所改动的单词、词组或句子的重复数量。
优选的,所述模型构建模块进行模型构建的具体过程为:
模型构建包括跟读场景评分模型构建和情景对练评分模型构建;
其中场景评分模型构建为获取评分维度中的停顿频率、,将停顿频率、与所有评分维度进行匹配获取得到对应的预设分,将匹配到的预设分进行求和得到场景评分模型对应的总分;
情景对练评分模型构建为获取评分维度中的关键词覆盖率、语义覆盖率、质检差错值、语量和字错率,将关键词覆盖率、语义覆盖率、质检差错值、语量和字错率与所有评分维度进行匹配获取得到对应的预设分,将匹配到的预设分进行求和得到情景对练评分模型对应的总分。
优选的,还包括数据采集模块,所述数据采集模块用于采集工作人员电脑终端的终端信息并将终端信息发送至服务器内存储;其中终端信息包括电脑终端的型号、安装时刻、通电开始时刻、通电结束时刻和电脑终端的运行内存。
优选的,所述服务器将接收到的语音分配至对应工作人员电脑终端上的具体步骤为:
步骤一:将工作人员的电脑终端标记为初选终端,获取初选终端的终端信息,将初选终端的安装时刻与当前时刻进行时间差计算获取得到初选终端的安装时长并标记为F1,单位是天;将初选终端的通电开始时刻和通电结束时刻进行时间差计算获取得到单次通电时长,将初选终端的所有单次通电总时长进行求和得到工作总时长并标记为F2;
步骤二:将初选终端的运行内存标记为F3;将初选终端的安装时长、工作总时长、运行内存进行归一化处理并取其数值;
步骤四:将终端处理值最大的初选终端标记为选中终端,服务器将接收到的语音分配至选中终端内,通过选中终端内的数据分析模块对语音进行分析处理,服务器将发送语音至选中终端的时刻标记为发送开始时刻;选中终端的处理次数增加一次;
步骤五:将发送开始时刻与分析完成时刻进行时间差计算获取得到单次处理时长;将单次处理时长与预设时长阈值进行比对,当单次处理时长小于预设时长阈值时,将预设时长阈值减去单次处理时长得到单次提前时长;将选中终端的所有单次提前时长进行求和得到提前总时长并标记为F5,将选中终端的处理次数标记为F6;将提前总时长和处理次数进行归一化处理并取其数值;利用公式F4=F5×b5+F6×b6获取得到选中终端的处效值,其中,b5和b6均为预设比例系数。
优选的,该语音打分模型系统的构建方法包括以下步骤:
S1:通过测试采集模块采集在特定领域下测试的语音并将语音发送至服务器内;
S2:服务器将接收到的语音后进行分配处理,具体为:
S21:将工作人员的电脑终端标记为初选终端,获取初选终端的终端信息,将初选终端的安装时刻与当前时刻进行时间差计算获取得到初选终端的安装时长并标记为F1,单位是天;将初选终端的通电开始时刻和通电结束时刻进行时间差计算获取得到单次通电时长,将初选终端的所有单次通电总时长进行求和得到工作总时长并标记为F2;
S22:将初选终端的运行内存标记为F3;将初选终端的安装时长、工作总时长、运行内存进行归一化处理并取其数值;
S24:将终端处理值最大的初选终端标记为选中终端;
S3:服务器将接收到的语音分配至选中终端内,通过选中终端内的数据分析模块对语音进行分析处理,数据分析模块对语音进行内容相关性分析、表达流利性分析和场景流畅性分析;
S31:内容相关性分析包括关键词覆盖率计算、语义覆盖率计算、质检差错值计算和语量计算;通过内容相关性分析得到关键词覆盖率KCR、语义覆盖率KCS、质检差错值、语量;
S32:表达流利性分析包括发音标准分析、停顿分析和重复纠正分析;通过表达流利性分析得到字错率、停顿频率;
S33:将关键词覆盖率、语义覆盖率、质检差错值、语量、字错率和停顿频率标记为评分维度;
S4:数据分析模块将分析的评分维度发送至模型构建模块,模型构建模块对评分维度进行模型构建,具体为:获取模型对应的评分维度,每个评分维度均对应一个预设分,将模型对应的评分维度与所有评分维度进行匹配获取得到对应的预设分,将模型匹配到的所有预设分进行求和得到总分。
与现有技术相比,本发明的有益效果是:通过测试采集模块采集在特定领域下测试的语音并将语音发送至服务器内;服务器将接收到的语音后进行分配处理,服务器将接收到的语音分配至选中终端内,通过选中终端内的数据分析模块对语音进行分析处理,数据分析模块对语音进行内容相关性分析、表达流利性分析和场景流畅性分析得到评分维度;数据分析模块将分析的评分维度发送至模型构建模块,模型构建模块对评分维度进行模型构建,本发明通过对坐席员的语音进行分析,便于对坐席员的发音、流畅性和内容等方面进行评估;服务器结合电脑终端的安装时长、工作总时长、运行内存和处效值进行归一化处理得到终端处理值,通过终端处理值合理的选取对应的电脑终端对坐席员的语音进行处理,提高语音处理的效率。
附图说明
为了便于本领域技术人员理解,下面结合附图对本发明作进一步的说明。
图1为本发明的原理框图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1所示,一种基于特定领域的语音打分模型构建系统,包括测试采集模块、服务器、数据采集模块、数据分析模块和模型构建模块;
测试采集模块用于采集在特定领域下测试的语音并将语音发送至服务器内;其中,特定领域测试的语音包括跟读场景下测试的语音及情景对练模式下测试的语音;
服务器将接收到的语音分配至对应工作人员电脑终端上,工作人员电脑终端内安装有数据分析模块;
数据分析模块用于分析特定领域下测试的语音得到评分维度,数据分析模块将分析的评分维度发送至模型构建模块;模型构建模块将接收到评分维度的时刻标记为分析完成时刻;其中,数据分析模块分析包括内容相关性分析、表达流利性分析和场景流畅性分析;
模型构建模块用于对评分维度进行模型构建,具体为:获取模型对应的评分维度,每个评分维度均对应一个预设分,将模型对应的评分维度与所有评分维度进行匹配获取得到对应的预设分,将模型匹配到的所有预设分进行求和得到总分;其中,评分维度包括关键词覆盖率、语义覆盖率、质检差错值、语量、字错率和停顿频率。
跟读场景下测试的语音为应答者大声朗读测试提示中提示的所有内容的语音;客户回答与坐席回答一一对应;情景对练模式下测试的语音为限定某个场景下,坐席员按照指定的对话流程进行沟通的语音,当坐席员对话第一次偏离流程时,提示坐席员应该说话的关键信息;若在提示关键信息后,坐席员仍偏离流程,则对坐席员应该说的话进行完整信息提示;若第三次仍然未通过,则停止当前对话,结束流程,针对坐席通过情况的情形不同,设置不同的权重值,最后在打分的时候会综合计算得分,同时将每轮对话是否通过情况记录,并在跟读场景下将此类问题加强训练,从而在下一次情景对练下掌握此技能;
内容相关性分析包括关键词覆盖率计算、语义覆盖率计算、质检差错值计算和语量计算;
关键词覆盖率计算的具体过程为:识别语音中出现关键词,将语音中出现关键词的数量与预设关键词数量进行比值计算得到关键词覆盖率KCR;取值范围为[0,1],具体表现为:给定一组关键词,关键词的数量为n个,采用语音关键词检索技术检索应答者答题语音中是否存在与其发音相同的词语,发音相同词语的数量m个,然后通过式子KCR=m/n获取得到关键词覆盖率KCR;
语义覆盖率计算的具体过程为:对坐席员的语音进行语义标签标记,语义标签包括策略、施压类型、针对客户问题的回答、核身身份和三方转告;具体表现为:当某轮对话中坐席话术预先设置了A个语义标签时,而应答者回答的内容中监听了B个语义标签;则语义覆盖率KCS=A/B;
质检差错值计算的具体过程为:将坐席员的语音转写为文本,将撰写的文本与质检数据库进行比对,质检数据库内包括若干个质检项;每个质检项均对应预设评分项;将文本与质检项进行比对,当文本匹配到对应的质检项,则将所有匹配到的质检项进行求和得到质检差错值;
语量计算的的具体过程为:将坐席员的语音转换成文字并统计文字的字数得到语量;
表达流利性分析包括发音标准分析、停顿分析和重复纠正分析;发音标准分析的具体过程为:通过ASR对语音识别,统计ASR识别后的字错率;
停顿分析的具体过程为:对坐席员的一段语音进行有填补性停顿识别,填补性停顿识别为嗯、啊、呢填充音出现的数量;同时统计一段语音中静音时长超过或等于0.3秒的次数;将填充音出现的数量加上静音时长超过或等于0.3秒的次数等于总停顿个数,利用公式停顿频率=总停顿个数/发音持续的总时间得到停顿频率;
重复纠正分析的具体过程为:对语音中的单词、词组或句子进行识别,统计被重新说一遍且不对句法、词形或词序有所改动的单词、词组或句子的重复数量;
模型构建模块进行模型构建的具体过程为:模型构建包括跟读场景评分模型构建和情景对练评分模型构建;
其中场景评分模型构建为获取评分维度中的停顿频率、,将停顿频率、与所有评分维度进行匹配获取得到对应的预设分,将匹配到的预设分进行求和得到场景评分模型对应的总分;
情景对练评分模型构建为获取评分维度中的关键词覆盖率、语义覆盖率、质检差错值、语量和字错率,将关键词覆盖率、语义覆盖率、质检差错值、语量和字错率与所有评分维度进行匹配获取得到对应的预设分,将匹配到的预设分进行求和得到情景对练评分模型对应的总分。
数据采集模块用于采集工作人员电脑终端的终端信息并将终端信息发送至服务器内存储;其中终端信息包括电脑终端的型号、安装时刻、通电开始时刻、通电结束时刻和电脑终端的运行内存。
服务器将接收到的语音分配至对应工作人员电脑终端上的具体步骤为:
步骤一:将工作人员的电脑终端标记为初选终端,获取初选终端的终端信息,将初选终端的安装时刻与当前时刻进行时间差计算获取得到初选终端的安装时长并标记为F1,单位是天;将初选终端的通电开始时刻和通电结束时刻进行时间差计算获取得到单次通电时长,将初选终端的所有单次通电总时长进行求和得到工作总时长并标记为F2;
步骤二:将初选终端的运行内存标记为F3;将初选终端的安装时长、工作总时长、运行内存进行归一化处理并取其数值;
步骤四:将终端处理值最大的初选终端标记为选中终端,服务器将接收到的语音分配至选中终端内,通过选中终端内的数据分析模块对语音进行分析处理,服务器将发送语音至选中终端的时刻标记为发送开始时刻;选中终端的处理次数增加一次;
步骤五:将发送开始时刻与分析完成时刻进行时间差计算获取得到单次处理时长;将单次处理时长与预设时长阈值进行比对,当单次处理时长小于预设时长阈值时,将预设时长阈值减去单次处理时长得到单次提前时长;将选中终端的所有单次提前时长进行求和得到提前总时长并标记为F5,将选中终端的处理次数标记为F6;将提前总时长和处理次数进行归一化处理并取其数值;利用公式F4=F5×b5+F6×b6获取得到选中终端的处效值,其中,b5和b6均为预设比例系数。
一种基于特定领域的语音打分模型构建方法,包括以下步骤:
S1:通过测试采集模块采集在特定领域下测试的语音并将语音发送至服务器内;
S2:服务器将接收到的语音后进行分配处理,具体为:
S21:将工作人员的电脑终端标记为初选终端,获取初选终端的终端信息,将初选终端的安装时刻与当前时刻进行时间差计算获取得到初选终端的安装时长并标记为F1,单位是天;将初选终端的通电开始时刻和通电结束时刻进行时间差计算获取得到单次通电时长,将初选终端的所有单次通电总时长进行求和得到工作总时长并标记为F2;
S22:将初选终端的运行内存标记为F3;将初选终端的安装时长、工作总时长、运行内存进行归一化处理并取其数值;
S24:将终端处理值最大的初选终端标记为选中终端;
S3:服务器将接收到的语音分配至选中终端内,通过选中终端内的数据分析模块对语音进行分析处理,数据分析模块对语音进行内容相关性分析、表达流利性分析和场景流畅性分析;
S31:内容相关性分析包括关键词覆盖率计算、语义覆盖率计算、质检差错值计算和语量计算;通过内容相关性分析得到关键词覆盖率KCR、语义覆盖率KCS、质检差错值、语量;
S32:表达流利性分析包括发音标准分析、停顿分析和重复纠正分析;通过表达流利性分析得到字错率、停顿频率;
S33:将关键词覆盖率、语义覆盖率、质检差错值、语量、字错率和停顿频率标记为评分维度;
S4:数据分析模块将分析的评分维度发送至模型构建模块,模型构建模块对评分维度进行模型构建,具体为:获取模型对应的评分维度,每个评分维度均对应一个预设分,将模型对应的评分维度与所有评分维度进行匹配获取得到对应的预设分,将模型匹配到的所有预设分进行求和得到总分。
上述公式均是采集大量数据进行软件模拟得出且选取与真实值接近的一个公式,公式中的系数是由本领域技术人员根据实际情况进行设置;
b1、b2、b3、b4、b5和b6为本领域技术人员根据实际情况进行设置,如b1、b2、b3、b4、b5和b6分别为0.37、0.79、0.44、0.28、0.64、0.87;
本发明在使用时,通过测试采集模块采集在特定领域下测试的语音并将语音发送至服务器内;服务器将接收到的语音后进行分配处理,服务器将接收到的语音分配至选中终端内,通过选中终端内的数据分析模块对语音进行分析处理,数据分析模块对语音进行内容相关性分析、表达流利性分析和场景流畅性分析得到评分维度;数据分析模块将分析的评分维度发送至模型构建模块,模型构建模块对评分维度进行模型构建,本发明通过对坐席员的语音进行分析,便于对坐席员的发音、流畅性和内容等方面进行评估;服务器结合电脑终端的安装时长、工作总时长、运行内存和处效值进行归一化处理得到终端处理值,通过终端处理值合理的选取对应的电脑终端对坐席员的语音进行处理,提高语音处理的效率。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。
Claims (8)
1.一种基于特定领域的语音打分模型构建系统,其特征在于,包括测试采集模块、服务器、数据分析模块和模型构建模块;
所述测试采集模块用于采集在特定领域下测试的语音并将语音发送至服务器内;其中,特定领域测试的语音包括跟读场景下测试的语音及情景对练模式下测试的语音;
所述服务器将接收到的语音分配至对应工作人员电脑终端上,工作人员电脑终端内安装有数据分析模块;
所述数据分析模块用于分析特定领域下测试的语音得到评分维度,数据分析模块将分析的评分维度发送至模型构建模块;模型构建模块将接收到评分维度的时刻标记为分析完成时刻;其中,数据分析模块分析包括内容相关性分析、表达流利性分析和场景流畅性分析;
所述模型构建模块用于对评分维度进行模型构建,具体为:获取模型对应的评分维度,每个评分维度均对应一个预设分,将模型对应的评分维度与所有评分维度进行匹配获取得到对应的预设分,将模型匹配到的所有预设分进行求和得到总分;其中,评分维度包括关键词覆盖率、语义覆盖率、质检差错值、语量、字错率和停顿频率。
2.根据权利要求1所述的一种基于特定领域的语音打分模型构建系统,其特征在于,所述跟读场景下测试的语音为应答者大声朗读测试提示中提示的所有内容的语音;客户回答与坐席回答一一对应;所述情景对练模式下测试的语音为限定某个场景下,坐席员按照指定的对话流程进行沟通的语音,当坐席员对话第一次偏离流程时,提示坐席员应该说话的关键信息;若在提示关键信息后,坐席员仍偏离流程,则对坐席员应该说的话进行完整信息提示;若第三次仍然未通过,则停止当前对话,结束流程。
3.根据权利要求2所述的一种基于特定领域的语音打分模型构建系统,其特征在于,所述内容相关性分析包括关键词覆盖率计算、语义覆盖率计算、质检差错值计算和语量计算;
所述关键词覆盖率计算的具体过程为:识别语音中出现关键词,将语音中出现关键词的数量与预设关键词数量进行比值计算得到关键词覆盖率KCR;取值范围为[0,1],具体表现为:给定一组关键词,关键词的数量为n个,采用语音关键词检索技术检索应答者答题语音中是否存在与其发音相同的词语,发音相同词语的数量m个,然后通过式子KCR=m/n获取得到关键词覆盖率KCR;
所述语义覆盖率计算的具体过程为:对坐席员的语音进行语义标签标记,语义标签包括策略、施压类型、针对客户问题的回答、核身身份和三方转告;具体表现为:当某轮对话中坐席话术预先设置了A个语义标签时,而应答者回答的内容中监听了B个语义标签;则语义覆盖率KCS=A/B;
所述质检差错值计算的具体过程为:将坐席员的语音转写为文本,将撰写的文本与质检数据库进行比对,质检数据库内包括若干个质检项;每个质检项均对应预设评分项;将文本与质检项进行比对,当文本匹配到对应的质检项,则将所有匹配到的质检项进行求和得到质检差错值;
所述语量计算的的具体过程为:将坐席员的语音转换成文字并统计文字的字数得到语量。
4.根据权利要求3所述的一种基于特定领域的语音打分模型构建系统,其特征在于,所述表达流利性分析包括发音标准分析、停顿分析和重复纠正分析;所述发音标准分析的具体过程为:通过ASR对语音识别,统计ASR识别后的字错率;
所述停顿分析的具体过程为:对坐席员的一段语音进行有填补性停顿识别,填补性停顿识别为嗯、啊、呢填充音出现的数量;同时统计一段语音中静音时长超过或等于0.3秒的次数;将填充音出现的数量加上静音时长超过或等于0.3秒的次数等于总停顿个数,利用公式停顿频率=总停顿个数/发音持续的总时间得到停顿频率;
所述重复纠正分析的具体过程为:对语音中的单词、词组或句子进行识别,统计被重新说一遍且不对句法、词形或词序有所改动的单词、词组或句子的重复数量。
5.根据权利要求4所述的一种基于特定领域的语音打分模型构建系统,其特征在于,所述模型构建模块进行模型构建的具体过程为:
模型构建包括跟读场景评分模型构建和情景对练评分模型构建;
其中场景评分模型构建为获取评分维度中的停顿频率,将停顿频率与所有评分维度进行匹配获取得到对应的预设分,将匹配到的预设分进行求和得到场景评分模型对应的总分;
情景对练评分模型构建为获取评分维度中的关键词覆盖率、语义覆盖率、质检差错值、语量和字错率,将关键词覆盖率、语义覆盖率、质检差错值、语量和字错率与所有评分维度进行匹配获取得到对应的预设分,将匹配到的预设分进行求和得到情景对练评分模型对应的总分。
6.根据权利要求5所述的一种基于特定领域的语音打分模型构建系统,其特征在于,还包括数据采集模块,所述数据采集模块用于采集工作人员电脑终端的终端信息并将终端信息发送至服务器内存储;其中终端信息包括电脑终端的型号、安装时刻、通电开始时刻、通电结束时刻和电脑终端的运行内存。
7.根据权利要求6所述的一种基于特定领域的语音打分模型构建系统,其特征在于,所述服务器将接收到的语音分配至对应工作人员电脑终端上的具体步骤为:
步骤一:将工作人员的电脑终端标记为初选终端,获取初选终端的终端信息,将初选终端的安装时刻与当前时刻进行时间差计算获取得到初选终端的安装时长并标记为F1,单位是天;将初选终端的通电开始时刻和通电结束时刻进行时间差计算获取得到单次通电时长,将初选终端的所有单次通电总时长进行求和得到工作总时长并标记为F2;
步骤二:将初选终端的运行内存标记为F3;将初选终端的安装时长、工作总时长、运行内存进行归一化处理并取其数值;
步骤四:将终端处理值最大的初选终端标记为选中终端,服务器将接收到的语音分配至选中终端内,通过选中终端内的数据分析模块对语音进行分析处理,服务器将发送语音至选中终端的时刻标记为发送开始时刻;选中终端的处理次数增加一次;
步骤五:将发送开始时刻与分析完成时刻进行时间差计算获取得到单次处理时长;将单次处理时长与预设时长阈值进行比对,当单次处理时长小于预设时长阈值时,将预设时长阈值减去单次处理时长得到单次提前时长;将选中终端的所有单次提前时长进行求和得到提前总时长并标记为F5,将选中终端的处理次数标记为F6;将提前总时长和处理次数进行归一化处理并取其数值;利用公式F4=F5×b5+F6×b6获取得到选中终端的处效值,其中,b5和b6均为预设比例系数。
8.根据权利要求7所述的一种基于特定领域的语音打分模型构建系统,其特征在于,该语音打分模型系统的构建方法包括以下步骤:
S1:通过测试采集模块采集在特定领域下测试的语音并将语音发送至服务器内;
S2:服务器将接收到的语音后进行分配处理,具体为:
S21:将工作人员的电脑终端标记为初选终端,获取初选终端的终端信息,将初选终端的安装时刻与当前时刻进行时间差计算获取得到初选终端的安装时长并标记为F1,单位是天;将初选终端的通电开始时刻和通电结束时刻进行时间差计算获取得到单次通电时长,将初选终端的所有单次通电总时长进行求和得到工作总时长并标记为F2;
S22:将初选终端的运行内存标记为F3;将初选终端的安装时长、工作总时长、运行内存进行归一化处理并取其数值;
S24:将终端处理值最大的初选终端标记为选中终端;
S3:服务器将接收到的语音分配至选中终端内,通过选中终端内的数据分析模块对语音进行分析处理,数据分析模块对语音进行内容相关性分析、表达流利性分析和场景流畅性分析;
S31:内容相关性分析包括关键词覆盖率计算、语义覆盖率计算、质检差错值计算和语量计算;通过内容相关性分析得到关键词覆盖率KCR、语义覆盖率KCS、质检差错值、语量;
S32:表达流利性分析包括发音标准分析、停顿分析和重复纠正分析;通过表达流利性分析得到字错率、停顿频率;
S33:将关键词覆盖率、语义覆盖率、质检差错值、语量、字错率和停顿频率标记为评分维度;
S4:数据分析模块将分析的评分维度发送至模型构建模块,模型构建模块对评分维度进行模型构建,具体为:获取模型对应的评分维度,每个评分维度均对应一个预设分,将模型对应的评分维度与所有评分维度进行匹配获取得到对应的预设分,将模型匹配到的所有预设分进行求和得到总分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110054518.3A CN112800743A (zh) | 2021-01-15 | 2021-01-15 | 一种基于特定领域的语音打分模型构建系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110054518.3A CN112800743A (zh) | 2021-01-15 | 2021-01-15 | 一种基于特定领域的语音打分模型构建系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112800743A true CN112800743A (zh) | 2021-05-14 |
Family
ID=75809647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110054518.3A Withdrawn CN112800743A (zh) | 2021-01-15 | 2021-01-15 | 一种基于特定领域的语音打分模型构建系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112800743A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113990288A (zh) * | 2021-12-23 | 2022-01-28 | 江苏微皓智能科技有限公司 | 一种语音客服自动生成部署语音合成模型的方法及系统 |
CN114322649A (zh) * | 2021-06-17 | 2022-04-12 | 南京金盾公共安全技术研究院有限公司 | 一种智能化实战训练方法 |
CN114550920A (zh) * | 2022-03-09 | 2022-05-27 | 曜立科技(北京)有限公司 | 一种基于数据分析的瓣膜状态检测用诊断决策系统 |
CN116343824A (zh) * | 2023-05-29 | 2023-06-27 | 新励成教育科技股份有限公司 | 口才表达能力的全面评估与解决方法、系统、装置及介质 |
-
2021
- 2021-01-15 CN CN202110054518.3A patent/CN112800743A/zh not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114322649A (zh) * | 2021-06-17 | 2022-04-12 | 南京金盾公共安全技术研究院有限公司 | 一种智能化实战训练方法 |
CN114322649B (zh) * | 2021-06-17 | 2024-03-22 | 南京金盾公共安全技术研究院有限公司 | 一种智能化实战训练方法 |
CN113990288A (zh) * | 2021-12-23 | 2022-01-28 | 江苏微皓智能科技有限公司 | 一种语音客服自动生成部署语音合成模型的方法及系统 |
CN113990288B (zh) * | 2021-12-23 | 2022-05-10 | 江苏微皓智能科技有限公司 | 一种语音客服自动生成部署语音合成模型的方法 |
CN114550920A (zh) * | 2022-03-09 | 2022-05-27 | 曜立科技(北京)有限公司 | 一种基于数据分析的瓣膜状态检测用诊断决策系统 |
CN114550920B (zh) * | 2022-03-09 | 2023-02-07 | 曜立科技(北京)有限公司 | 一种基于数据分析的瓣膜状态检测用诊断决策系统 |
CN116343824A (zh) * | 2023-05-29 | 2023-06-27 | 新励成教育科技股份有限公司 | 口才表达能力的全面评估与解决方法、系统、装置及介质 |
CN116343824B (zh) * | 2023-05-29 | 2023-08-15 | 新励成教育科技股份有限公司 | 口才表达能力的全面评估与解决方法、系统、装置及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109767791B (zh) | 一种针对呼叫中心通话的语音情绪识别及应用系统 | |
CN112804400B (zh) | 客服呼叫语音质检方法、装置、电子设备及存储介质 | |
CN112800743A (zh) | 一种基于特定领域的语音打分模型构建系统及方法 | |
CN110310663A (zh) | 违规话术检测方法、装置、设备及计算机可读存储介质 | |
US10522144B2 (en) | Method of and system for providing adaptive respondent training in a speech recognition application | |
US9672825B2 (en) | Speech analytics system and methodology with accurate statistics | |
CN110266899B (zh) | 客户意图的识别方法和客服系统 | |
US8725518B2 (en) | Automatic speech analysis | |
CN109902957B (zh) | 一种数据处理方法和装置 | |
CN110135879B (zh) | 基于自然语言处理的客服质量自动评分方法 | |
CN103811009A (zh) | 一种基于语音分析的智能电话客服系统 | |
CN111739519B (zh) | 基于语音识别的对话管理处理方法、装置、设备及介质 | |
CN110266900B (zh) | 客户意图的识别方法、装置及客服系统 | |
CN112581964B (zh) | 一种面向多领域的智能语音交互方法 | |
CN110610705A (zh) | 一种基于人工智能的语音交互提示器 | |
KR20200092499A (ko) | 대화형 인공지능 기술을 이용한 상담 지원 방법 및 그 장치 | |
CN114818649A (zh) | 基于智能语音交互技术的业务咨询处理方法及装置 | |
Cole et al. | The CSLU speaker recognition corpus | |
CN116631412A (zh) | 一种通过声纹匹配判断语音机器人的方法 | |
CN114328867A (zh) | 一种人机对话中智能打断的方法及装置 | |
Zweig et al. | Automated quality monitoring for call centers using speech and NLP technologies | |
Zweig et al. | Automated quality monitoring in the call center with asr and maximum entropy | |
KR102407055B1 (ko) | 음성인식 후 자연어 처리를 통한 대화 품질지수 측정장치 및 그 방법 | |
CN110853674A (zh) | 文本核对方法、设备以及计算机可读存储介质 | |
CN112866491B (zh) | 基于特定领域的多语义智能问答方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210514 |
|
WW01 | Invention patent application withdrawn after publication |