CN113810548A - 基于iot的智能通话质检方法系统 - Google Patents
基于iot的智能通话质检方法系统 Download PDFInfo
- Publication number
- CN113810548A CN113810548A CN202111095605.XA CN202111095605A CN113810548A CN 113810548 A CN113810548 A CN 113810548A CN 202111095605 A CN202111095605 A CN 202111095605A CN 113810548 A CN113810548 A CN 113810548A
- Authority
- CN
- China
- Prior art keywords
- quality inspection
- analysis
- notes
- call
- keyword
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 80
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000004044 response Effects 0.000 claims abstract description 42
- 238000012545 processing Methods 0.000 claims abstract description 19
- 230000008569 process Effects 0.000 claims abstract description 15
- 230000003993 interaction Effects 0.000 claims abstract description 14
- 238000012937 correction Methods 0.000 claims abstract description 11
- 238000013519 translation Methods 0.000 claims abstract description 5
- 230000008451 emotion Effects 0.000 claims description 17
- 230000001364 causal effect Effects 0.000 claims description 4
- 230000002159 abnormal effect Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000000246 remedial effect Effects 0.000 claims 3
- 230000000694 effects Effects 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 7
- 230000002996 emotional effect Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000003908 quality control method Methods 0.000 description 2
- 241001122315 Polites Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000013019 agitation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5175—Call or contact centers supervision arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明公开了一种基于IOT的智能通话质检方法及系统,其包括以下步骤:获取预录制的通话数据,并存入历史数据库;获取人机交互数据,并根据其判断是否需要质检,如果是,则进行质检处理;所述质检处理包括:根据人机交互数据,从历史数据库调取对应的通话数据,作为待质检记录;基于预设的客服声纹模型对待质检记录进行声纹识别匹配,分离得到客服音频记录和其他音频记录;分别对客服音频记录和其他音频记录进行音频转译文字,得到客服文记和其他文记;对客服文记做质检关键词匹配分析,并依据时间轴对质检关键词前后的其他文记及音频记录做应答补正分析。本申请具有减小环境等产生的影响,方便用户对通话质检的效果。
Description
技术领域
本申请涉及智能语音通话技术领域,尤其是涉及一种基于IOT的智能通话质检方法系统。
背景技术
对于电信/互联网通话而言,其为日常生活中常用的远程沟通方式,无论是私人,还是办公领域都有得到广泛应用。
在办公领域,除了常态性事务沟通外,还存在一些关键性的沟通,为此相关人员在实时沟通后,还会对完成的沟通录音,多次人工复听,记录关键信息进行复盘等。
公开号为CN107464573A的专利公开了一种客服通话质检系统及方法,该系统包括分离模块、情绪分析模块和质量分析模块;分离模块对待检测语音信号进行预处理,将声道中客服及客户声音片段分离;情绪分析模块分析得到客服情绪状态和客户情绪状态;质量分析模块结合客服情绪状态和客户情绪状态分析得到本次通话质量。
上述内容提供了一种智能对通话质检的方法、系统,但是其存在以下缺陷:其基于分离出的声音信息分析音高、强度、音质等声学特征,来判断客户的情绪,判断通话质量,然而上述分析受通话环境、传输解析硬件质量影响,质检干扰过多,因此本申请提出一种新的技术方案。
发明内容
为了减小环境等产生的影响,方便用户对通话质检,本申请提供一种基于IOT的智能通话质检方法系统。
第一方面,本申请提供一种基于IOT的智能通话质检方法,采用如下的技术方案:
一种基于IOT的智能通话质检方法,包括以下步骤:
获取预录制的通话数据,并存入历史数据库;以及,
获取人机交互数据,并根据其判断是否需要质检,如果是,则进行质检处理;
所述质检处理包括:
根据人机交互数据,从历史数据库调取对应的通话数据,作为待质检记录;
基于预设的客服声纹模型对待质检记录进行声纹识别匹配,分离得到客服音频记录和其他音频记录;
分别对客服音频记录和其他音频记录进行音频转译文字,得到客服文记和其他文记;
对客服文记做质检关键词匹配分析,并依据时间轴对质检关键词前后的其他文记及音频记录做应答补正分析;以及,
输出质检关键词匹配分析及应答分析的结果,作为质检记录。
可选的,所述质检关键词匹配分析包括:
根据声纹识别匹配的结果确定通话业务类型;
调取预设的通用关键词模型,并根据通话业务类型查找并调取对应的业务关键词模型;
基于通用关键词模型做匹配分析,得到通用分析结果,并基于业务关键词模型做匹配分析,得到业务分析结果。
可选的,所述应答补正分析包括:
当质检关键词为业务推广类,则分析下一时间的其他文记是否存在应答、应答长度和应答关键词,并基于预设的应答评分规则处理应答内容,得到应答分数。
可选的,所述补正分析还包括:
匹配分析质检关键词前后的其他文记,判断是否存非正向关键词,如果是,则进行因果分析处理,并基于预设的扣分规则得到非正向扣除分数。
可选的,所述质检处理还包括:
基于应答分数和非正向扣除分数,筛选得到分数符合预选标准的通过数据,并作为样本记录。
可选的,所述质检处理还包括:
当样本记录为正向,依据时间轴组合对应的客服文记和其他文记,得到样本文记,且质检关键词匹配分析结果,对关键词标记处理。
可选的,所述补正分析还包括:
当质检关键词前后的其他文记出现非正向关键词,则基于对应的音频记录做声学特征分析,对比非正向关键词前后的声学特征变化,得到情绪参考信息。
可选的,所述补正分析还包括:
基于声学特征变化,判断问题非正向应答是否改善,如果是,则标记,并进行深度匹配处理;
所述深度匹配处理包括:对其他文记的末段做友好关键词匹配分析,当存在友好关键词,则再次做新的标记。
可选的,还包括:
获取预布设于客服现场的IOT设施的声学特征反馈;以及,
判断某一声学特征是否异常,如果是,则获取实时的通话数据,并做非正向关键词匹配处理;
所述非正向关键词匹配处理包括:当存在非正向关键词,则向预设终端发送提示信息。
第二方面,本申请提供一种基于IOT的智能通话质检系统,采用如下的技术方案:
一种基于IOT的智能通话质检系统,包括存储器和处理器,所述存储器上存储有能够被处理器加载并执行如上所述任一种方法的计算机程序。
综上所述,本申请包括以下至少一种有益技术效果:分离客服和客户的音频分别对两者音转译,再进行关键词分析,并结合时间轴做应答分析,输出分析结果,根据其打分,从而可帮助管理人员做通话质检;且因为不在依赖于声学特征,做情绪分析,而只是将其其中的一项辅助,并以此基础结合前述分析,所以受硬件、环境干扰相对较少。
附图说明
图1是本申请的架构示意图;
图2是本申请的质检处理的流程示意图。
具体实施方式
以下结合附图1-2对本申请作进一步详细说明。
本申请实施例公开一种基于IOT的智能通话质检方法。
参照图1和图2,基于IOT的智能通话质检方法包括以下步骤:
S1、获取预录制的通话数据,并存入历史数据库;以及,
S2、获取人机交互数据,并根据其判断是否需要质检,如果是,则进行质检处理。
其中,通话数据由第三方工具,如某信、某Q或电话提供的各种多媒体信息组成;在本实施例中,对于通话的质检,集中于其中的音频数据。各个音频数据存储时,根据其来源绑定身份信息,并记录数据产生时间,以便后续查找和调用。
对于人机交互数据,可理解为:用户的各种需求信息,如某一身份在某一时间的通话的质检请求;当人机交互数据为上述请求,即需要质检。
关于质检处理,本方法基于音转译及声纹识别实现,包括:
101、根据人机交互数据,从历史数据库调取对应的通话数据,作为待质检记录;即根据质检请求中的信息,从数据库选取出对应的通话数据。
102、基于预设的客服声纹模型对待质检记录进行声纹识别匹配,分离得到客服音频记录和其他音频记录。
其中,声纹识别,即说话人识别,是根据说话人个性信息来识别说话人身份的一项生物特征识别技术。为了根据声纹特征区分出客服人员,需要先分别对各个客服人员做声纹采集,建立模型。具体的,如借用Android平台上的声纹相关的APP,分别录制多个音频,建立初始的模型文件,再通过i-vector、深度神经网络等训练模型。对于本方法的应用场景而言,所应用的声纹模型,选择随机模型一类。
相对而言,如果不考虑沟通双方存在混音的问题,还可在音频录制阶段,通过区分发言人,对应标记音频时间段落的方式,方便后续分离音频数据。为此,在必要时,本方法可配置两种音频分离方式,根据实际应用场景,可个性化选择,例如:相对规范性的一问一答性售前、售后咨询客服,可选择后一种。
103、分别对客服音频记录和其他音频记录进行音频转译文字,得到客服文记和其他文记。
音转译文字,如通过某飞平台即可实现,需要注意的是,对客服文记和其他文记,本方法中均需要加入时间参数,即以时间线(时间轴)的走向排布两者,以保证后续内容顺畅实现。
104、对客服文记做质检关键词匹配分析,并依据时间轴对质检关键词前后的其他文记及音频记录做应答补正分析。
关于质检关键词匹配分析,其包括:
1041、根据声纹识别匹配的结果确定通话业务类型。该部分实际为根据识别出的客服身份,基于其以及对应预记录的行业、业务所确定。
之所以区分业务类型,是因为不同业务,其话术不同,所涉及到的关键词也存在一定差异。为此为本方法预配置的关键词模型,大致有两类,一类为通用关键词模型,如各类礼貌交互词、粗口词汇、违规词汇等;另一类为业务关键词模型,其根据不同业务的关联人员提供的话术信息、样本,人工摘取确定。关键词模型均由工作人员根据实际样本预录入。
1042、调取预设的通用关键词模型,并根据通话业务类型查找并调取对应的业务关键词模型。
1043、基于通用关键词模型做匹配分析,得到通用分析结果,并基于业务关键词模型做匹配分析,得到业务分析结果。
匹配分析,即将上述文记的词或句在相应模型中查找,如果有,则匹配成功;如果无,则匹配失败。通过对各类词或句的匹配成功率,即可判断一次通话的质量。如业务关键词的匹配成功率低于阈值,即可认为本次通话为无效通话,通话质量不佳。
由于单纯的分析客服文记,存在一定局限性;如客户应答不积极,但客服人员单方面的形式化走流程,基于上述存在一定几率判定为较佳,因此本方法还做上述的应答补正分析。
应答补正分析包括:当质检关键词为业务推广类,则分析下一时间的其他文记是否存在应答、应答长度和应答关键词,并基于预设的应答评分规则处理应答内容,得到应答分数。
具体的应答评分规则在前期发送采集样本至对应的业务部门管理员人工确定,如:应答一次加5分;单次应答长度超过20字加5分,超过35字加15分;应答关键词为业务咨询加2分,粗口、抱怨词扣5分等。
同时,应答补正分析还包括:匹配分析质检关键词前后的其他文记,判断是否存非正向关键词,如果是,则进行因果分析处理,并基于预设的扣分规则得到非正向扣除分数。
关于因果分析处理,具体的,如上述粗口词汇,即为非正向关键词;当出现粗口词汇,查找该词汇直到上一次应答之间,客服文记是否先出现粗口词汇和违规词汇,如果是,则为客服责任,根据扣分规则扣除相应的分数。
上述设置有助于督促客服人员,文明、合规的沟通客户,并在发生相关事情后帮助管理人员确认问题点,清查原因。
根据上述内容,本方法可结合补正的分析结果,更为准确的判断通话质量。
105、输出质检关键词匹配分析及应答分析的结果,作为质检记录。
其中,质检记录发送至终端,如计算机、手机的UI界面做展示;具体的,可通过配置的APP内部推送消息、手机短信等发送。
根据上述可知,本方法相对于背景中所指的依据音频对客户做情绪分析做质检,干扰较少,且更为准确。
对于各个管理人员而言,每日每个客服人员均会产生多个通话数据,其不便逐一对其监管等,而管理人员通常又需要适时的挑选一些成功,或是失败的沟通记录,为此本方法的质检处理还包括:
基于应答分数和非正向扣除分数,筛选得到分数符合预选标准的通过数据,并作为样本记录。即,管理人员可通过对预选标准设置,得到分数过低,或是分数较高的数据作为样本。
进一步的,当质检关键词前后(直到另一个应答切换点)的其他文记出现非正向关键词,则基于对应的音频记录做声学特征分析,对比非正向关键词前后的声学特征变化,得到情绪参考信息。
关于基于对应的音频记录做声学特征分析,具体的,为基于音高、强度,结合时间轴生成音高、音强曲线,如果出现曲线激增、陡坡上升,则可判定为客户情绪激动。因此情绪参考信息,可用于辅助判断通话质量。
具体的有:
基于声学特征变化,判断问题非正向应答是否改善,如果是,则标记,并进行深度匹配处理。
其中,改善可体现为声学特征曲线回复平缓,即客户的情绪得到缓解;对此类信息打标签标记,有助于管理人员快速预估各类事件是否得到解决。
上述深度匹配处理包括:对其他文记的末段做友好关键词匹配分析,当存在友好关键词,则再次做新的标记。
相对于缓解客户的情绪,客户转变态度无疑是更佳的;为此,通过友好关键词查找,添加新标记,又助于管理人员后期找出能解决问题的典型记录作为样本,方便管理工作进行。
上述均为事后性处理,对于通话质检而言,在事中做一定质检,管理效果会更佳,为此基于方法的已有基础,还执行:
S31、获取预布设于客服现场的IOT设施的声学特征反馈;以及,
S32、判断某一声学特征是否异常,如果是,则获取实时的通话数据,并做非正向关键词匹配处理。
其中,预布设于客服现场的IOT设施包括分贝检测装置,其通过IOT采集模块上传声学特征。当分贝数值超出阈值,即为异常,可认为客服人员存在情绪激动的情况。此时,及时做非正向关键词匹配处理,可明确通话过程是否出现争执。
上述非正向关键词匹配处理包括:当存在非正向关键词,则向预设终端发送提示信息。
根据上述内容,只需将管理人员的终端设置好,即可在通话出现争执等非正向情况时及时知悉,以响应和解决问题。
上述S2和S3并非先后顺序,仅为区分序号。
本申请实施例还公开一种基于IOT的智能通话质检系统。
基于IOT的智能通话质检系统,其包括存储器和处理器,存储器上存储有能够被处理器加载并执行如上所述任一种方法的计算机程序。
以上均为本申请的较佳实施例,并非依此限制本申请的保护范围,故:凡依本申请的结构、形状、原理所做的等效变化,均应涵盖于本申请的保护范围之内。
Claims (10)
1.一种基于IOT的智能通话质检方法,其特征在于,包括以下步骤:
获取预录制的通话数据,并存入历史数据库;以及,
获取人机交互数据,并根据其判断是否需要质检,如果是,则进行质检处理;
所述质检处理包括:
根据人机交互数据,从历史数据库调取对应的通话数据,作为待质检记录;
基于预设的客服声纹模型对待质检记录进行声纹识别匹配,分离得到客服音频记录和其他音频记录;
分别对客服音频记录和其他音频记录进行音频转译文字,得到客服文记和其他文记;
对客服文记做质检关键词匹配分析,并依据时间轴对质检关键词前后的其他文记及音频记录做应答补正分析;以及,
输出质检关键词匹配分析及应答分析的结果,作为质检记录。
2.根据权利要求1所述的基于IOT的智能通话质检方法,其特征在于,所述质检关键词匹配分析包括:
根据声纹识别匹配的结果确定通话业务类型;
调取预设的通用关键词模型,并根据通话业务类型查找并调取对应的业务关键词模型;
基于通用关键词模型做匹配分析,得到通用分析结果,并基于业务关键词模型做匹配分析,得到业务分析结果。
3.根据权利要求2所述的基于IOT的智能通话质检方法,其特征在于,所述应答补正分析包括:
当质检关键词为业务推广类,则分析下一时间的其他文记是否存在应答、应答长度和应答关键词,并基于预设的应答评分规则处理应答内容,得到应答分数。
4.根据权利要求3所述的基于IOT的智能通话质检方法,其特征在于,所述补正分析还包括:
匹配分析质检关键词前后的其他文记,判断是否存非正向关键词,如果是,则进行因果分析处理,并基于预设的扣分规则得到非正向扣除分数。
5.根据权利要求4所述的基于IOT的智能通话质检方法,其特征在于,所述质检处理还包括:
基于应答分数和非正向扣除分数,筛选得到分数符合预选标准的通过数据,并作为样本记录。
6.根据权利要求4所述的基于IOT的智能通话质检方法,其特征在于,所述质检处理还包括:
当样本记录为正向,依据时间轴组合对应的客服文记和其他文记,得到样本文记,且质检关键词匹配分析结果,对关键词标记处理。
7.根据权利要求4所述的基于IOT的智能通话质检方法,其特征在于,所述补正分析还包括:
当质检关键词前后的其他文记出现非正向关键词,则基于对应的音频记录做声学特征分析,对比非正向关键词前后的声学特征变化,得到情绪参考信息。
8.根据权利要求7所述的基于IOT的智能通话质检方法,其特征在于,所述补正分析还包括:
基于声学特征变化,判断问题非正向应答是否改善,如果是,则标记,并进行深度匹配处理;
所述深度匹配处理包括:对其他文记的末段做友好关键词匹配分析,当存在友好关键词,则再次做新的标记。
9.根据权利要求4所述的基于IOT的智能通话质检方法,其特征在于,还包括:
获取预布设于客服现场的IOT设施的声学特征反馈;以及,
判断某一声学特征是否异常,如果是,则获取实时的通话数据,并做非正向关键词匹配处理;
所述非正向关键词匹配处理包括:当存在非正向关键词,则向预设终端发送提示信息。
10.一种基于IOT的智能通话质检系统,其特征在于:包括存储器和处理器,所述存储器上存储有能够被处理器加载并执行如权利要求1至9中任一种方法的计算机程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111095605.XA CN113810548A (zh) | 2021-09-17 | 2021-09-17 | 基于iot的智能通话质检方法系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111095605.XA CN113810548A (zh) | 2021-09-17 | 2021-09-17 | 基于iot的智能通话质检方法系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113810548A true CN113810548A (zh) | 2021-12-17 |
Family
ID=78939600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111095605.XA Pending CN113810548A (zh) | 2021-09-17 | 2021-09-17 | 基于iot的智能通话质检方法系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113810548A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114678012A (zh) * | 2022-02-18 | 2022-06-28 | 青岛海尔科技有限公司 | 语音交互数据的处理方法和装置、存储介质及电子装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9596349B1 (en) * | 2015-06-29 | 2017-03-14 | State Farm Mutual Automobile Insurance Company | Voice and speech recognition for call center feedback and quality assurance |
CN110910901A (zh) * | 2019-10-08 | 2020-03-24 | 平安科技(深圳)有限公司 | 一种情绪识别方法及装置、电子设备和可读存储介质 |
CN112804400A (zh) * | 2020-12-31 | 2021-05-14 | 中国工商银行股份有限公司 | 客服呼叫语音质检方法、装置、电子设备及存储介质 |
CN112885332A (zh) * | 2021-01-08 | 2021-06-01 | 天讯瑞达通信技术有限公司 | 一种语音质检方法、系统及存储介质 |
-
2021
- 2021-09-17 CN CN202111095605.XA patent/CN113810548A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9596349B1 (en) * | 2015-06-29 | 2017-03-14 | State Farm Mutual Automobile Insurance Company | Voice and speech recognition for call center feedback and quality assurance |
CN110910901A (zh) * | 2019-10-08 | 2020-03-24 | 平安科技(深圳)有限公司 | 一种情绪识别方法及装置、电子设备和可读存储介质 |
CN112804400A (zh) * | 2020-12-31 | 2021-05-14 | 中国工商银行股份有限公司 | 客服呼叫语音质检方法、装置、电子设备及存储介质 |
CN112885332A (zh) * | 2021-01-08 | 2021-06-01 | 天讯瑞达通信技术有限公司 | 一种语音质检方法、系统及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114678012A (zh) * | 2022-02-18 | 2022-06-28 | 青岛海尔科技有限公司 | 语音交互数据的处理方法和装置、存储介质及电子装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112804400B (zh) | 客服呼叫语音质检方法、装置、电子设备及存储介质 | |
CN108962282B (zh) | 语音检测分析方法、装置、计算机设备及存储介质 | |
US11895266B2 (en) | System and method for three-way call detection | |
US8798255B2 (en) | Methods and apparatus for deep interaction analysis | |
CN108682420B (zh) | 一种音视频通话方言识别方法及终端设备 | |
US8412530B2 (en) | Method and apparatus for detection of sentiment in automated transcriptions | |
US20180197548A1 (en) | System and method for diarization of speech, automated generation of transcripts, and automatic information extraction | |
US9483582B2 (en) | Identification and verification of factual assertions in natural language | |
CN107886951B (zh) | 一种语音检测方法、装置及设备 | |
KR101795593B1 (ko) | 전화상담원 보호 장치 및 그 방법 | |
US11238869B2 (en) | System and method for reconstructing metadata from audio outputs | |
CN110797032B (zh) | 一种声纹数据库建立方法及声纹识别方法 | |
CN111489765A (zh) | 一种基于智能语音技术的话务服务质检方法 | |
CN110839112A (zh) | 一种问题语音的检测方法和装置 | |
CN114449105A (zh) | 基于语音的电力客户服务话务质检系统 | |
JP2020071676A (ja) | 対話要約生成装置、対話要約生成方法およびプログラム | |
CN111010484A (zh) | 一种通话录音自动质检方法 | |
CN113810548A (zh) | 基于iot的智能通话质检方法系统 | |
CN114328867A (zh) | 一种人机对话中智能打断的方法及装置 | |
CN112687272B (zh) | 一种会议纪要的记录方法、装置及电子设备 | |
US10147417B2 (en) | Electronic speech recognition name directory prognostication system by comparing a spoken name's packetized voice to stored phonemes | |
KR102407055B1 (ko) | 음성인식 후 자연어 처리를 통한 대화 품질지수 측정장치 및 그 방법 | |
CN116189713A (zh) | 一种基于语音识别的外呼管理方法及装置 | |
KR20200036188A (ko) | 버추얼 상담 시스템 및 이를 이용한 상담방법 | |
CN116915894A (zh) | 来电身份识别方法、装置、电子设备和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |