CN116189713A - 一种基于语音识别的外呼管理方法及装置 - Google Patents

一种基于语音识别的外呼管理方法及装置 Download PDF

Info

Publication number
CN116189713A
CN116189713A CN202111430416.3A CN202111430416A CN116189713A CN 116189713 A CN116189713 A CN 116189713A CN 202111430416 A CN202111430416 A CN 202111430416A CN 116189713 A CN116189713 A CN 116189713A
Authority
CN
China
Prior art keywords
call
voice
outbound
monitoring
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111430416.3A
Other languages
English (en)
Inventor
马兴鸣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Changyue Information Technology Co ltd
Original Assignee
Shanghai Changyue Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Changyue Information Technology Co ltd filed Critical Shanghai Changyue Information Technology Co ltd
Priority to CN202111430416.3A priority Critical patent/CN116189713A/zh
Publication of CN116189713A publication Critical patent/CN116189713A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/22Arrangements for supervision, monitoring or testing
    • H04M3/2281Call monitoring, e.g. for law enforcement purposes; Call tracing; Detection or prevention of malicious calls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Technology Law (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种基于语音识别的外呼管理方法,包括:获取外呼通话内容,并将外呼对象的通话标记为第一通话,人工坐席的通话标记为第二通话;对所述第一通话进行第一实时语音监测和环境识别;对所述第二通话进行第二实时语音监测;其中,所述第二实时语音监测主要用于第二语音特征进行监测;所述第二语音特征包括对语调、语速、音量、服务关键词;根据第一预设模型对第一语音特征进行处理,并对人工坐席进行相应提醒。本发明提供一种基于语音识别的外呼管理方法及装置,通过对外呼对象和人工坐席的语音特征进行监测和处理,得到外呼对象的情绪和变化,根据第一预测模型可以为人工坐席提供相应的话术指导,从而可以提高人工坐席的效率与质量。

Description

一种基于语音识别的外呼管理方法及装置
技术领域
本发明涉及外呼技术领域,尤其涉及一种基于语音识别的外呼管理方法及装置。
背景技术
随着呼叫技术的发展,呼叫中心越来越多的采用技术的手段对外呼从效率和质量两个方面进行把控。从外呼体验的角度看,人工智能依然无法完全替代人工坐席,主要是由于以下几个方面的原因。
一、人工智能对于外呼对象的意图识别仍不能满足商用需求。
二、人工智能无法对外呼对象的情绪进行感知和相应的回应。
在现有技术中也有相应的一些技术方案,比如某发明公开了一种用于实时监听声音的系统和方法。本发明涉及一种用于通过捕获和处理与呼叫者谈话期间代理人的言语的多个特征,来实时监听和分析代理人的谈话的系统和方法。所述系统和方法还提供了监听装置,所述监听装置用于检测谈话中的变化、检测所述呼叫者的位置和建议特定位置词汇表。所述系统和方法还提供了警报引擎,所述警报引擎用于将警报实时传输到代理人控制台。
某发明公开了一种通话管控方法、装置、电子设备及存储介质,该方法包括将当前通话的电话录音进行话者分离;将话者分离后的电话录音转换为文本数据;通过自然语言处理从文本数据中识别出呼叫用户的第一情绪状态和第一话务状态,以及接听用户的第二情绪状态和第二话务状态;基于第一情绪状态、第一话务状态、第二情绪状态和第二话务状态确定出当前通话是否异常;如果当前通话异常,则对当前通话执行与异常的异常类型对应的通话管控操作。本发明提供的通话管控方法、装置、电子设备及存储介质可实现通话双方的实时动态管控,保障通话质量,提升客户的企业的满意度。
上述技术方案仍不能解决前述两个问题。本发明的目的在于解决或者部分解决前述问题。
发明内容
本发明提供一种基于语音识别的外呼管理方法及装置,通过对外呼对象和人工坐席的语音特征进行监测和处理,得到外呼对象的情绪和变化,根据第一预测模型可以为人工坐席提供相应的话术指导,从而可以提高人工坐席的效率与质量,其具体方案如下:
第一方面,本发明提供了一种基于语音识别的外呼管理方法,其特征在于,包括:
获取外呼通话内容,并将外呼对象的通话标记为第一通话,人工坐席的通话标记为第二通话;
对所述第一通话进行第一实时语音监测和环境识别;其中,所述第一实时语音监测主要用于对第一语音特征进行监测;所述第一语音特征包括语调、语速、音量、业务关键词;
对所述第二通话进行第二实时语音监测;其中,所述第二实时语音监测主要用于第二语音特征进行监测;所述第二语音特征包括对语调、语速、音量、服务关键词;
根据第一预设模型对第一语音特征进行处理,并对人工坐席进行相应提醒。
可选地,所述根据第一预设模型对第一语音特征进行处理,并对人工坐席进行相应提醒,包括如下步骤。
判断当前语调、语速、音量是否在正常范围内,并进行分级;
对比本次外呼对象的语音与本次通话中之前语音的语调、语速和音量,评估所述外呼对象的情绪变化;
识别所述第一通话中的业务关键词密度,评价外呼对象质量;
根据所述第一预测模型对上述数据进行处理,得到外呼对象当前状态,并生成话术提醒呈现给人工坐席。
可选地,所述的一种基于语音识别的外呼管理方法,还包括:
根据第二预设模型对第二通话进行处理,并对异常进行处理。
可选地,所述的一种基于语音识别的外呼管理方法,还包括:
当所述外呼对象状态异常时,为所述人工坐席提供推荐话术。
可选地,所述的一种基于语音识别的外呼管理方法,还包括:
当第二通话异常的情形异于严重程度时,使用预设语句接管通话;其中,所述预设语句的语音特征与人工坐席的语音特征相同。
系统判定结果不发送给人工坐席,否则会对人工坐席的判断产生干扰,而是给人工坐席提供确认通话结束的选择,当其与系统判定一致时,不会对其产生负面评价,从而可以提高人工坐席处理的效率,并且有利于人工坐席人员的心理建设。
第二方面,本发明提供了一种基于语音识别的外呼管理装置,其特征在于,包括:获取通话模块,用于获取外呼通话内容,并将外呼对象的通话标记为第一通话,人工坐席的通话标记为第二通话;
第一通话模块,用于对所述第一通话进行第一实时语音监测和环境识别;其中,所述第一实时语音监测主要用于对第一语音特征进行监测;所述第一语音特征包括语调、语速、音量、业务关键词;
第二通话模块,用于对所述第二通话进行第二实时语音监测;其中,所述第二实时语音监测主要用于第二语音特征进行监测;所述第二语音特征包括对语调、语速、音量、服务关键词;第一处理模块,用于根据第一预设模型对第一语音特征进行处理,并对人工坐席进行相应提醒。
可选地,所述第一处理模块,包括:
分级单元,用于判断当前语调、语速、音量是否在正常范围内,并进行分级;
对比单元,用于对比本次外呼对象的语音与本次通话中之前语音的语调、语速和音量,评估所述外呼对象的情绪变化;
对象质量单元,用于识别所述第一通话中的业务关键词密度,评价外呼对象质量;
数据处理单元,用于根据所述第一预测模型对上述数据进行处理,得到外呼对象当前状态,并生成话术提醒呈现给人工坐席。
可选地,所述的一种基于语音识别的外呼管理装置,还包括:
第二处理模块,用于根据第二预设模型对第二通话进行处理,并对异常进行处理。
可选地,所述的一种基于语音识别的外呼管理装置,还包括:
推荐话术模块,用于当所述外呼对象状态异常时,为所述人工坐席提供推荐话术。
可选地,所述的一种基于语音识别的外呼管理装置,还包括:
接管模块,用于当第二通话异常的情形异于严重程度时,使用预设语句接管通话;其中,所述预设语句的语音特征与人工坐席的语音特征相同。
实施本发明,具有如下有益效果。
本发明对通话进行实时监测,可以即时对通话进行评估与引导使得通话效率更高,通话效果更好。本发明对于外呼对象和人工坐席采用不同的评价标准,使得评价更加准确,数据处理具有更强的针对性。本发明根据外呼对象的表现对人工坐席进行提醒,使得人工坐席采用相应的话术更加简便,同时,也有利于验证第一预设模型的准确性,对第一预设模型进行反馈和修正。
附图说明
图1是本发明实施例提供的一种基于语音识别的外呼管理方法流程图。
图2是本发明实施例提供的一种基于语音识别的外呼管理装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参见图1,示出了本发明实施例提供的一种基于语音识别的外呼管理方法的流程图,该方法应用于呼叫中心,可以通过对通话进行监控,尤其是通过监控外呼对象的状态,识别通话是否需要调整或者人工介入,并可以为人工坐席提供指导,促进通话效率与通话质量的提高。
如图1所示,本实施例提供的一种基于语音识别的外呼管理方法包括以下步骤。
S10.获取外呼通话内容,并将外呼对象的通话标记为第一通话,人工坐席的通话标记为第二通话。
在本步骤中,本步骤根据声音的来源分别进行标记,除了将外呼对象的通话标记为第一通话,人工坐席的通话标记为第二通话外,还将自动语音的通话标记为第三通话。在外呼过程中,尤其是预测式外呼中,首先由系统自动对外呼对象进行呼叫,并接听电话,自动处理后转人工,因此对不同来源的声音分别进行区别与标识,可以更好地对外呼用户和人工坐席的情绪和状态进行识别,从而可以及时采取相应的措施。
S20.对所述第一通话进行第一实时语音监测和环境识别。
在本步骤中,所述第一实时语音监测主要用于对第一语音特征进行监测。所述第一语音特征包括语调、语速、音量、业务关键词。代表情绪正常的语调、语速的范围阈值为150~500Hz、150~300字/分钟,代表情绪低落的语调、语速的范围阈值为小于150~500Hz、150~300字/分钟,代表情绪激动的语调、语速的范围阈值为大于150~500Hz、150~300字/分钟。音量是一个比较特别的参数,不同于现有技术中以音量的绝对值来评估外呼对象的情绪,本实施例以外呼对象的音量与其背景音的音量差来评估外呼对象的情绪。代表情绪正常的音量差的范围阈值为20~60分贝,代表情绪低落的语音量差的范围阈值为小于20分贝,代表情绪激动的音量差的范围阈值为大于60分贝。业务关键词根据外呼原因而确定,故因客户对象不同而不同。比如对催收客户,业务关键词包括欠债人名称、涉事平台、“借款”、“贷款”、“欠债”等关联词汇。业务关键词可以从相同业务中的多次外呼记录中统计获得,出现频率高的词汇即为关键词。在对业务关键词的识别中,还需要人工对常用语进行剔除,防止常用语被误判为业务相关词汇。
S30.对所述第二通话进行第二实时语音监测。
在本步骤中,所述第二实时语音监测主要用于第二语音特征进行监测;所述第二语音特征包括对语调、语速、音量、服务关键词。语调、语速、音量的评价与上一步骤相同。服务关键词也是根据外呼原因而确定,但是与业务关键词的不同之处在于:服务关键词是从外呼的角度出发,其用语会出现相应的变化。比如人工坐席话术中不同场景应用的不同关键词可以作为服务关键词。另一方面,服务关键词还可以根据其在话术中的位置用于确认当前通话的状态。区别业务关键词和服务关键词是根据监控对象的不同而设置的。这种设置使得对通话过程的监控更加准确,可以高效地做出判断与应对。
S40.根据第一预设模型对第一语音特征进行处理,并对人工坐席进行相应提醒。
在本步骤中,第一预设模型根据外呼对象的历史语音进行机器学习训练,得到可以预判的关键指标。比如,业务关键词在1分钟的第一通话中出现次数为0,则通话在后续5分钟内结束的机率为a。又比如,当外呼对象的语调、语速或者音量达到情绪激动时,自动关联人工坐席需要应对的话术。当以上的情况出现时,可以对人工坐席进行提醒。
可选地,步骤S40进一步包括如下子步骤。
S41.判断当前语调、语速、音量是否在正常范围内,并进行分级。
在本步骤中,根据步骤S20和S30中的标准分别对外呼对象和人工坐席的状态是否处于正常状态进行判断和分级。分级的标准既可以按步骤S20和S30中的标准分为上中下三档,又可以将每一档继续细化成更多档,从而实现更加丰富的结合。
S42.对比本次外呼对象的语音与本次通话中之前语音的语调、语速和音量,评估所述外呼对象的情绪变化。
在本步骤中,通过前后语句中的语调、语速和音量变化,识别随着通话的进行,外呼对象和人工坐席的情绪状态变化,可以更好地评估相应话术的有效性和人工坐席的情绪稳定性。如果下一个通话中的语调、语速和音量相比于上一个通话中的语调、语速和音量均向情绪激动的方向偏移,则可判断当前话题为外呼对象的敏感话题。通过上述的方式,可以对外呼对象的特征进行识别,比如重视哪些因素,轻视哪些因素,从而可以为人工坐席提供更加有质量的建议,提高外呼的效果。
S43.识别所述第一通话中的业务关键词密度,评价外呼对象质量。
在本步骤中,通过识别第一通话中的业务关键词密度,可以得到外呼对象的通话与业务的紧密程度,从而可以评价外呼对象的质量。比如以业务关键词在第一通话中的1分钟长度范围内平均出现次数分别为10次、6次、3次、1次对外呼对象分为5级,则出现次数越多,外呼对象质量越高。
D44.根据所述第一预测模型对上述数据进行处理,得到外呼对象当前状态,并生成话术提醒呈现给人工坐席。
在本步骤中,根据前述的数据及分类,可以对外呼对象进行综合评价,并根据第一预测模型综合判断外呼对象当前状态,再根据用户当前状态生成话术提醒,并呈现给人工坐席。需要说明的是,呈现给人工坐席的数据仅是对人工坐席与外呼对象的沟通内容有帮助的内容。对于外呼对象质量的评价同样不向人工坐席呈现,以免影响人工坐席对通话的处理。对人工坐席评价的数据同样不呈现给人工坐席,以免对人工坐席心理构成干扰。
在一些实施例中,所述的一种基于语音识别的外呼管理方法,还包括如下步骤。
S50.根据第二预设模型对第二通话进行处理,并对异常进行处理。
在本步骤中,第二通话是人工坐席的通话。由于人工坐席通常是经过培训的,采用固定的话术,所以第二通话与第一通话具有明显的不同。相比于第一通话,第二通话更加标准化,背景声音更加确定,具有重复性。因此在相同的识别技术条件下,对第二通话的辨别效果好于第一通话。由于人工坐席较多采用固定话术,而话术的应用场景可以用于评估当前通话所处阶段,尤其是一些典型话术。比如,“先生/女士,您消消气”可用于辅助判断用户情绪较为激动,人工坐席采用安抚话术。“先生/女士,我还有别的能帮助到您的地方吗?”可用于判断本阶段通话内容完结,后续可能挂断或者开启新一阶段。不同于对第一通话是以识别外呼对象情绪为主,对第二通话既可以用于识别人工坐席的情绪稳定性,又可以用于判断当前通话的进度,可以从整体上对当前通话进行评价。当监测到第二通话异常时,根据异常类型进行处理。比如,人工坐席声音过大,则提示其降低音量;如果人工坐席声音过小,则提示其增加音量。
在一些实施例中,所述的一种基于语音识别的外呼管理方法,还包括如下步骤。
S60.当所述外呼对象状态异常时,为所述人工坐席提供推荐话术。
在本步骤中,人工坐席培训时,通常更加关注于如果在通话中引导外呼对象,但是当外呼对象突然情绪激动时,可能会影响人工坐席的情绪。为保证人工坐席能够更好地处理异常情况,识别到外呼对象异常时,为其提供推荐话术。在一些案例中,会遇到外呼对象因个人生活原因而导致通话时情绪较为激动。但这类突发事件通常是较少遇到,且培训中通常不会作为重点甚至不会讲解,因此人工坐席常常无法较好地处理这种情况。本步骤可以为人工坐席提供针对性的话术和指导,并及时呈现给人工坐席,从而使得人工坐席可以更好地面对其能力范围之外的情况,使得其可以应对更加复杂的情况,提高了外呼的水平。
在一些实施例中,所述的一种基于语音识别的外呼管理方法,还包括如下步骤。
S70.当第二通话异常的情形异于严重程度时,使用预设语句接管通话。
在本步骤中,所述预设语句的语音特征与人工坐席的语音特征相同。所述语音特征包括语调、语速、音量。预设语句既可以是由该人工坐席的声音拼接而成,又可以是根据该人工坐席的语音特征合成。下面分两种情况对预设语句的获得进行说明。第一种情况下,对第二通话进行获取和识别,获得每个字的发音及特点,再对预设语句中每个字匹配得到整个句子的语音表达。第二种情况下,获取第二通话样本,训练得到人工坐席的发音模型,在组合成完整的句子时,采用样本熵理论模型进行优化,使得整句的发音更接近于人工坐席的发音。第一种方式更加适用于具有大量的语言记录的情形,第二种方式适用范围更广,有利于大面积推广。需要说明的是,第一种方式获取的数据可以不仅仅是该人工坐席的语音记录,而是可以将人工坐席的语音根据音色、音量、音频等特性进行分类,按照类别进行识别,并将以此方式获得的发音应用于该分类下所有的人工坐席,从而提高了效率。
本实施例通过对外呼对象和人工坐席通话的监控,根据不同的语音来源识别出不同的关键信息,并进行针对性的处理。对于外呼对象的状态变化,会为人工坐席推荐针对性的话术。对于人工坐席的状态变化,会进行相应的提示,甚至会直接由系统接管通话,从而保证外呼过程的完全可控。本实施例对于外呼对象的状态进行分析,使得人工坐席的响应更加简单,有利于人工坐席的模式化、规则化培训与发展,并且可以通过人工坐席的应对与推荐话术的反馈,不断修正预测模型,实现模型的更新。
第二方面,本发明提供了一种基于语音识别的外呼管理装置,位于呼叫中心,包括如下模块。
获取通话模块10,用于获取外呼通话内容,并将外呼对象的通话标记为第一通话,人工坐席的通话标记为第二通话。获取通话模块10用于获取外呼通话并标记,既可以位于不同的人工坐席处,又可以集中设置在SOP等集中面板。获取通话模块10还将自动语音的通话标记为第三通话。
第一通话模块20,用于对所述第一通话进行第一实时语音监测和环境识别;其中,所述第一实时语音监测主要用于对第一语音特征进行监测;所述第一语音特征包括语调、语速、音量、业务关键词。
第二通话模块30,用于对所述第二通话进行第二实时语音监测;其中,所述第二实时语音监测主要用于第二语音特征进行监测;所述第二语音特征包括对语调、语速、音量、服务关键词。
第一处理模块40,用于根据第一预设模型对第一语音特征进行处理,并对人工坐席进行相应提醒。
在一些实施例中,所述第一处理模块40,包括如下单元。
分级单元41,用于判断当前语调、语速、音量是否在正常范围内,并进行分级。
对比单元42,用于对比本次外呼对象的语音与本次通话中之前语音的语调、语速和音量,评估所述外呼对象的情绪变化。
对象质量单元43,用于识别所述第一通话中的业务关键词密度,评价外呼对象质量。
数据处理单元44,用于根据所述第一预测模型对上述数据进行处理,得到外呼对象当前状态,并生成话术提醒呈现给人工坐席。
在一些实施例中,所述的一种基于语音识别的外呼管理装置,还包括如下模块。
第二处理模块50,用于根据第二预设模型对第二通话进行处理,并对异常进行处理。
在一些实施例中,所述的一种基于语音识别的外呼管理装置,还包括如下模块。
推荐话术模块60,用于当所述外呼对象状态异常时,为所述人工坐席提供推荐话术。
在一些实施例中,所述的一种基于语音识别的外呼管理装置,还包括如下模块。
接管模块70,用于当第二通话异常的情形异于严重程度时,使用预设语句接管通话;其中,所述预设语句的语音特征与人工坐席的语音特征相同。
本实施例提供了一种位于呼叫中心的基于语音识别的外呼管理装置,可以与呼叫中心的业务密切配合,大幅提高了呼叫中心对于外呼通话的处理效率,并且可以对多人同时在线监控,减少了管理成本,降低了人工坐席的工作难度,提升了外呼效果。
对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本申请各实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。
本申请各实施例中的装置及终端中的模块和子模块可以根据实际需要进行合并、划分和删减。
本申请所提供的几个实施例中,应该理解到,所揭露的终端,装置和方法,可以通过其它的方式实现。例如,以上所描述的终端实施例仅仅是示意性的,例如,模块或子模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个子模块或模块可以结合或者可以集成到另一个模块,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块或子模块可以是或者也可以不是物理上分开的,作为模块或子模块的部件可以是或者也可以不是物理模块或子模块,即可以位于一个地方,或者也可以分布到多个网络模块或子模块上。可以根据实际的需要选择其中的部分或者全部模块或子模块来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块或子模块可以集成在一个处理模块中,也可以是各个模块或子模块单独物理存在,也可以两个或两个以上模块或子模块集成在一个模块中。上述集成的模块或子模块既可以采用硬件的形式实现,也可以采用软件功能模块或子模块的形式实现。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种基于语音识别的外呼管理方法,其特征在于:包括:
获取外呼通话内容,并将外呼对象的通话标记为第一通话,人工坐席的通话标记为第二通话;
对所述第一通话进行第一实时语音监测和环境识别;其中,所述第一实时语音监测主要用于对第一语音特征进行监测;所述第一语音特征包括语调、语速、音量、业务关键词;
对所述第二通话进行第二实时语音监测;其中,所述第二实时语音监测主要用于第二语音特征进行监测;所述第二语音特征包括对语调、语速、音量、服务关键词;
根据第一预设模型对第一语音特征进行处理,并对人工坐席进行相应提醒。
2.如权利要求1所述的一种基于语音识别的外呼管理方法,其特征在于,所述根据第一预设模型对第一语音特征进行处理,并对人工坐席进行相应提醒,包括:
判断当前语调、语速、音量是否在正常范围内,并进行分级;
对比本次外呼对象的语音与本次通话中之前语音的语调、语速和音量,评估所述外呼对象的情绪变化;
识别所述第一通话中的业务关键词密度,评价外呼对象质量;
根据所述第一预测模型对上述数据进行处理,得到外呼对象当前状态,并生成话术提醒呈现给人工坐席。
3.如权利要求1所述的一种基于语音识别的外呼管理方法,其特征在于,还包括:
根据第二预设模型对第二通话进行处理,并对异常进行处理。
4.如权利要求3所述的一种基于语音识别的外呼管理方法,其特征在于,还包括:
当所述外呼对象状态异常时,为所述人工坐席提供推荐话术。
5.如权利要求3所述的一种基于语音识别的外呼管理方法,其特征在于,还包括:
当第二通话异常的情形异于严重程度时,使用预设语句接管通话;其中,所述预设语句的语音特征与人工坐席的语音特征相同。
6.一种基于语音识别的外呼管理装置,其特征在于,包括:
获取通话模块,用于获取外呼通话内容,并将外呼对象的通话标记为第一通话,人工坐席的通话标记为第二通话;
第一通话模块,用于对所述第一通话进行第一实时语音监测和环境识别;其中,所述第一实时语音监测主要用于对第一语音特征进行监测;所述第一语音特征包括语调、语速、音量、业务关键词;
第二通话模块,用于对所述第二通话进行第二实时语音监测;其中,所述第二实时语音监测主要用于第二语音特征进行监测;所述第二语音特征包括对语调、语速、音量、服务关键词;
第一处理模块,用于根据第一预设模型对第一语音特征进行处理,并对人工坐席进行相应提醒。
7.如权利要求6所述的一种基于语音识别的外呼管理装置,其特征在于,所述第一处理模块,包括:
分级单元,用于判断当前语调、语速、音量是否在正常范围内,并进行分级;
对比单元,用于对比本次外呼对象的语音与本次通话中之前语音的语调、语速和音量,评估所述外呼对象的情绪变化;
对象质量单元,用于识别所述第一通话中的业务关键词密度,评价外呼对象质量;
数据处理单元,用于根据所述第一预测模型对上述数据进行处理,得到外呼对象当前状态,并生成话术提醒呈现给人工坐席。
8.如权利要求6所述的一种基于语音识别的外呼管理装置,其特征在于,还包括:
第二处理模块,用于根据第二预设模型对第二通话进行处理,并对异常进行处理。
9.如权利要求8所述的一种基于语音识别的外呼管理装置,其特征在于,还包括:
推荐话术模块,用于当所述外呼对象状态异常时,为所述人工坐席提供推荐话术。
10.如权利要求8所述的一种基于语音识别的外呼管理装置,其特征在于,还包括:
接管模块,用于当第二通话异常的情形异于严重程度时,使用预设语句接管通话;其中,所述预设语句的语音特征与人工坐席的语音特征相同。
CN202111430416.3A 2021-11-29 2021-11-29 一种基于语音识别的外呼管理方法及装置 Pending CN116189713A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111430416.3A CN116189713A (zh) 2021-11-29 2021-11-29 一种基于语音识别的外呼管理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111430416.3A CN116189713A (zh) 2021-11-29 2021-11-29 一种基于语音识别的外呼管理方法及装置

Publications (1)

Publication Number Publication Date
CN116189713A true CN116189713A (zh) 2023-05-30

Family

ID=86440861

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111430416.3A Pending CN116189713A (zh) 2021-11-29 2021-11-29 一种基于语音识别的外呼管理方法及装置

Country Status (1)

Country Link
CN (1) CN116189713A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116886819A (zh) * 2023-08-07 2023-10-13 云南电网有限责任公司 一种多维度话务数据监控方法、装置及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116886819A (zh) * 2023-08-07 2023-10-13 云南电网有限责任公司 一种多维度话务数据监控方法、装置及存储介质
CN116886819B (zh) * 2023-08-07 2024-02-02 云南电网有限责任公司 一种多维度话务数据监控方法、装置及存储介质

Similar Documents

Publication Publication Date Title
US20190124201A1 (en) Communication session assessment
US10127928B2 (en) Multi-party conversation analyzer and logger
US20190253558A1 (en) System and method to automatically monitor service level agreement compliance in call centers
US11632463B2 (en) Automated systems and methods for natural language processing with speaker intention inference
US8798255B2 (en) Methods and apparatus for deep interaction analysis
US8687792B2 (en) System and method for dialog management within a call handling system
US8050923B2 (en) Automated utterance search
US8676586B2 (en) Method and apparatus for interaction or discourse analytics
US20160036976A1 (en) System And Method For Providing Agent Guidance
CN107818798A (zh) 客服服务质量评价方法、装置、设备及存储介质
US10743104B1 (en) Cognitive volume and speech frequency levels adjustment
KR101795593B1 (ko) 전화상담원 보호 장치 및 그 방법
CN102932561B (zh) 用于实时监听声音的系统和方法
CN111683175B (zh) 一种自动应答来电的方法、装置、设备及存储介质
US20120101873A1 (en) Method and apparatus for dynamic communication-based agent skill assessment
EP4020467A1 (en) Voice coaching system and related methods
CN114760387A (zh) 管理保持的方法和装置
CN110705309A (zh) 服务质量评测方法及系统
CN114449105A (zh) 基于语音的电力客户服务话务质检系统
CN116129874A (zh) 通信系统和操作通信系统的方法
CN116189713A (zh) 一种基于语音识别的外呼管理方法及装置
CN111835925A (zh) 一种面向呼叫中心的离线语音质检及分析系统
Pandharipande et al. A novel approach to identify problematic call center conversations
US10924611B2 (en) Voice recognition system and call evaluation setting method
US11763242B2 (en) Automatic evaluation of recorded interactions

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination