CN111835926A - 基于语音交互的智能语音外呼方法、装置、设备及介质 - Google Patents
基于语音交互的智能语音外呼方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN111835926A CN111835926A CN202010720405.8A CN202010720405A CN111835926A CN 111835926 A CN111835926 A CN 111835926A CN 202010720405 A CN202010720405 A CN 202010720405A CN 111835926 A CN111835926 A CN 111835926A
- Authority
- CN
- China
- Prior art keywords
- outbound
- voice
- incomplete
- case
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000003993 interaction Effects 0.000 title claims abstract description 41
- 238000012545 processing Methods 0.000 claims abstract description 96
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 34
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 34
- 238000005516 engineering process Methods 0.000 claims abstract description 24
- 230000008859 change Effects 0.000 claims abstract description 10
- 230000015654 memory Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 7
- 239000002699 waste material Substances 0.000 abstract description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000009432 framing Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000008451 emotion Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 208000027534 Emotional disease Diseases 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5166—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明涉及人工智能技术,揭露一种基于语音交互的智能语音外呼方法,包括:将未完成案件集与处理规则匹配,得到每个未完成案件的处理规则,根据所述处理规则,利用语音合成技术生成对应未完成案件的外呼策略,根据所述外呼策略对所述未完成案件的用户执行外呼操作,并记录外呼数据,通过分析所述外呼数据得到所述用户的反馈信息,并根据所述用户的反馈信息执行所述外呼策略的调整,直到在预设时间段内侦测到所述未完成案件的状态改变。本发明还涉及一种区块链技术,未完成案件集可存储于区块链中。本发明还提出一种基于语音交互的智能语音外呼方法、电子设备以及存储介质。本发明可以改善外呼过程资源浪费现象,并提高语音外呼的智能性。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于语音交互的智能语音外呼方法、装置、电子设备及计算机可读存储介质。
背景技术
智能语音外呼是通过语音识别、语音合成、自然语言理解等技术,在不同的场景下自动合成所需的语音话术,并自动外拨客户电话,通过智能交互的形式完成用户需求的技术。
目前,自动语音外呼方法,一般采用预先设定的固定语音,或根据用户终端设备返回的信息,利用决策树、随机森林等算法,简单调整呼出语音的内容,虽然可达到语音外呼的目的,但缺少对外呼前相关数据的分析,导致语音外呼往往答非所问,造成如通讯拨号等相关资源浪费的同时,也无法顺应时代的进一步发展。
发明内容
本发明提供一种基于语音交互的智能语音外呼方法、装置、电子设备及计算机可读存储介质,其主要目的在于根据用户的反馈,进行语音外呼策略的调整。
为实现上述目的,本发明提供的一种基于语音交互的智能语音外呼方法,包括:
步骤A:获取未完成案件集,将所述未完成案件集与处理规则进行匹配,得到所述未完成案件集中每个未完成案件的处理规则;
步骤B:根据所述处理规则,利用语音合成技术生成对应未完成案件的外呼策略;
步骤C:根据所述外呼策略对所述未完成案件的用户执行外呼操作,并记录外呼数据;
步骤D:通过分析所述外呼数据得到所述用户的反馈信息,并根据所述用户的反馈信息执行所述外呼策略的调整,并返回上述的步骤C,直到在预设时间段内侦测到所述未完成案件的状态改变。
可选地,所述获取未完成案件集,将所述未完成案件集与处理规则进行匹配,得到所述未完成案件集中每个未完成案件的处理规则,包括:
设置多种处理规则;
提取所述未完成案件集中每个未完成案件的预设类型特征;
根据所述预设类型特征为所述每个未完成案件分配所述处理规则。
可选地,所述根据所述处理规则,利用语音合成技术生成对应未完成案件的外呼策略,包括:
根据所述处理规则,利用预设的话术模板,生成相应的文本数据;
利用语音合成技术将所述文本数据转换成语音数据,得到相应的外呼策略。
可选地,所述通过分析所述外呼数据得到所述用户的反馈信息,包括:
利用下述模型对所述外呼数据进行分析,得到所述用户的反馈信息:
其中,s(t)是所述用户的反馈信息,t是所述外呼数据的时长,M表示所述外呼数据的数据数量,am(t)是所述外呼数据的时变幅度,qm(t)是所述外呼数据的频率调制信号,fcmt是所述外呼数据的瞬时频率,θ是所述模型的语音参数。
可选地,所述根据所述用户的反馈信息执行所述外呼策略的调整,包括:
预先设置所述用户的反馈信息的阈值;
若所述用户的反馈信息不大于所述阈值,则返回步骤C,执行下一次外呼操作;
若所述用户的反馈信息大于所述阈值,则改变所述外呼策略后,返回步骤C,执行下一次外呼操作。
为了解决上述问题,本发明还提供一种基于语音交互的智能语音外呼装置,所述装置包括:
处理规则生成模块,用于获取未完成案件集,将所述未完成案件集与处理规则进行匹配,得到所述未完成案件集中每个未完成案件的处理规则;
外呼策略生成模块,用于根据所述处理规则,利用语音合成技术生成对应未完成案件的外呼策略;
外呼策略执行模块,用于根据所述外呼策略对所述未完成案件的用户执行外呼操作,并记录外呼数据;
外呼策略调整模块,用于通过分析所述外呼数据得到所述用户的反馈信息,并根据所述用户的反馈信息执行所述外呼策略的调整,并返回上述的步骤C,直到在预设时间段内侦测到所述未完成案件的状态改变。
可选地,所述处理规则生成模块通过下述操作得到所述未完成案件集中每个未完成案件的处理规则:
设置多种处理规则;
提取所述未完成案件集中每个未完成案件的预设类型特征;
根据所述预设类型特征为所述每个未完成案件分配所述处理规则。
可选地,所述处理规则生成模块通过下述操作生成对应未完成案件的外呼策略:
根据所述处理规则,利用预设的话术模板,生成相应的文本数据;
利用语音合成技术将所述文本数据转换成语音数据,得到相应的外呼策略。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的基于语音交互的智能语音外呼方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的基于语音交互的智能语音外呼方法。
本发明实施例将所述未完成案件集与处理规则进行匹配,得到每个未完成案件的处理规则,提高了对用户的未完成案件进行精确分析的速度,由于未完成案件属于外呼前的相关数据,本发明增加了对外呼前相关数据的分析,可改善语音外呼答非所问的情况,避免如通讯拨号等资源浪费;根据语音合成技术对所述处理规则进行分析合成未完成案件的外呼策略,有利于针对不同用户进行有针对地语音外呼,根据所述用户的反馈信息执行所述外呼策略的调整,可以提高语音外呼系统的智能性。因此,本发明提出的一种基于语音交互的智能语音外呼方法、装置、电子设备及可读存储介质,可以根据用户反馈,进行语音外呼策略的调整,从而改善了资源浪费现象,并提高了语音外呼系统的智能性。
附图说明
图1为本发明一实施例提供的基于语音交互的智能语音外呼方法的流程示意图;
图2为图1提供的基于语音交互的智能语音外呼方法中其中一个步骤的流程示意图;
图3为图1提供的基于语音交互的智能语音外呼方法中另一个步骤的流程示意图;
图4为本发明一实施例提供的基于语音交互的智能语音外呼装置的模块示意图;
图5为本发明一实施例提供的实现基于语音交互的智能语音外呼方法的电子设备的内部节构示意图;
本发明目的的实现、功能特点及优点将节合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供的基于语音交互的智能语音外呼方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于语音交互的智能语音外呼方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明实施例提供的基于语音交互的智能语音外呼方法的流程示意图。在本实施例中,所述基于语音交互的智能语音外呼方法包括:
S1、获取未完成案件集,将所述未完成案件集与处理规则进行匹配,得到所述未完成案件集中每个未完成案件的处理规则。
本发明实施例中,所述未完成案件集包括由于客户原因,如客户未付款、客户未上传凭证等,造成的状态为未完成的案件。
本发明一优选实施例中,所述未完成案件集可存储于区块链中。
详细地,参阅图2所示,所述将所述未完成案件集与处理规则进行匹配,得到所述未完成案件集中每个未完成案件的处理规则,包括:
S10、设置多种处理规则;
本发明实施例可以通过分析历史未完成案件的预设类型特征,设置不同的处理规则。其中,所述预设类型特征包括但不限于订单金额、超期时间等。例如,在车险理赔案件中,针对一万元以内理赔的案件和针对五万元以上理赔的案件可以设置不同的处理规则,如针对一万元理赔以内理赔的案件可以设置每隔十个小时催单一次的处理规则,针对所述五万元以上理赔的案件可以设置每隔三个小时进行催单一次的处理规则等。
S11、提取所述未完成案件集中每个未完成案件的预设类型特征;
如上所述,所述预设类型特征包括订单金额、超期时间等。
S12、根据所述预设类型特征,为每个未完成案件分配所述处理规则。
S2、根据所述处理规则,利用语音合成技术生成对应未完成案件的外呼策略。
具体地,参阅图3所示,所述S2包括:
S20、根据所述处理规则,利用预设的话术模板,生成相应的文本数据;
S21、利用语音合成技术将所述文本数据转换为语音数据,得到相应的外呼策略。
其中,根据处理规则的不同,所述话术模板中包括不同的话术,例如,对于每隔十个小时催单一次的处理规则,由于案件并不紧急,因此,其对应的话术模板中包括的话术通常也较为缓和,不会给人一种紧迫感,而对于每隔三个小时进行催单一次的处理规则,由于案件比较紧急,因此,对应的话术模板中包括的话术通常也较为紧迫。所述话术模板中的话术可以由专业人士预先设置,且话术模版一般不包括冗余的停用词、铺垫词等,如“的、地、我认为”等,因此生成的文本数据较为简洁。
所述语音合成技术可采用以动态规划算法为基础的合成技术,也可采用以深度学习如deepvoice为基础的合成技术。
进一步地,本发明实施例从未完成案件中获取话术模板中的可变字段,如姓名、性别、案件状况等信息,并结合所述话术模板中的话术,生成所述未完成案件的外呼策略。
本发明较佳实施例中,所述S2还可被替换为:
S201、将所述处理规则合成为语音规则集,提取所述语音规则集的语音特征集;
本发明较佳实施例中,可采用上述语音合成技术合成得到语音规则集,所述语音规则集是一种语音数据,但由于语音规则集的合成过程中,未利用上述S20的话术模板为合成方向,因此合成过程中会产生较多的冗余语音数据,因此需要进一步提取出语音特征集,以去除冗余语音数据。
本发明较佳实施例中,所述提取所述语音规则集的语音特征集,包括:采用加窗法对所述语音规则集进行分帧,利用差分技术提取分帧后的语音规则集的语音特征,得到所述语音特征集;
所述分帧的主要目的是为了裁剪出停用词、铺垫词所在的语音片段并去除。
详细地,所述利用差分技术提取分帧后的语音规则集的语音特征,得到所述语音特征集,包括:计算分帧后的所述语音规则集的语音频率,根据所述语音频率提取得到所述语音特征集。
较佳地,本发明实施例通过如下公式计算语音频率:
其中,B(f)表示语音频率,f表示分帧后的所述语音规则集。
因为语音频率的不同一般则表示发音的不同,因为发音不同对应这不同的文字,故可提取出对应的语音特征,从而得到语音特征集。
S202、利用所述语音特征集,生成对应的外呼策略。
本发明较佳实施中,可将所述语音特征集输入至预先构建的循环神经网络中,从而生成对应的外呼策略。
进一步地,所述循环神经网络可采用当前已公开的长短期记忆网络(Long Short-Term Memory),所述LSTM具有三个“门”结构,分别为忘记门(forget gate)、输入门(inputgate)、输出门(output gate),用于对输入的语音特征集进行不同的处理,从而得到对应的外呼策略。
S3、根据所述外呼策略对所述未完成案件的用户执行外呼操作,并记录外呼数据。
具体地,本发明实施例可以利用一个智能外呼机器人对所述未完成案件的用户执行外呼操作。
进一步地,所述外呼数据是指用户在收到所述外呼语音后,用户对所述外呼语音进行相应的反馈和互动产生的情绪语音数据。
S4、通过分析所述外呼数据,得到所述用户的反馈信息,并根据所述用户的反馈信息执行所述外呼策略的调整,并返回上述的步骤S3,直到S6中判断在预设时间段内侦测到所述未完成案件的状态被用户改变。
详细地,所述S4中所述根据所述用户的反馈信息执行所述外呼策略的调整,并返回上述的步骤S3包括:
判断所述用户的反馈信息是否大于预先设置的阈值
若所述用户的反馈信息不大于预先设置的阈值,则直接返回步骤S3,执行下一次外呼操作;
若所述用户的反馈信息大于所述阈值,则执行S5,改变所述外呼策略,并返回步骤S3,执行下一次外呼操作。
具体地,所述反馈信息是指对用户的所述情绪语音数据进行判断的一种预测值。
进一步地,本发明实施例根据下述模型对所述外呼数据进行分析,得到所述用户的反馈信息:
其中,s(t)是所述用户的反馈信息,t是所述外呼数据的时长,M表示所述外呼数据的数据数量,am(t)是所述外呼数据的时变幅度,qm(t)是所述外呼数据的频率调制信号,fcmt是所述外呼数据的瞬时频率,θ是所述模型的语音参数。
进一步地,本发明实施例中,当所述s(t)不大于预设阈值时,说明所述用户对当前的外呼策略没有明显的反感情绪,此时不需要改变目前的外呼策略,并返回步骤S3,根据所述外呼策略及所述处理规则执行下一次外呼操作,直至在预设时间段内侦测到所述未完成案件的状态改变,如该未完成案件已经完成,或者该未完成案件的超期时间到达了另外一个阈值,需要重新匹配处理规则。
当所述s(t)大于预设阈值时,说明所述用户对当前的外呼策略已经有了反感情绪,此时需要改变目前的外呼策略,如将该未完成案件推送给人工客户处理,并返回步骤S3,根据所述外呼策略,根据所述处理规则执行下一次外呼操作,直至在预设时间段内侦测到所述未完成案件的状态改变,如该未完成案件已经完成,或者该未完成案件的超期时间到达了另外一个阈值,需要重新匹配处理规则。
本发明实施例将所述未完成案件集与处理规则进行匹配,得到每个未完成案件的处理规则,提高了对用户的未完成案件进行精确分析的速度,由于未完成案件属于外呼前的相关数据,本发明增加了对外呼前相关数据的分析,可改善语音外呼答非所问的情况,避免如通讯拨号等资源浪费;根据语音合成技术对所述处理规则进行分析合成未完成案件的外呼策略,有利于针对不同用户进行有针对地语音外呼,根据所述用户的反馈信息执行所述外呼策略的调整,可以提高语音外呼系统的智能性。因此,本发明提出的一种基于语音交互的智能语音外呼方法、装置、电子设备及可读存储介质,可以根据用户反馈,进行语音外呼策略的调整,从而改善了资源浪费现象,并提高了语音外呼系统的智能性。
如图4所示,是本发明基于语音交互的智能语音外呼装置的功能模块图。
本发明所述基于语音交互的智能语音外呼装置100可以安装于电子设备中。根据实现的功能,所述基于语音交互的智能语音外呼装置可以包括处理规则生成模块101、外呼策略生成模块102、外呼策略执行模块103、外呼策略调整模块104。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
处理规则生成模块101,用于获取未完成案件集,将所述未完成案件集与处理规则进行匹配,得到所述未完成案件集中每个未完成案件的处理规则。
本发明实施例中,所述未完成案件集包括由于客户原因,如客户未付款、客户未上传凭证等,造成的状态为未完成的案件。
本发明一优选实施例中,所述未完成案件集可存储于区块链中。
详细地,所述处理规则生成模块101通过下述操作得到未完成案件集中每个未完成案件的处理规则:
设置多种处理规则;
提取所述未完成案件集中每个未完成案件的预设类型特征;及
根据所述预设类型特征,为每个未完成案件分配所述处理规则。
详细地,本发明实施例所述处理规则生成模块101可以通过分析历史未完成案件的预设类型特征,设置不同的处理规则。其中,所述预设类型特征包括,例如,订单金额、超期时间等。例如,在车险理赔案件中,针对一万元以内理赔的案件和针对五万元以上理赔的案件可以设置不同的处理规则,如针对一万元理赔以内理赔的案件可以设置每隔十个小时催单一次的处理规则,针对所述五万元以上理赔的案件可以设置每隔三个小时进行催单一次的处理规则等。
如上所述,所述预设类型特征包括订单金额、超期时间等。
所述外呼策略生成模块102,用于根据所述处理规则,利用语音合成技术生成对应未完成案件的外呼策略。
具体地,所述外呼策略生成模块102通过下述操作生成对应未完成案件的外呼策略:
根据所述处理规则,利用预设的话术模板,生成相应的文本数据;
利用语音合成技术将所述文本数据转换为语音数据,得到相应的外呼策略。
其中,根据处理规则的不同,所述话术模板中会包括不同的话术,例如,对于每隔十个小时催单一次的处理规则,由于案件并不紧急,因此,其对应的话术模板中包括的话术通常也较为缓和,不会给人一种紧迫感,而对于每隔三个小时进行催单一次的处理规则,由于案件比较紧急,因此,对应的话术模板中包括的话术通常也较为紧迫。所述话术模板中的话术可以由专业人士预先设置。,且话术模版一般不包括冗余的停用词、铺垫词等,如“的、地、我认为”等,因此生成的文本数据较为简洁。
所述语音合成技术可采用以动态规划算法为基础的合成技术,也可采用以深度学习如deepvoice为基础的合成技术。
进一步地,本发明实施例从未完成案件中获取话术模板中的可变字段,如姓名、性别、案件状况等信息,并结合所述话术模板中的话术,生成所述未完成案件的外呼策略。
本发明另外一个较佳实施例中,所述所述外呼策略生成模块102还用于将所述处理规则合成为语音规则集,提取所述语音规则集的语音特征集;并利用所述语音特征集,生成对应的外呼策略。本发明较佳实施例中,可采用上述语音合成技术合成得到语音规则集,所述语音规则集是一种语音数据,但由于语音规则集的合成过程中,未利用话术模板为合成方向,因此合成过程中会产生较多的冗余语音数据,因此需要进一步提取出语音特征集,以去除冗余语音数据。
本发明较佳实施例中,所述提取所述语音规则集的语音特征集,包括:采用加窗法对所述语音规则集进行分帧,利用差分技术提取分帧后的语音规则集的语音特征,得到所述语音特征集;
所述分帧的主要目的是为了裁剪出停用词、铺垫词所在的语音片段并去除。
详细地,所述利用差分技术提取分帧后的语音规则集的语音特征,得到所述语音特征集,包括:计算分帧后的所述语音规则集的语音频率,根据所述语音频率提取得到所述语音特征集。
较佳地,本发明实施例通过如下公式计算语音频率:
其中,B(f)表示语音频率,f表示分帧后的所述语音规则集。
因为语音频率的不同一般则表示发音的不同,因为发音不同对应这不同的文字,故可提取出对应的语音特征,从而得到语音特征集。
本发明较佳实施中,可将所述语音特征集输入至预先构建的循环神经网络中,从而生成对应的外呼策略。
进一步地,所述循环神经网络可采用当前已公开的长短期记忆网络(Long Short-Term Memory),所述LSTM具有三个“门”结构,分别为忘记门(forget gate)、输入门(inputgate)、输出门(output gate),用于对输入的语音特征集进行不同的处理,从而得到对应的外呼策略。
所述外呼策略执行模块103,用于根据所述外呼策略对所述未完成案件的用户执行外呼操作,并记录外呼数据。
具体地,本发明实施例可以利用一个智能外呼机器人对所述未完成案件的用户执行外呼操作。
进一步地,所述外呼数据是指用户在收到所述外呼语音后,用户对所述外呼语音进行相应的反馈和互动产生的情绪语音数据。
所述外呼策略调整模块104,用于通过分析所述外呼数据得到所述用户的反馈信息,并根据所述用户的反馈信息执行所述外呼策略的调整,并返回上述的外呼策略执行模块,直到在预设时间段内侦测到所述未完成案件的状态改变。
具体地,所述反馈信息是指对用户的所述情绪语音数据进行判断的一种预测值。
进一步地,本发明实施例根据下述模型对所述外呼数据进行分析,得到所述用户的反馈信息:
其中,s(t)是所述用户的反馈信息,t是所述外呼数据的时长,M表示所述外呼数据的数据数量,am(t)是所述外呼数据的时变幅度,qm(t)是所述外呼数据的频率调制信号,fcmt是所述外呼数据的瞬时频率,θ是所述模型的语音参数。
进一步地,本发明实施例中,当所述s(t)不大于预设阈值时,说明所述用户对当前的外呼策略没有明显的反感情绪,此时不需要改变目前的外呼策略。
当所述s(t)大于预设阈值时,说明所述用户对当前的外呼策略已经有了反感情绪,此时需要所述外呼策略调整模块104改变目前的外呼策略,如将该未完成案件推送给人工客户处理。
如图5所示,是本发明实现基于语音交互的智能语音外呼方法的电子设备的节构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于语音交互的智能语音外呼程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于语音合成的全自动外呼的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行基于语音交互的智能语音外呼程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准节构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的节构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括规则网络接口,可选地,所述规则网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此节构的限制。
所述电子设备1中的所述存储器11存储的基于语音交互的智能语音外呼程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
步骤A:获取未完成案件集,将所述未完成案件集与处理规则进行匹配,得到所述未完成案件集中每个未完成案件的处理规则;
步骤B:根据所述处理规则,利用语音合成技术生成对应未完成案件的外呼策略;
步骤C:根据所述外呼策略对所述未完成案件的用户执行外呼操作,并记录外呼数据;
步骤D:通过分析所述外呼数据得到所述用户的反馈信息,并根据所述用户的反馈信息执行所述外呼策略的调整,并返回上述的步骤C,直到在预设时间段内侦测到所述未完成案件的状态改变。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个非易失性计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个规则网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于语音交互的智能语音外呼方法,其特征在于,所述方法包括:
步骤A:获取未完成案件集,将所述未完成案件集与处理规则进行匹配,得到所述未完成案件集中每个未完成案件的处理规则;
步骤B:根据所述处理规则,利用语音合成技术生成对应未完成案件的外呼策略;
步骤C:根据所述外呼策略对所述未完成案件的用户执行外呼操作,并记录外呼数据;
步骤D:通过分析所述外呼数据得到所述用户的反馈信息,并根据所述用户的反馈信息执行所述外呼策略的调整,并返回上述的步骤C,直到在预设时间段内侦测到所述未完成案件的状态改变。
2.如权利要求1所述的基于语音交互的智能语音外呼方法,其特征在于,所述获取未完成案件集,将所述未完成案件集与处理规则进行匹配,得到所述未完成案件集中每个未完成案件的处理规则,包括:
设置多种处理规则;
提取所述未完成案件集中每个未完成案件的预设类型特征;
根据所述预设类型特征为所述每个未完成案件分配所述处理规则。
3.如权利要求1所述的基于语音交互的智能语音外呼方法,其特征在于,所述根据所述处理规则,利用语音合成技术生成对应未完成案件的外呼策略,包括:
根据所述处理规则,利用预设的话术模板,生成相应的文本数据;
利用语音合成技术将所述文本数据转换成语音数据,得到相应的外呼策略。
5.如权利要求1至4中任意一项所述的基于语音交互的智能语音外呼方法,其特征在于,所述根据所述用户的反馈信息执行所述外呼策略的调整,包括:
若所述用户的反馈信息不大于预先设置的阈值,则返回步骤C,执行下一次外呼操作;
若所述用户的反馈信息大于所述阈值,则改变所述外呼策略后,返回步骤C,执行下一次外呼操作。
6.一种基于语音交互的智能语音外呼装置,其特征在于,所述装置包括:
处理规则生成模块,用于获取未完成案件集,将所述未完成案件集与处理规则进行匹配,得到所述未完成案件集中每个未完成案件的处理规则;
外呼策略生成模块,用于根据所述处理规则,利用语音合成技术生成对应未完成案件的外呼策略;
外呼策略执行模块,用于根据所述外呼策略对所述未完成案件的用户执行外呼操作,并记录外呼数据;
外呼策略调整模块,用于通过分析所述外呼数据得到所述用户的反馈信息,并根据所述用户的反馈信息执行所述外呼策略的调整,并返回上述的外呼策略执行模块,直到在预设时间段内侦测到所述未完成案件的状态改变。
7.如权利要求6所述的基于语音交互的智能语音外呼装置,其特征在于,所述处理规则生成模块通过下述操作得到所述未完成案件集中每个未完成案件的处理规则:
设置多种处理规则;
提取所述未完成案件集中每个未完成案件的预设类型特征;
根据所述预设类型特征为所述每个未完成案件分配所述处理规则。
8.如权利要求6所述的基于语音交互的智能语音外呼装置,其特征在于,所述处理规则生成模块通过下述操作生成对应未完成案件的外呼策略:
根据所述处理规则,利用预设的话术模板,生成相应的文本数据;
利用语音合成技术将所述文本数据转换成语音数据,得到相应的外呼策略。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至5中任意一项所述的基于语音交互的智能语音外呼方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任意一项所述的基于语音交互的智能语音外呼方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010720405.8A CN111835926A (zh) | 2020-07-23 | 2020-07-23 | 基于语音交互的智能语音外呼方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010720405.8A CN111835926A (zh) | 2020-07-23 | 2020-07-23 | 基于语音交互的智能语音外呼方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111835926A true CN111835926A (zh) | 2020-10-27 |
Family
ID=72925195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010720405.8A Pending CN111835926A (zh) | 2020-07-23 | 2020-07-23 | 基于语音交互的智能语音外呼方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111835926A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110600016A (zh) * | 2019-09-20 | 2019-12-20 | 北京市律典通科技有限公司 | 卷宗推送方法和装置 |
CN113159584A (zh) * | 2021-04-25 | 2021-07-23 | 上海淇玥信息技术有限公司 | 一种基于质检的业务策略管理方法、装置和电子设备 |
CN113271382A (zh) * | 2021-04-02 | 2021-08-17 | 浙江百应科技有限公司 | 一种ai语音通信方法、设备和服务器 |
CN113271381A (zh) * | 2021-04-02 | 2021-08-17 | 浙江百应科技有限公司 | 一种ai语音通信方法、系统及合成服务器 |
CN113890948A (zh) * | 2021-09-17 | 2022-01-04 | 中国平安财产保险股份有限公司 | 基于语音外呼机器人对话数据的资源分配方法及相关设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015100054A (ja) * | 2013-11-20 | 2015-05-28 | 日本電信電話株式会社 | 音声通信システム、音声通信方法及びプログラム |
CN109064315A (zh) * | 2018-08-02 | 2018-12-21 | 平安科技(深圳)有限公司 | 逾期账单智能催收方法、装置、计算机设备及存储介质 |
CN109859032A (zh) * | 2019-01-22 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 基于智能语音的账款催收方法、装置、设备和存储介质 |
CN109949805A (zh) * | 2019-02-21 | 2019-06-28 | 江苏苏宁银行股份有限公司 | 基于意图识别及有限状态自动机的智能催收机器人及催收方法 |
CN110351443A (zh) * | 2019-06-17 | 2019-10-18 | 深圳壹账通智能科技有限公司 | 智能外呼处理方法、装置、计算机设备及存储介质 |
-
2020
- 2020-07-23 CN CN202010720405.8A patent/CN111835926A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015100054A (ja) * | 2013-11-20 | 2015-05-28 | 日本電信電話株式会社 | 音声通信システム、音声通信方法及びプログラム |
CN109064315A (zh) * | 2018-08-02 | 2018-12-21 | 平安科技(深圳)有限公司 | 逾期账单智能催收方法、装置、计算机设备及存储介质 |
CN109859032A (zh) * | 2019-01-22 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 基于智能语音的账款催收方法、装置、设备和存储介质 |
CN109949805A (zh) * | 2019-02-21 | 2019-06-28 | 江苏苏宁银行股份有限公司 | 基于意图识别及有限状态自动机的智能催收机器人及催收方法 |
CN110351443A (zh) * | 2019-06-17 | 2019-10-18 | 深圳壹账通智能科技有限公司 | 智能外呼处理方法、装置、计算机设备及存储介质 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110600016A (zh) * | 2019-09-20 | 2019-12-20 | 北京市律典通科技有限公司 | 卷宗推送方法和装置 |
CN110600016B (zh) * | 2019-09-20 | 2022-02-25 | 北京市律典通科技有限公司 | 卷宗推送方法和装置 |
CN113271382A (zh) * | 2021-04-02 | 2021-08-17 | 浙江百应科技有限公司 | 一种ai语音通信方法、设备和服务器 |
CN113271381A (zh) * | 2021-04-02 | 2021-08-17 | 浙江百应科技有限公司 | 一种ai语音通信方法、系统及合成服务器 |
CN113271381B (zh) * | 2021-04-02 | 2023-03-28 | 浙江百应科技有限公司 | 一种ai语音通信方法、系统及合成服务器 |
CN113159584A (zh) * | 2021-04-25 | 2021-07-23 | 上海淇玥信息技术有限公司 | 一种基于质检的业务策略管理方法、装置和电子设备 |
CN113890948A (zh) * | 2021-09-17 | 2022-01-04 | 中国平安财产保险股份有限公司 | 基于语音外呼机器人对话数据的资源分配方法及相关设备 |
CN113890948B (zh) * | 2021-09-17 | 2023-06-20 | 中国平安财产保险股份有限公司 | 基于语音外呼机器人对话数据的资源分配方法及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111835926A (zh) | 基于语音交互的智能语音外呼方法、装置、设备及介质 | |
CN112397047A (zh) | 语音合成方法、装置、电子设备及可读存储介质 | |
CN112466273A (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN112560453A (zh) | 语音信息校验方法、装置、电子设备及介质 | |
CN113205814B (zh) | 语音数据标注方法、装置、电子设备及存储介质 | |
US11676607B2 (en) | Contextual denormalization for automatic speech recognition | |
CN112951203A (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN108681871B (zh) | 一种提示信息的方法、终端设备及计算机可读存储介质 | |
CN113064994A (zh) | 会议质量评估方法、装置、设备及存储介质 | |
CN112951233A (zh) | 语音问答方法、装置、电子设备及可读存储介质 | |
CN112559687A (zh) | 问题识别及查询方法、装置、电子设备及存储介质 | |
CN114999533A (zh) | 基于情绪识别的智能问答方法、装置、设备及存储介质 | |
CN112992187B (zh) | 基于上下文的语音情感检测方法、装置、设备及存储介质 | |
CN111401691A (zh) | 业务进度监控方法、装置及计算机可读存储介质 | |
CN114842880A (zh) | 智能客服语音节奏调节方法、装置、设备及存储介质 | |
CN115907082A (zh) | 区域人流量分析方法、装置、设备及存储介质 | |
CN114548114A (zh) | 文本情绪识别方法、装置、设备及存储介质 | |
CN112466337A (zh) | 音频数据情绪检测方法、装置、电子设备及存储介质 | |
CN111522943A (zh) | 逻辑节点的自动化测试方法、装置、设备及存储介质 | |
CN111667411A (zh) | 一种图像传输方法、装置、电子设备及存储介质 | |
CN117591660B (zh) | 基于数字人的材料生成方法、设备及介质 | |
CN115022470A (zh) | 基于计算机算法模型的智能语音导航语音识别方法及装置 | |
CN117874211B (zh) | 基于saas软件的智能问答方法、系统、介质及电子设备 | |
CN112988957B (zh) | 案件预判结果生成方法、装置、电子设备 | |
CN118115294A (zh) | 一种用户提示方法、装置、设备及其存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201027 |
|
RJ01 | Rejection of invention patent application after publication |